Nếu report vì mục đích xấu tại Việt Nam, Facebook tuyên bố sẽ khóa tài khoản vĩnh viễn
Nếu Facebook phát hiện tài khoản nào đó sử dụng tính năng report để làm xáo trộn tin, nhằm mục đích gây hiểu nhầm sẽ bị xử lý bằng cách gỡ bỏ nội dung và thậm chí bị xóa tài khoản vĩnh viễn.
Liên quan đến vấn đề hiện nhiều người sử dụng Facebook tại Việt Nam vì một lý do nào đó muốn ngăn chặn hoặc chơi xấu một cá nhân và sử dụng tính năng report (báo cáo) của Facebook, làm ảnh hưởng đến những người sử dụng Facebook bị báo cáo sai, ông Simon Harari, Giám đốc phụ trách Chính sách nội dung, Facebook Châu Á Thái Bình Dương cho biết, Facebook không dựa trên số người report nhiều hay ít. Thậm chí chỉ có 1 người report một nội dung hoặc một ai đó cũng được Facebook xem xét.
“Trường hợp này được sử dụng khá phổ biến tại Châu Á. Nếu Facebook phát hiện tài khoản nào đó sử dụng tính năng report để làm xáo trộn tin nhằm mục đích gây hiểu nhầm tin xấu hay có hành vi cố ý kết hợp tạo thành nhóm làm giả hình ảnh tên tuổi, đăng tin không xác thực, report sai sẽ bị xử lý bằng cách gỡ bỏ nội dung và thậm chí bị xóa tài khoản. Đây là hành vi lạm dụng các tính năng của Facebook” ông Simon Harari nói.
Tuy nhiên, để trấn an người dùng nếu không cố ý report để làm sai lệch nội dung, ông Simon Harari nói thêm, nếu người dùng Facebook report báo cáo sai 1 đến 2 lần sẽ không bị xóa, nhưng bị Facebook cảnh báo để nhắc nhở. Facebook sẽ theo dõi nếu thấy người này sử dụng tính năng report để liên tục làm sai tin tức ban đầu và làm ảnh hưởng giá trị của người khác sẽ bị xử lý. Facebook có chính sách áp dụng “án chung thân” cho những hành vi này, tức là sẽ chặn tài khoản vĩnh viễn.
Ông Simon Harari còn cho biết, Facebook có 15.000 nhân viên chuyên rà soát nội dung trên Facebook dùng 50 ngôn ngữ trên thế giới và có cả tiếng Việt kiểm duyệt 24/7 các nội dung. Các nội dung vi phạm tiêu chuẩn cộng đồng sẽ được tự động hóa phát hiện sau đó được đẩy lên cho các nhân viên của Facebook thẩm định và xử lý.
Hiện Facebook cũng đang đầu tư nhiều hơn vào trí tuệ nhân tạo (AI) để có thể chủ động phát hiện nội dung vi phạm, bổ sung cho các báo cáo nhận được từ cộng đồng. Trước đó, tháng 5/2019 Facbook đã công bố Báo cáo Thực thi tiêu chuẩn cộng đồng lần thứ 3, nêu tiến độ áp dụng 9 lĩnh vực chính sách.
Báo cáo cho biết, có 9 chính sách trong Tiêu chuẩn cộng đồng, đó là: ảnh khỏa thân người lớn và hoạt động tình dục, bắt nạt và quấy rối, ảnh khỏa thân trẻ em và bóc lột tình dục trẻ em, tài khoản giả, ngôn từ gây thù ghét, hàng hóa bị kiểm soát, spam, hoạt động tuyên truyền khủng bố toàn cầu, nội dung bạo lực và phản cảm. Đối với tài khoản giả, Facebook đã vô hiệu hóa 1,2 tỷ tài khoản trong quý 4/2018 và 2,19 tỷ tài khoản trong quý 1/2019.