Facebook đang tự phát triển AI để giám sát và thanh lọc các kênh livestream xấu, hiệu quả hơn hẳn so với để con người đảm nhiệm

31/05/2018 10:14 AM | Công nghệ

Facebook đang phát triển một AI để tự động giám sát và thanh lọc các kênh livestream xấu, giúp khâu này có thể hiệu quả hơn hẳn so với khi để con người đảm nhiệm

Tính năng livestream đã được Facebook  ra mắt từ khá lâu và được cộng đồng mạng sử dụng như một cách tương tác mới với bạn bè, người thân trên mạng xã hội. Tuy nhiên, cũng có khá nhiều tài khoản Facebook sử dụng tính năng này để livestream các hình ảnh, nội dung phản cảm. Dù đã có nút report để người dùng có thể kiến nghị tới Facebook gỡ bỏ các nội dung livestream phản cảm nhưng có vẻ như chừng đó vẫn là chưa đủ để giữ cho môi trường mạng xã hội này trong sạch hơn.

Trước đây, Facebook đã từng giới thiệu về một hệ thống kiểm duyệt kết hợp giữa sự kiểm soát của các giám sát viên là con người với trí tuệ nhân tạo (AI) do chính Facebook phát triển nhằm phát hiện các video phản cảm, bạo lực và gỡ bỏ chúng một cách nhanh chóng hơn. Đến thời điểm hiện tại, Facebook đã tuyên bố rằng mình sẽ tự phát triển trí tuệ nhân tạo riêng mà không cần sự trợ giúp của các đơn vị công nghệ khác và dần dần sẽ thay thế toàn bộ giám sát viên là con người bằng các AI.

Thực tế thì đã có khá nhiều platform phát triển nên những AI có khả năng phân loại nội dung để phát hiện các content phản cảm và gỡ bỏ chúng. Tuy nhiên, Facebook đã dự định tiến xa hơn nữa khi lên kế hoạch phát triển cả AI phần cứng, về cơ bản là một con chip chứa trí tuệ nhân tạo riêng biệt.

Theo trang Bloomberg đưa tin thì loại chip này của Facebook sẽ tiêu tốn ít tài nguyên trong máy tính hơn và cũng tăng hiệu năng làm việc của phần cứng lên khá nhiều. Hiện tại, trung bình AI sẽ phát hiện ra các nội dung phản cảm trong vòng trung bình 10 phút kể từ khi chúng được đăng tải dù không có một report nào được đưa ra. AI này sẽ có thể được cải thiện để tương lai thay thế hoàn toàn con người trong lĩnh vực kiểm duyệt với hiệu suất làm việc cao hơn.

Hiện tại, mối băn khoăn của các chuyên gia công nghệ chỉ là việc Facebook sẽ huấn luyện AI của mình như thế nào để phân biệt được các nội dung phản cảm một cách chính xác nhất. Đơn cử như trường hợp các nhà hoạt động xã hội có thể đưa lên các bài báo, clip về bạo hành, tội phạm... với mục đích cảnh báo hoặc phanh phui sự thật...  và các nội dung này đôi khi cũng có thể bị AI nhầm lẫn mà gỡ bỏ.

Ví dụ như trường hợp vụ xô xát của cảnh sát với nam thanh niên mang tên Philando Castile vào năm 2017 vừa qua. Anh này đã bị cảnh sát bắn chết và toàn bộ sự việc đã được bạn gái của Castile vô tình quay lại, live trên Facebook. Bộ phận kiểm duyệt của Facebook đã tỏ ra khá bối rối với trường hợp này, ban đầu đã xóa clip livestream vì cho rằng nó phản cảm, sau đó lại cho clip xuất hiện lại với cảnh báo về nội dung rồi cuối cùng lại tiếp tục xóa clip. Những trường hợp tương tự có thể tiếp tục xảy ra trong tương lai và có lẽ Facebook cần phải training khá kĩ cho AI của mình trước khi để hệ thống này có thể tự giám sát các nội dung nhạy cảm thay cho con người hoàn toàn.

Trang Thu

Cùng chuyên mục
XEM