Float banner Left 160x600

Float banner Left 160x600

Lần đầu tiên Facebook nêu rõ những điều bị cấm trên nền tảng này

Ảnh minh họa: pixabay.com

Lần đầu tiên Facebook công bố văn bản quy định hướng dẫn sử dụng mạng xã hội dài 27 trang nêu rõ những nội dung bị cấm trên nền tảng của họ.

Theo Hãng tin AP, trong vô số những nội dung bị Facebook xếp vào diện “hàng cấm”, có thể thấy những vấn đề thời gian qua từng gây nhiều bức xúc trong công luận như tin tức giả, bạo lực, khiêu dâm, kêu gọi hoặc truyền bá chủ nghĩa khủng bố, săn bắt các loài vật có nguy cơ tuyệt chủng, buôn bán hàng nóng, cần sa, thuốc bán theo đơn, chỉ dẫn tự tử….

Trên thực tế, hầu hết trong số những nội dung này đã được Facebook cảnh báo trong trang “các tiêu chuẩn cộng đồng” trước đây. Tuy nhiên tài liệu công bố ngày 24-4 là tài liệu được cho là lần đầu tiên “chi tiết đến thế” của Facebook về quy cách đăng tải thông tin trên nền tảng của họ.

Cũng trong thông báo này, Facebook cho biết 7.600 nhân viên điều phối nội dung của họ sẽ đảm nhiệm công việc thẩm định, đánh giá các nội dung có vấn đề được đăng tải trên Facebook.

Những người này sẽ phải ra quyết định có cần gỡ bỏ các nội dung vi phạm chính sách của công ty không. Và trong một số trường hợp có thể họ phải liên hệ với cơ quan chức năng để xử lý nếu cần thiết.

Bản thân các tiêu chuẩn về nội dung hợp lệ trên Facebook không thay đổi, tuy nhiên những thông tin chi tiết lại tiết lộ những điều khá thú vị. Chẳng hạn, trong một số trường hợp các bức ảnh chụp ngực phụ nữ được chấp nhận như cảnh cho con bú hay trong các bức tranh, nhưng lại không hợp lệ trong một số trường hợp khác.

Các điều phối của Facebook sẽ làm việc bằng 40 ngôn ngữ khác nhau để rà soát những nội dung (cả văn bản, hình ảnh, video…) trên nền tảng này để rồi quyết định xóa bỏ nội dung đó hay phải thông báo với nhà chức trách.

Mục đích của Facebook là có thể phản hồi ngay với những nội dung có vấn đề trong vòng 24 giờ, nhưng Facebook cho biết vẫn chưa áp dụng giới hạn thời gian cho các nhân viên thẩm định nội dung.

Thêm “việc khó” cho nhân viên Facebook

Chỉ cần đọc lướt qua thông báo chính sách mới của Facebook, bất cứ người đọc nào cũng có thể hình dung được mức độ khó khăn của công việc mà các nhân viên điều phối nội dung trên nền tảng này phải đối mặt.

Họ sẽ phải đọc và xem mọi nội dung “có vấn đề” được thiên hạ “ném” lên Facebook bao gồm văn bản (text), hình ảnh, video, để rồi phải đưa ra những quyết định khó khăn, và chắc chắn là không ít trường hợp nhạy cảm.

Chẳng hạn, làm thế nào để họ có thể phân biệt giữa một video có nội dung cổ súy cách ăn uống thiếu lành mạnh và một video chỉ thuần túy muốn giúp đỡ người khác. Hay đâu là ranh giới xác quyết giữa một câu chuyện trêu đùa và một hành vi quấy rối, đâu chỉ là những toan tính giả thuyết và đâu là những lời đe dọa trực tiếp, ….

Trên thực tế trong quá trình thực hiện việc kiểm soát nội dung trên nền tảng những năm qua, Facebook từng mắc phải những lầm lẫn đáng tiếc.

Năm 2016, sau nhiều chỉ trích, công ty này buộc phải thừa nhận bức ảnh “em bé Napalm” của phóng viên ảnh đoạt giải Pulitzer Nick Ut chụp năm 1972 trong cuộc chiến tranh chống Mỹ tại Việt Nam không phải ảnh khiêu dâm.

Ban đầu Facebook kiên quyết cho rằng họ không thể tạo ra một ngoại lệ cho bức ảnh chụp cảnh một em bé trần truồng, tuy nhiên sau đó đã sớm thay đổi lập luận vì bức ảnh “có tầm quan trọng toàn cầu”.

Trên thực tế, đúng như bà Monica Bickert, người phụ trách chính sách sản phẩm và chống khủng bố của Facebook thừa nhận, một trong những thách thức lớn nhất với Facebook là làm sao để có được tài liệu hướng dẫn được chấp nhận rộng rãi trên toàn thế giới. Bởi những gì được chấp nhận ở nơi này thì chưa chắc đã được chấp nhận ở nơi khác.

Ngoài ra còn có những “vùng xám” phổ biến khác. Chẳng hạn làm thế nào để biết chính xác nội dung nào là một phản ứng chính trị? Làm sao bạn có thể biết ai đó trong bức ảnh đã đồng ý cho phép đăng tải bức ảnh đó lên Facebook? Câu hỏi thứ hai chính là lý do chính để Facebook đưa ra quy định cấm ảnh nude trên nền tảng của họ, bởi đúng như lời bà Bickert, “rất khó để xác minh sự đồng thuận và độ tuổi”.

Lại cũng có tình huống một người có thể đồng ý lúc ghi băng hay chụp ảnh, nhưng cũng có thể lại không đồng ý với việc các hình ảnh “nhạy cảm” của họ bị đưa lên mạng xã hội.

Facebook đang phối hợp sử dụng cả lực lượng nhân viên thẩm định nội dung và công nghệ trí tuệ nhân tạo (AI) để loại bỏ các nội dung vi phạm chính sách công ty.

Tuy nhiên các công cụ AI cho tới nay vẫn chưa vươn tới trình độ có thể nhận biết được sự khác biệt tinh tế liên quan tới bối cảnh và lịch sử, đó là chưa nói tới các sắc thái biểu cảm hài hước hay châm biếm, do đó thật khó hy vọng chúng có thể đưa ra những đánh giá chính xác được như con người.

Và đương nhiên, ngay cả con người thì cũng đã phạm phải không ít sai lầm trong đánh giá, nhìn nhận sự việc.

Theo Đỗ Dương / tuoitre.vn