1/5 thanh thiếu niên nhìn thấy hình ảnh khỏa thân hoặc khiêu dâm không mong muốn

24/02/2026 - 14:35

PNO - 19% người dùng từ 13-15 tuổi cho biết đã nhìn thấy ảnh khỏa thân hoặc hình ảnh khiêu dâm trên Instagram mà họ không muốn xem.

Khảo sát của Meta cho thấy 19% người dùng Instagram thanh thiếu niên nhìn thấy hình ảnh khỏa thân hoặc khiêu dâm không mong muốn
Khảo sát của Meta cho thấy 19% người dùng Instagram ở độ tuổi thanh thiếu niên nhìn thấy hình ảnh khỏa thân hoặc khiêu dâm không mong muốn

Trong một tài liệu vừa được hé lộ từ vụ kiện liên bang tại California (Mỹ), Adam Mosseri - người đứng đầu Instagram đã có phản biện về những nội dung nhạy cảm trên nền tảng này.

Trong lời khai, Mosseri cho biết công ty “không chia sẻ kết quả khảo sát một cách rộng rãi”.

Phát biểu này được đưa ra trong bối cảnh công ty mẹ của Instagram là Meta đang đối mặt với làn sóng chỉ trích ngày càng gia tăng về tác động của các nền tảng mạng xã hội đối với thanh thiếu niên.

Meta, chủ sở hữu của Facebook và Instagram, hiện đang bị các nhà lãnh đạo trên toàn cầu cáo buộc sản phẩm của họ gây tổn hại cho người dùng trẻ tuổi. Tại Mỹ, hàng ngàn đơn kiện tại tòa án liên bang và tiểu bang cho rằng công ty đã thiết kế các tính năng gây nghiện, góp phần làm trầm trọng thêm cuộc khủng hoảng sức khỏe tâm thần ở trẻ vị thành niên.

Theo tài liệu, nội dung khiêu dâm xuất phát từ một cuộc khảo sát người dùng Instagram về trải nghiệm của họ trên nền tảng, chứ không phải từ việc rà soát trực tiếp các bài đăng.

Ông Mosseri cho biết, phần lớn hình ảnh nhạy cảm được chia sẻ thông qua tin nhắn riêng tư giữa người dùng với nhau. Ông nhấn mạnh rằng khi xem xét các nội dung như vậy, công ty phải cân nhắc yếu tố quyền riêng tư. “Rất nhiều người không muốn chúng tôi đọc tin nhắn của họ” - ông nói.

Tài liệu cho thấy khoảng 8% người dùng trong độ tuổi từ 13-15 cho biết họ từng “nhìn thấy ai đó tự làm hại bản thân hoặc đe dọa làm như vậy trên Instagram”. Con số này tiếp tục làm dấy lên lo ngại về mức độ tiếp xúc của thanh thiếu niên với các nội dung độc hại trên mạng xã hội.

Trước áp lực ngày càng lớn, vào cuối năm 2025, Meta thông báo sẽ gỡ bỏ các hình ảnh và video “chứa ảnh khỏa thân hoặc hoạt động tình dục rõ ràng, bao gồm cả nội dung do AI tạo ra”, đồng thời cho biết sẽ xem xét ngoại lệ đối với nội dung mang tính y tế hoặc giáo dục.

Những diễn biến mới nhất từ vụ kiện liên bang tại California được cho là sẽ tiếp tục đặt ra các câu hỏi về trách nhiệm của các nền tảng mạng xã hội trong việc bảo vệ người dùng trẻ tuổi, cũng như ranh giới giữa kiểm duyệt nội dung và quyền riêng tư cá nhân trong kỷ nguyên số.

Trọng Trí (theo Japan Times)

 

news_is_not_ads=
TIN MỚI