Mối lo ngại về tội phạm AI deepfake ngày càng tăng

07/05/2025 - 07:12

PNO - Tình trạng sử dụng trí tuệ nhân tạo (AI) cho mục đích xấu trên toàn cầu đang ngày càng tăng.

Theo một nghiên cứu năm 2023 của Công ty AI Sensity (Hà Lan), khoảng 96% video deepfake trực tuyến là nội dung khiêu dâm không được đồng ý của nạn nhân, hầu hết những video deepfake này đều mô tả phụ nữ. Điều đáng ngại là mặc dù AI deepfake đang có mặt trên khắp các nền tảng, đe dọa nhiều phụ nữ và trẻ em với những hình ảnh giả nhưng luật pháp ở hầu hết các nước lại không hoặc chưa có quy định cụ thể biện pháp ngăn chặn, trừng trị tội phạm.

Tội phạm đang dùng deepfake để bắt chước khuôn mặt, giọng nói hoặc hành động của một người và tạo ra những hình ảnh xấu - Nguồn ảnh: Shutterstock
Tội phạm đang dùng deepfake để bắt chước khuôn mặt, giọng nói hoặc hành động của một người và tạo ra những hình ảnh xấu - Nguồn ảnh: Shutterstock

Vào một ngày hè năm 2023, Kim Youk Min - một giáo viên trung học ở Hàn Quốc - đang ăn trưa thì điện thoại báo có tin nhắn. Mở ra xem, cô kinh hoàng khi thấy khuôn mặt mình được chỉnh sửa, ghép vào các hình khỏa thân và chia sẻ với hàng chục người dùng Telegram. Các bình luận trong ảnh cũng rất thô tục. Tin nhắn từ người ẩn danh bảo cô “xem video sex của chính mình đi” kèm theo đó là đe dọa sẽ chia sẻ hình ảnh rộng rãi hơn. “Tôi đã bị tấn công bởi tất cả những hình ảnh mà tôi chưa bao giờ tưởng tượng ra trong đời” - Kim chia sẻ.

Khi các công cụ AI phổ biến thì bất kỳ ai cũng có thể trở thành mục tiêu của các video deepfake. Ở Hàn Quốc, công nghệ deepfake đang gây ra mối đe dọa mới và cuộc khủng hoảng này đặc biệt nghiêm trọng ở các trường học. Theo dữ liệu từ Bộ Giáo dục nước này, từ tháng 1 đến đầu tháng 11/2024, hơn 900 học sinh, giáo viên và nhân viên trong các trường học báo cáo họ đã trở thành nạn nhân của tội phạm tình dục deepfake.

Để ứng phó, Bộ Giáo dục đã thành lập một lực lượng đặc nhiệm khẩn cấp. Vào tháng Chín, các nhà lập pháp đã thông qua một sửa đổi, theo đó, việc sở hữu và xem phim khiêu dâm deepfake có thể bị phạt tới 3 năm tù hoặc phạt tiền tới 30 triệu won (hơn 20.000 USD). Việc tạo và phát tán hình ảnh khiêu dâm deepfake có mức phạt tù tối đa 7 năm.

Cảnh sát quốc gia Hàn Quốc đã kêu gọi các sĩ quan cảnh sát “đi đầu trong việc xóa bỏ hoàn toàn tội phạm tình dục deepfake”. Tuy nhiên theo cảnh sát Seoul, trong 964 vụ tội phạm tình dục liên quan đến deepfake được báo cáo năm 2024, cảnh sát chỉ bắt giữ được 23 người. Nhà lập pháp Kim Nam-hee nói “các cuộc điều tra và hình phạt cho đến nay vẫn còn quá thụ động”.
Giữa tháng Tư vừa qua, cảnh sát Nhật Bản cho biết đã bắt nhiều tội phạm trong vụ bán hình ảnh AI khiêu dâm lần đầu tiên xảy ra ở nước này. Theo đó, 4 người đàn ông từ 20-50 tuổi bị bắt vì đã sử dụng AI miễn phí để tạo ra hình ảnh những người phụ nữ khỏa thân khiêu gợi cùng những lời trò chuyện dung tục.

Cuối tháng Tư vừa qua, Hạ viện Mỹ đã thông qua Đạo luật Take It Down nhằm giải quyết tác hại do AI gây ra. Dự luật này cũng đã được Thượng viện thông qua và Tổng thống Trump dự kiến ​​sẽ ký, coi khiêu dâm deepfake không có sự đồng thuận là tội phạm và yêu cầu các nền tảng phải gỡ bỏ những nội dung như vậy trong vòng 48 giờ sau khi nhận được thông báo.
Cùng mối quan tâm này, các chính trị gia Anh tuần qua cũng cảnh báo các ứng dụng “khỏa thân” sử dụng AI tạo ra hình ảnh khiêu dâm giả mạo ở trẻ em và kêu gọi cấm ngay lập tức.

Thu Thanh (theo SCMP, Korea Times, Times)

 

news_is_not_ads=
TIN MỚI