Cảnh báo nguy cơ AI bị biến thành công cụ tạo vũ khí sinh học, gây đại dịch toàn cầu

04/12/2025 - 12:02

PNO - Những công cụ AI hiện có và đang phát triển có thể bị lợi dụng để tạo ra các dạng vũ khí sinh học, đủ sức kích hoạt một đại dịch toàn cầu, đó là cảnh báo mới nhất từ giới chuyên gia công nghệ và chống khủng bố.

bên cạnh những ứng dụng y học mang tính đột phá – đang bị xem như “con dao hai lưỡi” có thể tạo ra những mối đe dọa chưa từng có đối với nhân loại.Ảnh minh họa: CIGI
Bên cạnh những ứng dụng y học mang tính đột phá, AI đang bị xem như ''con dao hai lưỡi'' có thể tạo ra những mối đe dọa chưa từng có đối với nhân loại. Ảnh minh họa: CIGI

Trong báo cáo do Sáng kiến Ngăn chặn Đe dọa Hạt nhân (NTI) phối hợp Hội nghị An ninh Munich công bố, 14 chuyên gia hàng đầu đã phân tích khả năng AI bị lợi dụng để tạo ra mầm bệnh nhân tạo. Theo họ, sự phát triển nhanh tới mức chóng mặt của AI đang làm suy yếu những rào cản vốn ngăn chặn các tác nhân xấu tiếp cận công nghệ sinh học nguy hiểm.

Những công cụ AI hỗ trợ thiết kế protein, mô phỏng gene hay tổng hợp sinh học - vốn được tạo ra để phục vụ y học - nay có nguy cơ bị khai thác để tạo virus hoặc vi khuẩn mang độc lực cao, thậm chí tùy biến để vượt qua hàng rào miễn dịch con người.

Trong cuộc họp, các chuyên gia cùng phân tích một kịch bản giả lập: một nhóm cực đoan sử dụng AI để phát triển chủng enterovirus mới, sau đó phát tán ra toàn cầu.

Mô hình cho thấy đại dịch giả định này gây ra 850 triệu ca nhiễm, 60 triệu ca tử vong, hệ thống y tế toàn cầu quá tải, chuỗi cung ứng đứt gãy và nền kinh tế thế giới rơi vào hỗn loạn.

Theo các chuyên gia, đây không phải là ''thảm họa viễn tưởng'', mà là nguy cơ hoàn toàn có thể xảy ra trong tương lai gần, nếu không có biện pháp giám sát và kiểm soát chặt chẽ.

Mặc dù nhiều quốc gia đã siết chặt quy định liên quan đến công nghệ sinh học, nhóm chuyên gia nhận định hệ thống kiểm soát hiện nay ''thua xa tốc độ phát triển của AI''. Nhiều công cụ AI sinh học hoạt động mở, dễ truy cập và không được quản lý chặt, tạo khoảng trống lớn cho những hành vi lợi dụng.

Các lỗ hổng lớn gồm thiếu cơ chế kiểm tra danh tính người dùng AI sinh học, không có hệ thống cảnh báo khi AI bị hỏi những câu liên quan đến tạo mầm bệnh, kho tàng kiến thức sinh học và mô hình AI mở sẵn trên mạng, thiếu tiêu chuẩn quốc tế chung để quản lý AI trong lĩnh vực sinh học...

Trước nguy cơ ngày càng lớn, nhóm chuyên gia đề xuất một loạt biện pháp, đó là tăng cường hợp tác quốc tế trong giám sát rủi ro sinh học liên quan đến AI, thiết lập tiêu chuẩn kỹ thuật toàn cầu cho AI sinh học, phát triển công cụ kiểm soát, phát hiện hành vi sử dụng AI sai mục đích và đầu tư vào hệ thống phòng thủ sinh học mạnh hơn.

Tuy vậy, các chuyên gia nhấn mạnh cần cân bằng giữa quản lý và đổi mới, tránh việc những quy định quá chặt chẽ kìm hãm phát triển khoa học, đặc biệt là trong lĩnh vực y học, nơi AI đang mở ra cơ hội mới cho việc điều trị và ngăn ngừa bệnh tật.

Nhật Minh (theo Euronews)

 

news_is_not_ads=
TIN MỚI