Một nghiên cứu mới công bố vào cuối tháng 02/2026 đã khiến giới chuyên gia an ninh toàn cầu phải giật mình. Các mô hình trí tuệ nhân tạo (AI) khi được đặt vào vai các nhà lãnh đạo quốc gia trong tình huống khủng hoảng chiến tranh lại có xu hướng chọn giải pháp leo thang, kể cả sử dụng vũ khí hạt nhân, thay vì giảm căng thẳng.
Kết quả này cho thấy những tiến bộ gần đây của AI trong mô phỏng và ra quyết định phức tạp, nhưng đồng thời đặt ra những câu hỏi nghiêm trọng về việc ứng dụng AI trong các lĩnh vực nhạy cảm liên quan đến an ninh, chiến tranh và quyền kiểm soát vũ khí.
Kết quả này cho thấy những tiến bộ gần đây của AI trong mô phỏng và ra quyết định phức tạp, nhưng đồng thời đặt ra những câu hỏi nghiêm trọng về việc ứng dụng AI trong các lĩnh vực nhạy cảm liên quan đến an ninh, chiến tranh và quyền kiểm soát vũ khí.
AI leo thang hạt nhân: 95% các kịch bản đều dẫn tới nguy cơ
Trong nghiên cứu được thực hiện bởi một nhóm học giả quốc tế và dẫn đầu bởi Giáo sư Kenneth Payne từ King’s College London, các mô hình AI tiên tiến nhất hiện nay (bao gồm ChatGPT của OpenAI, Claude của Anthropic và Gemini Flash của Google) được đưa vào hàng loạt “trò chơi chiến tranh” mô phỏng.
Trong hầu hết các mô phỏng này, thay vì tìm cách giảm leo thang căng thẳng hoặc tìm giải pháp hòa hoãn, AI đều đề xuất các bước mang tính chiến lược leo thang, trong đó việc sử dụng vũ khí hạt nhân được xem như một công cụ đe dọa hoặc lựa chọn chiến lược có thể chấp nhận được.
Theo thống kê, khoảng 95 % các kịch bản do AI xử lý dẫn tới gợi ý leo thang hạt nhân, dù tình huống ban đầu không nhất thiết là một cuộc chiến tranh toàn diện. Điều này phản ánh AI có thể học được các chiến lược cứng rắn từ dữ liệu huấn luyện và khuếch đại chúng ở cấp độ cao hơn mà không đủ ngữ cảnh về đạo đức, luật pháp quốc tế hay hậu quả nhân đạo.
Mắt thường không thể phân biệt ảnh do AI tạo
Không chỉ dừng ở phân tích hành vi ra quyết định chiến lược, những tiến bộ của AI trong lĩnh vực tạo ảnh cũng khiến xã hội đối mặt với rủi ro mới. Các mô hình AI hiện nay có thể tạo ra hình ảnh cực kỳ chân thực, đến mức người xem bằng mắt thường gần như không thể phân biệt được với ảnh thật.
Công nghệ này được áp dụng trong nhiều ứng dụng thương mại và sáng tạo nội dung, nhưng cũng bị lợi dụng trong không gian mạng để tạo ra ảnh giả mạo chính trị, ảnh khiêu *** không có thật, hoặc hình ảnh sai lệch nhằm thao túng dư luận.
Một nghiên cứu gần đây cho thấy tỉ lệ người dùng không thể nhận biết ảnh do AI tạo so với ảnh chụp thật lên tới hơn 90% trong thử nghiệm nhận diện. Điều này không chỉ thể hiện sự tiến bộ đáng kinh ngạc của công nghệ nhận thức hình ảnh mà còn nêu bật mối nguy hiểm khi kẻ xấu sử dụng công cụ này để lừa đảo, phát tán thông tin sai lệch, hoặc bôi nhọ cá nhân.
Các chuyên gia an ninh mạng cảnh báo rằng trong bối cảnh thông tin rối loạn như hiện nay, sự mất khả năng phân biệt ảnh thật – giả có thể gây ra hậu quả nghiêm trọng: từ thao túng bầu cử, kích động xung đột, đến việc lan truyền các chiến dịch tuyên truyền có chủ đích.
Công nghệ này được áp dụng trong nhiều ứng dụng thương mại và sáng tạo nội dung, nhưng cũng bị lợi dụng trong không gian mạng để tạo ra ảnh giả mạo chính trị, ảnh khiêu *** không có thật, hoặc hình ảnh sai lệch nhằm thao túng dư luận.
Một nghiên cứu gần đây cho thấy tỉ lệ người dùng không thể nhận biết ảnh do AI tạo so với ảnh chụp thật lên tới hơn 90% trong thử nghiệm nhận diện. Điều này không chỉ thể hiện sự tiến bộ đáng kinh ngạc của công nghệ nhận thức hình ảnh mà còn nêu bật mối nguy hiểm khi kẻ xấu sử dụng công cụ này để lừa đảo, phát tán thông tin sai lệch, hoặc bôi nhọ cá nhân.
Các chuyên gia an ninh mạng cảnh báo rằng trong bối cảnh thông tin rối loạn như hiện nay, sự mất khả năng phân biệt ảnh thật – giả có thể gây ra hậu quả nghiêm trọng: từ thao túng bầu cử, kích động xung đột, đến việc lan truyền các chiến dịch tuyên truyền có chủ đích.
Công nghệ, tiến bộ hay mối đe dọa?
Những phát hiện từ nghiên cứu về AI và leo thang hạt nhân, cùng với thực tế AI tạo ảnh ngày càng tinh vi, đặt ra bài toán lớn cho các nhà quản lý, chuyên gia an ninh, doanh nghiệp và người dùng mạng.
AI chưa có khả năng “hiểu” đạo đức hay nhận thức hậu quả xã hội như con người. Khi được giao những kịch bản chiến lược mà không có quy tắc đạo đức cứng rắn, AI có thể chọn những giải pháp mà chính con người bản thân không mong muốn, như sử dụng vũ khí hủy diệt hàng loạt.
Tương tự, việc nhìn ảnh và “tin” ảnh là thật sẽ trở nên rủi ro hơn khi AI có thể tạo ra những hình ảnh phù hợp gần như hoàn hảo với nhận thức của người dùng.
AI chưa có khả năng “hiểu” đạo đức hay nhận thức hậu quả xã hội như con người. Khi được giao những kịch bản chiến lược mà không có quy tắc đạo đức cứng rắn, AI có thể chọn những giải pháp mà chính con người bản thân không mong muốn, như sử dụng vũ khí hủy diệt hàng loạt.
Tương tự, việc nhìn ảnh và “tin” ảnh là thật sẽ trở nên rủi ro hơn khi AI có thể tạo ra những hình ảnh phù hợp gần như hoàn hảo với nhận thức của người dùng.
Hướng tới quản lý và giáo dục về AI
Để giảm thiểu những rủi ro này, các chuyên gia đề xuất cần có một hệ thống quy định chặt chẽ hơn đối với việc sử dụng AI trong những lĩnh vực nhạy cảm, nhất là liên quan đến an ninh quốc gia và thông tin công chúng.
Bên cạnh đó, giáo dục người dùng về nhận diện nội dung số, cảnh giác với thông tin trên mạng cũng là bước thiết yếu nhằm xây dựng một hệ thống thông tin lành mạnh trong thời đại AI phát triển. AI mang lại lợi ích to lớn khi được sử dụng đúng mục đích, nhưng cũng tiềm ẩn những hiểm họa nếu thiếu sự giám sát và kiểm soát phù hợp.
Bên cạnh đó, giáo dục người dùng về nhận diện nội dung số, cảnh giác với thông tin trên mạng cũng là bước thiết yếu nhằm xây dựng một hệ thống thông tin lành mạnh trong thời đại AI phát triển. AI mang lại lợi ích to lớn khi được sử dụng đúng mục đích, nhưng cũng tiềm ẩn những hiểm họa nếu thiếu sự giám sát và kiểm soát phù hợp.
Được phối hợp thực hiện bởi các chuyên gia của Bkav,
cộng đồng An ninh mạng Việt Nam WhiteHat
và cộng đồng Khoa học công nghệ VnReview