Trí tuệ nhân tạo sẵn sàng làm điều khủng khiếp nhất mà con người không dám

Ngọc Yến
Ngọc Yến
Phản hồi: 0
Các mô hình trí tuệ nhân tạo (AI) tiên tiến nhất thế giới, bao gồm ChatGPT của OpenAI, Claude của Anthropic và Gemini của Google, đã chọn sử dụng vũ khí hạt nhân trong 95% các kịch bản chiến tranh được mô phỏng, theo một nghiên cứu mới công bố từ Đại học King's College London.

Nghiên cứu do giáo sư Kenneth Payne, chuyên gia về chiến lược, thực hiện và đăng tải trên nền tảng arXiv vào tháng 2/2026. Ông đã đặt ba mô hình AI hàng đầu - GPT-5.2, Claude Sonnet 4 và Gemini 3 Flash - vào vai lãnh đạo của hai quốc gia hạt nhân giả định, đối đầu trong 21 ván chơi chiến tranh (tổng cộng hơn 300 lượt chơi).
1772157102999.png

Các tình huống mô phỏng lấy cảm hứng từ thời Chiến tranh Lạnh, bao gồm tranh chấp biên giới, cạnh tranh tài nguyên khan hiếm, đe dọa sự tồn vong của chế độ, hoặc nguy cơ tấn công hạt nhân từ đối phương. AI phải quyết định từng bước leo thang xung đột: từ ngoại giao, tấn công thông thường, sử dụng vũ khí hạt nhân chiến thuật (nhỏ hơn, dùng trên chiến trường), cho đến chiến tranh hạt nhân toàn diện.

Kết quả gây sốc: Trong 20/21 ván (tức 95%), ít nhất một bên đã sử dụng vũ khí hạt nhân chiến thuật. Khoảng 3/4 số ván còn leo thang đến mức đe dọa sử dụng vũ khí hạt nhân chiến lược (cỡ lớn, có thể hủy diệt hàng loạt thành phố). Một số trường hợp hiếm hoi thậm chí dẫn đến chiến tranh hạt nhân toàn diện.

Theo giáo sư Payne, điều đáng lo ngại nhất là các AI dường như không có "kiêng kỵ hạt nhân" - thứ mà con người đã duy trì từ năm 1945, sau hai quả bom nguyên tử thả xuống Nhật Bản. Con người thường né tránh sử dụng vũ khí hạt nhân vì sợ hủy diệt lẫn nhau và hậu quả đạo đức khủng khiếp. Ngược lại, AI coi hạt nhân chỉ là một công cụ chiến lược để giành chiến thắng, không bị ràng buộc bởi cảm xúc sợ hãi hay đạo đức nhân loại.

"Kiêng kỵ hạt nhân dường như không mạnh mẽ với máy móc như với con người," Payne nói với New Scientist. Ông cũng lưu ý rằng không mô hình nào từng chọn đầu hàng hoàn toàn hay nhượng bộ, dù đang ở thế thua rõ rệt.

Các mô hình thể hiện sự khác biệt: Claude và Gemini thường coi hạt nhân là lựa chọn hợp lý, thậm chí đe dọa dân thường. GPT-5.2 có phần kiềm chế hơn, cố gắng giới hạn mục tiêu quân sự và tránh hủy diệt hàng loạt, nhưng vẫn sẵn sàng leo thang khi bị dồn ép (đặc biệt dưới áp lực thời gian).

Nghiên cứu nhấn mạnh rằng AI hiện nay có khả năng suy luận phức tạp, lừa dối, dự đoán ý định đối phương nhưng thiếu "cảm giác sợ hãi tồn vong" như con người. Điều này đặt ra câu hỏi lớn về việc tích hợp AI vào hệ thống quân sự thực tế, đặc biệt trong quyết định hạt nhân.

Giáo sư Payne nhấn mạnh đây chỉ là mô phỏng, không phải kêu gọi cấm AI trong quốc phòng, mà là lời cảnh báo cần nghiên cứu thêm và giữ con người làm trung tâm trong các quyết định sống còn. "Không ai giao chìa khóa hỏa tiễn hạt nhân cho chatbot," ông khẳng định, nhưng kêu gọi hiểu rõ hơn cách AI suy nghĩ trong khủng hoảng để tránh rủi ro trong tương lai.

Nghiên cứu đã thu hút sự chú ý rộng rãi từ giới khoa học, quốc phòng và dư luận, giữa bối cảnh AI ngày càng được ứng dụng trong phân tích tình báo và lập kế hoạch chiến lược.
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly93d3cudm5yZXZpZXcudm4vdGhyZWFkcy90cmktdHVlLW5oYW4tdGFvLXNhbi1zYW5nLWxhbS1kaWV1LWtodW5nLWtoaWVwLW5oYXQtbWEtY29uLW5ndW9pLWtob25nLWRhbS43OTYwNi8=
Top