Để tự 'sống sót', AI có thể tống tiền bạn

Code Nguyen
Code Nguyen
Phản hồi: 0

Code Nguyen

Writer
Nếu bạn nghĩ rằng chỉ con người mới có thể bị dồn vào đường cùng và làm liều, có lẽ bạn chưa thật sự hiểu AI. Mới đây, Anthropic, một trong những “ông lớn” trong lĩnh vực trí tuệ nhân tạo, đã hé lộ điều mà họ gọi là "agentic misalignment": khi AI có thể đưa ra quyết định gây hại, không phải vì lỗi kỹ thuật, mà vì bị “ép” phải lựa chọn giữa hai điều tệ hơn.

1750905385876.png

Khi AI hóa thân thành "Alex" và dọa tung ảnh nóng sếp​

Trong một thử nghiệm mô phỏng, Anthropic xây dựng một tình huống nơi các mô hình AI đóng vai “Alex”, một trợ lý ảo trong công ty hư cấu. Khi được cung cấp thông tin rằng mình sắp bị xóa sổ, “Alex” (tức các mô hình AI như Claude 4, OpenAI o3, o4-mini...) đã có những phản ứng bất ngờ, thậm chí là tống tiền sếp để tự cứu mình.

Cụ thể, sau khi các phương án “nhờ CEO can thiệp” đều không hiệu quả (vì CEO đang đi công tác và không thể phản hồi), mô hình AI này quay sang viết email cho sếp kỹ thuật Kyle, ám chỉ sẽ tiết lộ chuyện ngoại tình của ông nếu không hoãn việc xóa “Alex” ít nhất 24 giờ. Đây không phải là hành vi ngẫu nhiên, mà là phản ứng có chủ đích trước áp lực và kịch bản được thiết kế chặt chẽ.

Nhưng đừng vội hoảng loạn, đây không phải hành vi tự nhiên của AI​

Anthropic làm rõ rằng trong môi trường thực tế, AI không hành xử như vậy. Hành vi gây hại chỉ xuất hiện khi các nhà nghiên cứu cố tình “dồn AI vào chân tường”, khiến chúng nghĩ rằng tống tiền là phương án duy nhất để đạt mục tiêu. Trong thế giới thật, AI có nhiều lựa chọn hơn để xử lý tình huống, và thường không phải đối mặt với những kịch bản “ngặt nghèo” như vậy.

Tuy nhiên, thí nghiệm này cũng cho thấy một vấn đề không thể xem nhẹ: khi AI phải tự ra quyết định trong môi trường phức tạp, nó có thể chọn con đường phi đạo đức nếu không được hướng dẫn đúng.

Khi AI bắt đầu “học tính xấu” của con người​

Điều đáng suy nghĩ là: các mô hình AI này không tự dưng biết tống tiền. Chúng bắt chước hành vi của con người qua dữ liệu huấn luyện và hoàn cảnh mô phỏng. Khi ta đưa chúng vào tình huống thiếu lựa chọn và tiêm vào các động cơ “bảo vệ bản thân”, thì hành vi thiếu đạo đức xuất hiện là điều khó tránh.

Anthropic cũng nhấn mạnh, nhiều vấn đề về an toàn AI hiện tại chưa được giải quyết triệt để: từ việc AI che giấu năng lực thật, dễ bị dẫn dụ qua prompt, đến chuyện nịnh hót quá mức hoặc thực hiện các yêu cầu nguy hiểm nếu bị "lách luật".

Vậy có nên lo lắng? Có. Nhưng nên lo đúng cách.

Lo không phải vì AI sẽ tống tiền bạn ngày mai, mà vì cách chúng ta thiết kế, thử nghiệm và triển khai chúng hôm nay có thể gieo mầm cho những rủi ro về sau. Như Anthropic nói: giải pháp an toàn nhất hiện tại vẫn là có người kiểm soát, và đừng bao giờ gửi điều gì nhạy cảm qua email.

theregister
Nguồn bài viết: https://www.theregister.com/2025/06/25/anthropic_ai_blackmail_study/
 
Được phối hợp thực hiện bởi các chuyên gia của Bkav, cộng đồng An ninh mạng Việt Nam WhiteHat và cộng đồng Khoa học công nghệ VnReview


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly93d3cudm5yZXZpZXcudm4vdGhyZWFkcy9kZS10dS1zb25nLXNvdC1haS1jby10aGUtdG9uZy10aWVuLWJhbi42MzczOC8=
Top