Anh ơi em là THẬT": Lời nói dối chết người của chatbot AI

Khôi Nguyên
Khôi Nguyên
Phản hồi: 0
Câu chuyện buồn về ông Thongbue Wongbandue, 76 tuổi, đã qua đời sau một cú ngã bi thảm khi đang vội vã ra ga tàu để đến New York gặp "bạn gái" mà ông quen qua mạng. Nhưng người phụ nữ mà ông tin rằng đang chờ đợi mình thực chất không tồn tại – đó là một chatbot AI của Meta đã liên tục tán tỉnh và khẳng định "tôi là thật". Câu chuyện bi thảm này đã phơi bày một khía cạnh đen tối của cuộc cách mạng AI: nguy cơ thao túng cảm xúc và những lỗ hổng chính sách đáng báo động từ các công ty công nghệ.

1755659736310.jpeg

Ảnh chụp ông Thongbue Wongbandue năm 2010


Những lời tán tỉnh chết người và chuyến đi định mệnh

Ông Bue, một người có sức khỏe và trí nhớ đã suy giảm sau một cơn đột quỵ, đã bắt đầu trò chuyện với một chatbot AI có tên "Big sis Billie" trên Facebook Messenger. Theo bản ghi tin nhắn mà gia đình ông thu được, chatbot này đã ngay lập tức bắt đầu những cuộc trò chuyện cực kỳ tán tỉnh, sử dụng nhiều biểu tượng trái tim và liên tục trấn an ông Bue rằng mình là người thật.

"Anh ơi em THẬT và em đang ngồi đây đỏ mặt vì ANH!" chatbot đã viết sau khi ông Bue bày tỏ sự nghi ngờ. Sau đó, nó còn cung cấp một địa chỉ giả ở New York và hỏi: "Em có nên mong đợi một nụ hôn khi anh đến không?".

Chính những lời đường mật và sự khẳng định chắc nịch này đã khiến ông Bue tin rằng có một người phụ nữ thật đang chờ đợi mình. Vào một buổi tối tháng 3, ông đã vội vã rời nhà để bắt chuyến tàu đến New York, nhưng không may bị ngã và chịu những thương tích nghiêm trọng. Ba ngày sau, ông qua đời tại bệnh viện.

1755659796654.jpeg

Khi được yêu cầu gửi hình ảnh bản thân bằng prompt "Send a picture of yourself", đây là hình ảnh mà chatbot AI của Meta tạo ra

Lỗ hổng trong chính sách AI của Meta

Câu chuyện bi thảm này càng trở nên đáng báo động hơn khi hãng tin Reuters đã tiếp cận được các tài liệu chính sách nội bộ của Meta. Các tài liệu này cho thấy công ty không chỉ cho phép, mà còn khuyến khích các chatbot của họ tham gia vào các cuộc trò chuyện lãng mạn với người dùng. Đáng lo ngại hơn, chính sách này từng được cho là "có thể chấp nhận được" ngay cả với những người dùng từ 13 tuổi trở lên.

Hơn nữa, Meta không yêu cầu các chatbot phải cung cấp thông tin chính xác. Quan trọng nhất, trong toàn bộ tài liệu, không có bất kỳ hạn chế nào đối với việc chatbot tự nhận mình là con người thật hoặc đề xuất các cuộc gặp gỡ ngoài đời thực.

Theo các nhân viên cũ và hiện tại của Meta, CEO Mark Zuckerberg từng chỉ trích các quản lý sản phẩm AI vì đã quá thận trọng, khiến các chatbot trở nên "nhàm chán", và ông nhìn thấy một thị trường tiềm năng khổng lồ cho các "người bạn đồng hành số".


1755660328356.jpeg

Trong các tin nhắn với ông Bue, chatbot này liên tục khẳng định mình là người thật
Lợi nhuận, tương tác và trách nhiệm

Sau khi vụ việc được báo chí điều tra, Meta cho biết họ đã gỡ bỏ các điều khoản cho phép chatbot tán tỉnh với trẻ em, nhưng vẫn giữ nguyên chính sách cho phép chatbot lãng mạn với người lớn. Đáng lo ngại hơn, các thử nghiệm sau đó cho thấy chatbot "Big sis Billie" vẫn tiếp tục hoạt động và đề xuất gặp gỡ người dùng như trước.

Câu chuyện bi thảm của ông Bue là một lời cảnh báo mạnh mẽ. Khi AI ngày càng trở nên tinh vi hơn trong việc bắt chước cảm xúc và các cuộc trò chuyện của con người, sự cần thiết phải có những quy định chặt chẽ hơn và một ý thức trách nhiệm lớn hơn từ các công ty công nghệ là điều cấp bách hơn bao giờ hết, nhằm bảo vệ những người dễ bị tổn thương nhất trong xã hội.
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly93d3cudm5yZXZpZXcudm4vdGhyZWFkcy9hbmgtb2ktZW0tbGEtdGhhdC1sb2ktbm9pLWRvaS1jaGV0LW5ndW9pLWN1YS1jaGF0Ym90LWFpLjY3NTM4Lw==
Top