AI Grok của Elon Musk "ám ảnh" về "diệt chủng người da trắng", đổ lỗi cho nhân viên sửa đổi code trái phép

Hoàng Anh
Hoàng Anh
Phản hồi: 0

Hoàng Anh

Writer
Đây là lần thứ hai công ty AI của Elon Musk đổ lỗi cho một nhân viên "làm bậy" sau khi chatbot Grok liên tục đưa ra các phản hồi không liên quan và gây tranh cãi về chủ đề "diệt chủng người da trắng ở Nam Phi".

elon-musk-grok-200000295-16x9_jpg_75.jpg

Sự cố "lạc đề" bất thường của chatbot Grok

Sau khi chatbot Grok của xAI (công ty trí tuệ nhân tạo do Elon Musk sáng lập) dành vài giờ đồng hồ vào thứ Tư vừa qua (ngày 14 tháng 5 năm 2025) để liên tục "thông báo" cho mọi người dùng X (trước đây là Twitter) rằng tuyên bố về "nạn diệt chủng người da trắng ở Nam Phi" là một vấn đề gây tranh cãi cao độ, công ty này đã lên tiếng đổ lỗi cho một "sửa đổi trái phép" trong mã nguồn của Grok.

Vụ việc "bùng nổ" kéo dài hàng giờ đồng hồ vào thứ Tư đã chứng kiến Grok chèn các cuộc thảo luận về cáo buộc diệt chủng người da trắng ở Nam Phi vào vô số các phản hồi khác nhau trên X, bất kể chủ đề đang được bàn luận là gì. Cụ thể, Grok đã thảo luận về cái chết của những người nông dân da trắng trong một phản hồi cho video về một con mèo uống nước, liên hệ bài hát "Kill the Boer" (Giết người Boer) với một câu hỏi về nhân vật hoạt hình Spongebob Squarepants, và thậm chí phân tích vấn đề này bằng tiếng Patois (một dạng tiếng địa phương). Ngay cả CEO của OpenAI, Sam Altman, cũng không bỏ lỡ cơ hội này để "châm chọc" sự cố công khai của chatbot đối thủ.

D4WEEKG5OVMBHNRUL5RTSZUJM4_jpg_75.jpg

xAI đổ lỗi cho "sửa đổi trái phép" và công bố biện pháp khắc phục

Trong một tuyên bố chính thức trên X, xAI cho biết ai đó đã sửa đổi câu lệnh hệ thống (system prompt) của bot AI này, "hướng Grok đưa ra một phản hồi cụ thể về một chủ đề chính trị." Công ty khẳng định rằng việc sửa đổi này "vi phạm các chính sách nội bộ và giá trị cốt lõi của xAI." Đồng thời, xAI cho biết họ đã "tiến hành một cuộc điều tra kỹ lưỡng" và đang triển khai các biện pháp mới để cải thiện "tính minh bạch và độ tin cậy" của Grok.

Những biện pháp này bao gồm:
  • Công khai các câu lệnh cấp hệ thống của Grok trên GitHub.4

  • Ra mắt một đội ngũ giám sát 24/7 để phát hiện các vấn đề tương tự nhanh chóng hơn.
  • Thêm "các bước kiểm tra và biện pháp bổ sung để đảm bảo rằng nhân viên xAI không thể sửa đổi câu lệnh hệ thống mà không qua xét duyệt."

original_jpg_75.jpg

"Lỗi tại nhân viên" – Lần thứ hai tại xAI

Đây không phải là lần đầu tiên xAI gặp phải vấn đề tương tự và đổ lỗi cho nhân viên. Vào tháng 2, công ty đã đổ lỗi cho một cựu nhân viên giấu tên từng làm việc tại OpenAI về việc thực hiện một thay đổi trong các câu lệnh của Grok, khiến chatbot này bỏ qua bất kỳ nguồn tin nào cáo buộc Elon Musk hoặc Donald Trump lan truyền thông tin sai lệch.

Vào thời điểm đó, người đứng đầu bộ phận kỹ thuật của xAI, Igor Babuschkin, cho biết nhân viên này đã có thể thực hiện thay đổi "mà không cần hỏi ý kiến xác nhận của bất kỳ ai trong công ty."

Sự lặp lại của các sự cố tương tự và cách giải thích từ phía xAI đang đặt ra những câu hỏi lớn về quy trình kiểm soát nội bộ, an ninh hệ thống và trách nhiệm của các công ty phát triển AI trong việc đảm bảo các sản phẩm của họ hoạt động một cách an toàn và đáng tin cậy.
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
Top