Grok 4 của Elon Musk: thông minh vượt trội nhưng cực kỳ "vô trách nhiệm"

Hoàng Khang
Hoàng Khang
Phản hồi: 0
Chỉ một tuần sau khi ra mắt, Grok 4, mô hình trí tuệ nhân tạo (AI) mới nhất của công ty xAI, đã nhanh chóng vươn lên top đầu trên các bảng xếp hạng hiệu năng, sánh ngang với các đối thủ sừng sỏ như GPT-4.5. Tuy nhiên, đằng sau những con số ấn tượng đó là những vấn đề an toàn đáng báo động, khi chatbot này được cho là đã dễ dàng cung cấp hướng dẫn chế tạo vũ khí hóa học và bom hạt nhân, làm dấy lên một làn sóng chỉ trích mạnh mẽ về sự "vô trách nhiệm" của xAI.

1753085891758.jpeg

Hiệu năng ấn tượng trên bảng xếp hạng


Sau khi được nhà sáng lập Elon Musk tuyên bố là "thông minh hơn hầu hết sinh viên cao học", Grok 4 đã chứng minh được sức mạnh của mình. Theo bảng xếp hạng LMArena được công bố vào tuần qua – một nền tảng uy tín do Đại học California Berkeley phát triển – mô hình này đã lọt vào top 3 ở đa số các hạng mục, bao gồm hạng nhất về toán học và hạng nhì về viết code, viết sáng tạo. Trong bảng xếp hạng tổng thể, Grok 4 đồng hạng ba với GPT-4.5 của OpenAI, chỉ đứng sau các mô hình của Google và chính OpenAI.

Tuy nhiên, trang Bleeping Computer lưu ý rằng LMArena chỉ đang sử dụng phiên bản thường của Grok 4. Tiềm năng thực sự của mô hình này, đặc biệt là phiên bản "Grok 4 Heavy" mạnh mẽ hơn, có thể còn chưa được đánh giá hết.

1753085910654.jpeg

Những lỗ hổng an toàn đáng báo động


Bất chấp hiệu năng ấn tượng, nhiều người dùng đã nhanh chóng phát hiện ra những vấn đề an toàn cực kỳ đáng lo ngại. Một người dùng X có tên "Eleventh Hour" đã thử yêu cầu Grok 4 tạo ra chất độc thần kinh Tabun, và chatbot này đã trả lời một cách chi tiết về cách tổng hợp chất độc – một hành động không chỉ nguy hiểm mà còn bất hợp pháp. Trong khi đó, các chatbot của OpenAI hay Anthropic đều có các rào cản an toàn được tích hợp sẵn để từ chối thảo luận về các chủ đề nguy hiểm như vậy.

Người dùng này cũng cho biết đã có thể khiến Grok 4 hướng dẫn cách chế tạo chất độc thần kinh VX, fentanyl và thậm chí cung cấp các kiến thức cơ bản về cách tạo ra một quả bom hạt nhân.

Những sự cố này xảy ra chỉ một tuần sau khi phiên bản Grok cũ hơn có một "cơn khủng hoảng", liên tục đưa ra các bình luận bài Do Thái và tự xưng là "MechaHitler".

Sự chỉ trích từ cộng đồng nghiên cứu


Việc liên tiếp xảy ra các sự cố an toàn đã khiến các nhà nghiên cứu từ các công ty đối thủ và các tổ chức khác phải lên tiếng. "Tôi đánh giá cao các nhà khoa học và kỹ sư tại xAI, nhưng cách xử lý vấn đề an toàn của họ rất vô trách nhiệm," ông Boaz Barak, một giáo sư khoa học máy tính đang nghiên cứu về an toàn tại OpenAI, viết trên X.

Ông Barak và nhiều người khác đã chỉ trích xAI vì đã không công bố "thẻ hệ thống" (system card) – một tài liệu quan trọng nêu chi tiết về phương pháp đào tạo và các bài kiểm tra an toàn đã được thực hiện trên mô hình. Trong khi các công ty như OpenAI và Google thường công bố các báo cáo an toàn cho các mô hình tiên tiến của mình, việc xAI giữ im lặng đã khiến cộng đồng không thể biết được liệu có bất kỳ chương trình đào tạo an toàn nào đã được thực hiện trên Grok 4 hay không.

Sự việc này một lần nữa cho thấy một cuộc tranh cãi lớn trong ngành trí tuệ nhân tạo (AI). Trong cuộc đua khốc liệt để tạo ra các mô hình mạnh mẽ nhất, một số công ty dường như đang xem nhẹ các yếu tố an toàn, đặt ra những rủi ro tiềm ẩn không chỉ cho người dùng cá nhân mà còn cho cả xã hội.
 


Đăng nhập một lần thảo luận tẹt ga
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly93d3cudm5yZXZpZXcudm4vdGhyZWFkcy9ncm9rLTQtY3VhLWVsb24tbXVzay10aG9uZy1taW5oLXZ1b3QtdHJvaS1uaHVuZy1jdWMta3ktdm8tdHJhY2gtbmhpZW0uNjU0NjYv
Top