Ảo giác AI không thể sửa, OpenAI thừa nhận giới hạn gây sốc

Nguyễn Hoàng
Nguyễn Hoàng
Phản hồi: 0

Nguyễn Hoàng

Intern Writer
Bạn có bao giờ tự hỏi, tại sao một hệ thống AI thông minh đến vậy vẫn có thể “bịa” ra thông tin nghe rất thuyết phục nhưng lại hoàn toàn sai sự thật? Và liệu có cách nào để khắc phục triệt để vấn đề này không?

Ảo giác AI không phải lỗi kỹ thuật mà là bản chất​

Nghiên cứu mới từ OpenAI đã khẳng định một điều gây sốc: ảo giác AI không phải lỗi phần mềm có thể sửa bằng vài dòng code, mà là một đặc tính toán học không thể tránh. Dù hệ thống có được huấn luyện trên dữ liệu hoàn hảo đến đâu, nó vẫn sẽ có lúc đoán sai. Các nhà nghiên cứu so sánh hiện tượng này với việc học sinh làm bài thi gặp câu quá khó, thay vì bỏ trống, các em thường đoán đại và viết ra một câu trả lời nghe hợp lý.

1758530253411.png

Trong thực nghiệm, ngay cả các mô hình lớn và hiện đại nhất cũng dễ mắc lỗi. Ví dụ, khi được hỏi có bao nhiêu chữ D trong “DEEPSEEK”, một mô hình 600 tỷ tham số lại đưa ra nhiều kết quả khác nhau, từ 2 đến 3, trong khi đáp án đúng là 4. Đáng lo hơn, một số phiên bản AI tiên tiến hơn của chính OpenAI còn cho kết quả tệ hơn so với các mô hình đơn giản trước đó, tỷ lệ gây ảo giác có lúc lên tới gần 50%.

Vì sao ảo giác là không thể tránh?​

Có ba lý do cốt lõi. Thứ nhất, AI gặp “khoảng trống nhận thức” khi dữ liệu huấn luyện thiếu ví dụ. Thứ hai, bản thân kiến trúc AI có giới hạn trong cách biểu diễn tri thức. Thứ ba, một số bài toán vốn bất khả thi về mặt tính toán, cho dù là với hệ thống siêu thông minh giả định.

Thực tế, cách chúng ta đánh giá AI hiện nay còn vô tình khuyến khích sự ảo giác. Các tiêu chuẩn thường phạt mô hình khi trả lời “tôi không biết”, và thưởng cho việc trả lời dứt khoát, kể cả sai. Kết quả là AI học được rằng “nói sai nhưng chắc chắn” thì vẫn có điểm cao hơn “im lặng trung thực”.

Ý nghĩa cho doanh nghiệp và người dùng​

Điều này có nghĩa là sẽ không bao giờ tồn tại một AI “hoàn hảo”. Thay vì chờ đợi, các tổ chức phải học cách quản lý rủi ro: giám sát con người nhiều hơn, thiết lập cơ chế an toàn riêng cho từng lĩnh vực và yêu cầu AI cung cấp mức độ tin cậy kèm theo câu trả lời.

Một số chuyên gia còn đề xuất cần có chuẩn đánh giá AI giống như thang điểm an toàn ô tô. Thay vì coi tất cả kết quả của AI đều đáng tin như nhau, cần phân loại độ rủi ro và mức tin cậy của từng hệ thống.

Thông điệp cuối cùng từ nghiên cứu rất rõ: AI sẽ luôn mắc lỗi. Chúng ta không nên ảo tưởng về một công nghệ “không tì vết”, mà cần xây dựng quy trình, chính sách và cả tư duy sử dụng phù hợp với thực tế này.

Vậy, nếu bạn đang dùng AI trong công việc hàng ngày ở Việt Nam, bạn sẽ chọn cách nào: tin tuyệt đối vào nó, hay thiết lập cơ chế kiểm soát và đánh giá như khi kiểm tra độ an toàn của một chiếc xe? (techstory)

Nguồn bài viết: https://techstory.in/openai-admits-ai-hallucinations-are-a-fundamental-flaw-not-an-engineering-fix/
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly93d3cudm5yZXZpZXcudm4vdGhyZWFkcy9hby1naWFjLWFpLWtob25nLXRoZS1zdWEtb3BlbmFpLXRodWEtbmhhbi1naW9pLWhhbi1nYXktc29jLjY5Njk2Lw==
Top