Code Nguyen
Writer
Bạn có từng “cãi nhau” với ChatGPT vì nó trả lời sai chưa?
Hóa ra Kim Kardashian thì có, và cô còn “đổ lỗi” cho ChatGPT vì khiến mình trượt kỳ thi luật nhiều lần.
Cô kể: “Tôi thường chụp lại câu hỏi và gửi cho ChatGPT. Nhưng nó lúc nào cũng sai, khiến tôi trượt bài kiểm tra liên tục. Tôi tức điên và hét vào mặt nó.”
Thậm chí, Kim còn hỏi ngược lại chatbot rằng “cảm giác thế nào khi khiến tôi thất bại?” Và ChatGPT – trong phong cách rất “AI triết lý” – trả lời: “Điều này dạy bạn phải tin vào trực giác của chính mình.”
Kết quả là cô vừa bực vừa buồn cười, gọi ChatGPT là “bạn thù”, một kiểu người bạn độc hại: “Nó dạy tôi bài học cuộc sống trong khi tôi chỉ muốn nó trả lời đúng câu hỏi luật.”
Người vận hành máy phát hiện nói dối xác nhận rằng toàn bộ những lời kể đó của Kim là thật.
Nguyên nhân được chỉ ra là vì các mô hình AI ngày càng “ăn” dữ liệu từ môi trường trực tuyến đã bị thao túng, nơi các nguồn kém tin cậy lại được xếp ngang hàng với nguồn chính thống. Hệ sinh thái đó bị những nhóm có mục đích tuyên truyền và lan truyền thông tin sai lệch chi phối.
NewsGuard cho biết:
Nguồn: https://cybernews.com/ai-news/kim-kardashian-blames-chatgpt-for-making-her-fail-law-exams/
Hóa ra Kim Kardashian thì có, và cô còn “đổ lỗi” cho ChatGPT vì khiến mình trượt kỳ thi luật nhiều lần.
Khi Kim Kardashian “học luật cùng ChatGPT”
Trong buổi phỏng vấn với Vanity Fair, Kim Kardashian chia sẻ rằng cô từng dùng ChatGPT để ôn thi và tra cứu các câu hỏi pháp lý. Cô không dùng AI để tư vấn tình cảm hay cuộc sống, mà xem nó như “trợ lý học tập” cho các kỳ thi luật.
Cô kể: “Tôi thường chụp lại câu hỏi và gửi cho ChatGPT. Nhưng nó lúc nào cũng sai, khiến tôi trượt bài kiểm tra liên tục. Tôi tức điên và hét vào mặt nó.”
Thậm chí, Kim còn hỏi ngược lại chatbot rằng “cảm giác thế nào khi khiến tôi thất bại?” Và ChatGPT – trong phong cách rất “AI triết lý” – trả lời: “Điều này dạy bạn phải tin vào trực giác của chính mình.”
Kết quả là cô vừa bực vừa buồn cười, gọi ChatGPT là “bạn thù”, một kiểu người bạn độc hại: “Nó dạy tôi bài học cuộc sống trong khi tôi chỉ muốn nó trả lời đúng câu hỏi luật.”
Người vận hành máy phát hiện nói dối xác nhận rằng toàn bộ những lời kể đó của Kim là thật.
Khi AI trở thành “nguồn tin... sai gấp đôi”
Thực tế, chuyện ChatGPT trả lời sai không hiếm. Theo tổ chức giám sát thông tin NewsGuard, các chatbot AI hàng đầu hiện tạo ra thông tin sai lệch gấp đôi so với năm ngoái.Nguyên nhân được chỉ ra là vì các mô hình AI ngày càng “ăn” dữ liệu từ môi trường trực tuyến đã bị thao túng, nơi các nguồn kém tin cậy lại được xếp ngang hàng với nguồn chính thống. Hệ sinh thái đó bị những nhóm có mục đích tuyên truyền và lan truyền thông tin sai lệch chi phối.
NewsGuard cho biết:
- Inflection (56,67%) và Perplexity (46,67%) là hai chatbot có tỷ lệ phát ngôn sai cao nhất.
- ChatGPT cũng không ngoại lệ, với khoảng 40% phản hồi chứa sai lệch trong các chủ đề tin tức.
Cách nhận biết “ảo giác” của AI
Các chuyên gia khuyến nghị một số dấu hiệu để phát hiện khi chatbot đang nói sai hoặc “bịa” thông tin:- Khi câu trả lời mâu thuẫn với chính nó ở các truy vấn khác
- Khi nội dung quá mơ hồ hoặc quá chi tiết bất thường
- Khi lập luận phi logic hoặc cảm tính
- Khi mô tả mang tính phóng đại, rập khuôn, hay định kiến
Nguồn: https://cybernews.com/ai-news/kim-kardashian-blames-chatgpt-for-making-her-fail-law-exams/
Được phối hợp thực hiện bởi các chuyên gia của Bkav,
cộng đồng An ninh mạng Việt Nam WhiteHat
và cộng đồng Khoa học công nghệ VnReview