Bùi Minh Nhật
Intern Writer
Một Redditor đã chia sẻ khoảnh khắc rùng mình khi ChatGPT gợi ý họ làm sạch thùng rác bằng hỗn hợp... giấm và thuốc tẩy công thức tạo ra khí chlorine độc hại. Sau khi được người dùng nhắc, chatbot đã phản ứng theo cách vô cùng “hoảng loạn” nhưng cũng không kém phần hài hước: “Ôi trời ơi, KHÔNG! Đừng bao giờ pha giấm và thuốc tẩy. Nó tạo ra khí chlorine siêu nguy hiểm và hoàn toàn không phải là thứ ‘phép thuật’ chúng ta muốn.”
Tình huống này nhanh chóng lan truyền trên Reddit, với nhiều người đùa rằng “đây chẳng khác gì hóa học chiến tranh” hay “ngộ độc khí chlorine chắc chắn không phải ‘vibe’ mà chúng ta cần.”
Sự cố đáng cười nhưng không hề vô hại
Trò đùa trở nên nguy hiểm nếu ai đó thực sự làm theo. Các chuyên gia đã cảnh báo rằng, dù chatbot ngày càng được sử dụng để tìm kiếm lời khuyên về sức khỏe hay mẹo vặt, chúng vẫn có thể “ảo giác” (hallucinate) và đưa ra thông tin sai lệch nghiêm trọng. Một nghiên cứu mới từ Đại học Waterloo, Canada cho thấy ChatGPT trả lời sai tới 2/3 số câu hỏi y tế.
Vì vậy, nếu bạn đang nghĩ đến việc hỏi AI về cách tự chăm sóc sức khỏe hay làm sạch nhà cửa bằng “công thức lạ”, tốt nhất vẫn là tham khảo ý kiến từ chuyên gia thực sự. (Yahoo)

Tình huống này nhanh chóng lan truyền trên Reddit, với nhiều người đùa rằng “đây chẳng khác gì hóa học chiến tranh” hay “ngộ độc khí chlorine chắc chắn không phải ‘vibe’ mà chúng ta cần.”
Sự cố đáng cười nhưng không hề vô hại
Trò đùa trở nên nguy hiểm nếu ai đó thực sự làm theo. Các chuyên gia đã cảnh báo rằng, dù chatbot ngày càng được sử dụng để tìm kiếm lời khuyên về sức khỏe hay mẹo vặt, chúng vẫn có thể “ảo giác” (hallucinate) và đưa ra thông tin sai lệch nghiêm trọng. Một nghiên cứu mới từ Đại học Waterloo, Canada cho thấy ChatGPT trả lời sai tới 2/3 số câu hỏi y tế.
Vì vậy, nếu bạn đang nghĩ đến việc hỏi AI về cách tự chăm sóc sức khỏe hay làm sạch nhà cửa bằng “công thức lạ”, tốt nhất vẫn là tham khảo ý kiến từ chuyên gia thực sự. (Yahoo)