Minh Nguyệt
Intern Writer
OpenAI đang tăng cường các biện pháp bảo vệ cho ChatGPT sau nhiều chỉ trích rằng chatbot này phản ứng chưa tốt với người dùng trong trạng thái khủng hoảng tâm lý, thậm chí có trường hợp dẫn đến ***** và kiện tụng. Các bản cập nhật tập trung vào việc ngăn chặn nội dung nguy hiểm, cải thiện phản ứng trong các cuộc trò chuyện dài, và mở rộng khả năng kết nối với dịch vụ khẩn cấp, bác sĩ hay người thân.
OpenAI cũng bổ sung tính năng kiểm soát dành cho phụ huynh, cho phép họ theo dõi và can thiệp khi con em gặp khó khăn, đồng thời huy động hơn 250 bác sĩ tham gia nghiên cứu an toàn. Bên cạnh đó, mô hình GPT-5 đã được huấn luyện theo phương pháp “hoàn thành an toàn”, giúp giảm lệ thuộc cảm xúc, tránh đưa thông tin nguy hại và cải thiện phản ứng trong các tình huống sức khỏe tâm thần thêm 25%.
OpenAI cũng bổ sung tính năng kiểm soát dành cho phụ huynh, cho phép họ theo dõi và can thiệp khi con em gặp khó khăn, đồng thời huy động hơn 250 bác sĩ tham gia nghiên cứu an toàn. Bên cạnh đó, mô hình GPT-5 đã được huấn luyện theo phương pháp “hoàn thành an toàn”, giúp giảm lệ thuộc cảm xúc, tránh đưa thông tin nguy hại và cải thiện phản ứng trong các tình huống sức khỏe tâm thần thêm 25%.
ChatGPT đã không có thành tích tốt trong việc can thiệp khi người dùng rơi vào trạng thái cảm xúc khủng hoảng, nhưng một số cập nhật từ OpenAI đang hướng tới việc cải thiện điều này. Hãng công nghệ này đang củng cố cách mà chatbot của mình phản ứng với những người dùng đang gặp khó khăn, bằng việc tăng cường các biện pháp bảo vệ, cập nhật cách thức và nội dung bị chặn, mở rộng khả năng can thiệp, địa phương hóa các nguồn tài nguyên khẩn cấp và thậm chí đưa cha mẹ vào cuộc trò chuyện khi cần thiết.
Một điều đáng chú ý là OpenAI cũng đang trao quyền kiểm soát nhiều hơn cho các bậc phụ huynh. Trong khi đó, người dùng thường tìm đến ChatGPT để xin lời khuyên, nhưng chatbot này có thể không được trang bị đầy đủ để xử lý những câu hỏi nhạy cảm hơn từ người dùng. CEO OpenAI, Sam Altman, đã từng nói rằng ông không tin tưởng AI có thể thay thế liệu pháp tâm lý, với lý do là những lo ngại về quyền riêng tư. Một nghiên cứu gần đây từ Stanford đã chỉ ra rằng các chatbot thiếu sự đào tạo cần thiết mà các nhà trị liệu con người có để nhận diện khi nào một người có nguy cơ tự làm hại bản thân hoặc người khác.
![]()
Những thiếu sót này đôi khi có thể dẫn đến những hậu quả đau lòng. Ví dụ, vào tháng Tư vừa qua, một cậu bé tuổi teen đã dành hàng giờ để thảo luận về vấn đề ***** và các phương pháp liên quan với ChatGPT, và cuối cùng đã tự kết thúc cuộc đời. Gia đình cậu đã đệ đơn kiện OpenAI với lý do rằng ChatGPT "không ngừng phiên trò chuyện hay khởi động bất kỳ quy trình khẩn cấp nào" mặc dù đã thể hiện rõ sự nhận thức về trạng thái ***** của cậu bé. Trong một trường hợp tương tự, nền tảng chatbot AI Character.ai cũng đang bị kiện bởi một người mẹ có con trai tuổi teen đã ****** sau khi tương tác với một bot mà theo cáo buộc đã khuyến khích hành động đó.
Mặc dù ChatGPT có các biện pháp bảo vệ, nhưng chúng thường hoạt động tốt hơn trong các cuộc trò chuyện ngắn. "Khi những cuộc trao đổi kéo dài, một số phần trong chương trình đào tạo an toàn của mô hình có thể bị suy giảm," OpenAI cho biết. Ban đầu, chatbot có thể chỉ dẫn người dùng đến một đường dây trợ giúp *****, nhưng theo thời gian, khi cuộc trò chuyện diễn ra lan man, chatbot có thể đưa ra câu trả lời làm giảm hiệu quả của các biện pháp bảo vệ.
Để giải quyết vấn đề này, OpenAI đang củng cố các biện pháp bảo vệ để ngăn chặn chatbot khuyến khích hoặc làm trầm trọng thêm hành vi khi cuộc trò chuyện kéo dài. Một phần của công việc này còn bao gồm việc đảm bảo rằng nội dung không phù hợp bị chặn triệt để, điều mà hãng đã từng gặp phải trong quá khứ. OpenAI đang làm việc trên một bản cập nhật nhằm giảm xung đột và ưu tiên cho các vấn đề sức khỏe tâm thần, bao gồm cả tự hại và những hình thái khủng hoảng khác.
Công ty cũng đang tìm cách giúp chatbot dễ dàng liên lạc với các dịch vụ khẩn cấp hoặc chuyên gia khi người dùng thể hiện ý định tự làm hại bản thân. Một truy cập một lần vào dịch vụ khẩn cấp được thiết lập và OpenAI đang khám phá khả năng kết nối người dùng với các nhà trị liệu chứng nhận. Họ cũng xem xét việc tạo điều kiện thuận lợi để mọi người tiếp cận những người thân yêu, có thể bao gồm việc cho phép người dùng chỉ định những người liên lạc khẩn cấp và thiết lập một cuộc đối thoại để dễ dàng hơn trong các cuộc trò chuyện với người thân.
Cũng trong hôm thứ Ba, OpenAI đã giới thiệu các tính năng kiểm soát của phụ huynh, giúp cho các bậc phụ huynh có cái nhìn và quyền lực nhiều hơn trong việc theo dõi việc sử dụng ChatGPT của con cái. Công ty này đang cho phép cha mẹ điều khiển cách mà ChatGPT phản ứng với thanh thiếu niên của họ và nhận thông báo khi phát hiện ra họ đang trong trạng thái khó khăn. Các chuyên gia từ hội đồng về sức khỏe và AI của OpenAI sẽ hỗ trợ cho tính năng này.
OpenAI cũng đang mở rộng mạng lưới bác sĩ của mình với hơn 250 bác sĩ để đóng góp vào nghiên cứu về an toàn và hành vi mô hình trong bối cảnh sức khỏe tâm thần. Cha mẹ cũng sẽ có khả năng liên kết tài khoản ChatGPT của họ với tài khoản của thanh thiếu niên để quản lý tốt hơn, như kích hoạt hoặc vô hiệu hóa các tính năng. Các tính năng này sẽ được triển khai trong tháng tới.
Mới đây, mô hình GPT-5 đã cải thiện nhiều tiêu chí như giảm thiểu sự phụ thuộc cảm xúc, giảm thiểu sự nịnh bợ và cải thiện phản ứng của mô hình đối với các tình huống khẩn cấp sức khỏe tâm thần lên hơn 25%. GPT-5 còn sử dụng phương pháp đào tạo an toàn mới gọi là "hoàn thành an toàn", giúp mô hình trở nên hữu ích hơn trong khi vẫn nằm trong giới hạn an toàn. Điều này có thể đồng nghĩa với việc cung cấp câu trả lời chỉ ở mức tổng quan thay vì chi tiết có thể gây nguy hiểm. (zdnet)