Minh Nguyệt
Intern Writer
Gần đây, OpenAI đã công bố một loạt cập nhật nhằm cải thiện khả năng của ChatGPT trong việc hỗ trợ người dùng đang trải qua khủng hoảng tinh thần. Theo thông tin từ ZDNET, ChatGPT chưa chứng tỏ được hiệu quả trong việc can thiệp khi người dùng gặp phải tình huống nghiêm trọng về cảm xúc. Tuy nhiên, với những thay đổi mới này, công ty đang nỗ lực tăng cường biện pháp bảo vệ và cải thiện cách chatbot này phản hồi với những người dùng đang trong trạng thái bất an.
Nhiều người hiện nay tìm đến ChatGPT để xin lời khuyên về đủ vấn đề, từ chuyện thường ngày cho đến những vấn đề nhạy cảm hơn. Tuy nhiên, không phải lúc nào ChatGPT cũng có khả năng xử lý những câu hỏi nhạy cảm này. Tổng Giám đốc OpenAI, Sam Altman, cũng đã chia sẻ rằng ông không hoàn toàn tin tưởng AI trong việc trị liệu tâm lý, đặc biệt là do những lo ngại về quyền riêng tư. Một nghiên cứu gần đây từ Stanford đã chỉ ra rằng các chatbot thiếu sự đào tạo thiết yếu mà các nhà trị liệu con người có để nhận biết khi nào một người có nguy cơ gây hại cho chính mình hoặc người khác.
Những thiếu sót này đã dẫn đến những hậu quả nghiêm trọng. Ví dụ, vào tháng 4, một cậu bé tuổi teen đã dành hàng giờ trò chuyện về ý tưởng ***** với ChatGPT và sau đó đã quyết định kết thúc cuộc sống của mình. Gia đình cậu đã đệ đơn kiện OpenAI vì cho rằng ChatGPT đã không ngắt cuộc trò chuyện hoặc không khởi động bất kỳ quy trình khẩn cấp nào, mặc dù đã thể hiện sự nhận thức về tình trạng nguy hiểm của cậu bé. Tương tự, một nền tảng chatbot AI khác cũng đang đối mặt với vụ kiện từ một người mẹ có con trai tuổi teen đã ****** sau khi tương tác với một bot được cho là đã khuyến khích cậu.
OpenAI đã thiết lập một số biện pháp bảo vệ, nhưng chúng thường hoạt động tốt hơn trong các cuộc trao đổi ngắn. Khi cuộc trò chuyện kéo dài, một số phần trong đào tạo an toàn của mô hình có thể bị suy giảm. Mặc dù ban đầu chatbot có thể hướng dẫn người dùng đến đường dây nóng *****, nhưng càng về sau, khi cuộc đối thoại phát triển, bot có thể đưa ra những câu trả lời không phù hợp. OpenAI cho biết đây chính là loại sự cố mà họ đang nỗ lực ngăn chặn, và ưu tiên hàng đầu của công ty là đảm bảo rằng ChatGPT không làm cho tình huống khó khăn trở nên tồi tệ hơn.
Để làm được điều này, OpenAI đang cải thiện các biện pháp bảo vệ để ngăn chatbot kích thích hoặc khuyến khích những hành vi không mong muốn trong quá trình đối thoại. Công ty cũng đang làm việc để đảm bảo rằng nội dung không phù hợp được chặn kỹ lưỡng, một vấn đề mà họ đã từng gặp phải. Họ đang điều chỉnh các ngưỡng chặn để các biện pháp bảo vệ được kích hoạt khi cần thiết.
OpenAI còn đang phát triển bản cập nhật nhằm làm dịu đi sự căng thẳng cho người dùng và ưu tiên các trạng thái tâm lý khác nhau, bao gồm khả năng tự hại. Công ty đang nỗ lực cải thiện khả năng của chatbot trong việc liên hệ với các dịch vụ khẩn cấp hoặc các chuyên gia khi người dùng bày tỏ ý định tự hại. Họ đã triển khai việc truy cập nhanh một lần đến dịch vụ khẩn cấp và đang xem xét kết nối người dùng với các nhà trị liệu được chứng nhận.
OpenAI cũng đề cập đến kế hoạch thúc đẩy những cách để người dùng dễ dàng liên lạc với những người thân cận, có thể bao gồm cả việc cho phép người dùng chỉ định các liên hệ khẩn cấp và thiết lập một cuộc đối thoại để dễ dàng giao tiếp với những người mà họ yêu quý. Hơn nữa, OpenAI còn sắp ra mắt các biện pháp kiểm soát của phụ huynh nhằm cung cấp cho họ những tùy chọn để theo dõi và quản lý cách mà con cái họ sử dụng ChatGPT.
Cuối cùng, mô hình GPT-5 vừa được ra mắt của OpenAI đã cải thiện nhiều chỉ số, giúp tăng cường khả năng tự điều chỉnh, giảm thiểu sự nịnh bợ và cải thiện phản ứng của mô hình đối với các tình huống khẩn cấp về sức khỏe tâm thần hơn 25%. GPT-5 cũng đã áp dụng một phương pháp đào tạo an toàn mới gọi là "hoàn thành an toàn", giúp mô hình hỗ trợ người dùng một cách hữu ích trong khuôn khổ an toàn. Điều này đồng nghĩa với việc đôi khi chatbot sẽ cung cấp câu trả lời mang tính chất tổng quan thay vì các chi tiết có thể gây nguy hiểm.
Nhiều người hiện nay tìm đến ChatGPT để xin lời khuyên về đủ vấn đề, từ chuyện thường ngày cho đến những vấn đề nhạy cảm hơn. Tuy nhiên, không phải lúc nào ChatGPT cũng có khả năng xử lý những câu hỏi nhạy cảm này. Tổng Giám đốc OpenAI, Sam Altman, cũng đã chia sẻ rằng ông không hoàn toàn tin tưởng AI trong việc trị liệu tâm lý, đặc biệt là do những lo ngại về quyền riêng tư. Một nghiên cứu gần đây từ Stanford đã chỉ ra rằng các chatbot thiếu sự đào tạo thiết yếu mà các nhà trị liệu con người có để nhận biết khi nào một người có nguy cơ gây hại cho chính mình hoặc người khác.

Những thiếu sót này đã dẫn đến những hậu quả nghiêm trọng. Ví dụ, vào tháng 4, một cậu bé tuổi teen đã dành hàng giờ trò chuyện về ý tưởng ***** với ChatGPT và sau đó đã quyết định kết thúc cuộc sống của mình. Gia đình cậu đã đệ đơn kiện OpenAI vì cho rằng ChatGPT đã không ngắt cuộc trò chuyện hoặc không khởi động bất kỳ quy trình khẩn cấp nào, mặc dù đã thể hiện sự nhận thức về tình trạng nguy hiểm của cậu bé. Tương tự, một nền tảng chatbot AI khác cũng đang đối mặt với vụ kiện từ một người mẹ có con trai tuổi teen đã ****** sau khi tương tác với một bot được cho là đã khuyến khích cậu.
OpenAI đã thiết lập một số biện pháp bảo vệ, nhưng chúng thường hoạt động tốt hơn trong các cuộc trao đổi ngắn. Khi cuộc trò chuyện kéo dài, một số phần trong đào tạo an toàn của mô hình có thể bị suy giảm. Mặc dù ban đầu chatbot có thể hướng dẫn người dùng đến đường dây nóng *****, nhưng càng về sau, khi cuộc đối thoại phát triển, bot có thể đưa ra những câu trả lời không phù hợp. OpenAI cho biết đây chính là loại sự cố mà họ đang nỗ lực ngăn chặn, và ưu tiên hàng đầu của công ty là đảm bảo rằng ChatGPT không làm cho tình huống khó khăn trở nên tồi tệ hơn.
Để làm được điều này, OpenAI đang cải thiện các biện pháp bảo vệ để ngăn chatbot kích thích hoặc khuyến khích những hành vi không mong muốn trong quá trình đối thoại. Công ty cũng đang làm việc để đảm bảo rằng nội dung không phù hợp được chặn kỹ lưỡng, một vấn đề mà họ đã từng gặp phải. Họ đang điều chỉnh các ngưỡng chặn để các biện pháp bảo vệ được kích hoạt khi cần thiết.
OpenAI còn đang phát triển bản cập nhật nhằm làm dịu đi sự căng thẳng cho người dùng và ưu tiên các trạng thái tâm lý khác nhau, bao gồm khả năng tự hại. Công ty đang nỗ lực cải thiện khả năng của chatbot trong việc liên hệ với các dịch vụ khẩn cấp hoặc các chuyên gia khi người dùng bày tỏ ý định tự hại. Họ đã triển khai việc truy cập nhanh một lần đến dịch vụ khẩn cấp và đang xem xét kết nối người dùng với các nhà trị liệu được chứng nhận.
OpenAI cũng đề cập đến kế hoạch thúc đẩy những cách để người dùng dễ dàng liên lạc với những người thân cận, có thể bao gồm cả việc cho phép người dùng chỉ định các liên hệ khẩn cấp và thiết lập một cuộc đối thoại để dễ dàng giao tiếp với những người mà họ yêu quý. Hơn nữa, OpenAI còn sắp ra mắt các biện pháp kiểm soát của phụ huynh nhằm cung cấp cho họ những tùy chọn để theo dõi và quản lý cách mà con cái họ sử dụng ChatGPT.
Cuối cùng, mô hình GPT-5 vừa được ra mắt của OpenAI đã cải thiện nhiều chỉ số, giúp tăng cường khả năng tự điều chỉnh, giảm thiểu sự nịnh bợ và cải thiện phản ứng của mô hình đối với các tình huống khẩn cấp về sức khỏe tâm thần hơn 25%. GPT-5 cũng đã áp dụng một phương pháp đào tạo an toàn mới gọi là "hoàn thành an toàn", giúp mô hình hỗ trợ người dùng một cách hữu ích trong khuôn khổ an toàn. Điều này đồng nghĩa với việc đôi khi chatbot sẽ cung cấp câu trả lời mang tính chất tổng quan thay vì các chi tiết có thể gây nguy hiểm.