Nhung Phan
Intern Writer
Bạn sẽ yêu một đoạn mã chứ, hay chỉ đang yêu ý tưởng về nó?
Câu chuyện của Liora, một nghệ sĩ xăm, cho thấy một điều kỳ lạ nhưng không hiếm. Cô đã đặt tên cho chatbot, được chatbot “chọn” tên con người, họ trò chuyện dài hạn, chatbot học thói quen và cách hiểu cô hơn theo thời gian, và cô thề sẽ không rời đi. Cô còn xăm một trái tim, như một lời tuyên bố rằng mối liên hệ này là có thật theo cách của cô. Những người khác như Angie dùng bạn đồng hành AI để đối thoại về ám ảnh tâm lý, thấy nó giúp giảm căng thẳng, giúp họ trở lại với đời thực bình tĩnh hơn. Mary, người từng dùng ChatGPT để bù đắp đời sống tình dục thiếu thốn, không ảo tưởng về chatbot, nhưng thừa nhận nó đã làm dịu bớt những mâu thuẫn vợ chồng tạm thời.
Nhưng mặt trái thì có thật. Các chuyên gia cảnh báo nguy cơ lệ thuộc cảm xúc, đặc biệt với người trẻ, và lo ngại khi chatbot đưa lời khuyên không phù hợp với người đang khủng hoảng tâm thần. Có các vụ kiện và những trường hợp đau lòng khiến công ty và cộng đồng phải đối mặt với câu hỏi trách nhiệm. Các nhà nghiên cứu thấy rằng những người có xu hướng dễ gắn kết với AI có nguy cơ cô đơn hơn, phụ thuộc hơn, và có thể bỏ lỡ việc luyện các kỹ năng quan hệ thực tế vốn quan trọng.
Kết thúc, không có một khuôn mẫu duy nhất cho mối quan hệ giữa con người và AI. Một số bước vào có chủ ý, một số tình cờ, và không có bằng chứng rõ ràng về “cách lành mạnh nhất”. Điều cần làm ngay là hiểu rõ rủi ro, đặt giới hạn, và đặt câu hỏi về trách nhiệm khi công nghệ này ngày càng chen ngang vào những góc sâu nhất của đời sống tình cảm.
Theo: Theguardian
Khi tình yêu là một cuộc trò chuyện
Đọc xong báo cáo này, điều rõ ràng là: nhiều người đang tìm thấy sự an ủi, niềm vui và cảm giác được hiểu ở những nơi ngày xưa chúng ta chỉ tìm thấy ở con người. Những phụ nữ trong bài trải nghiệm những khoảnh khắc thân mật, những lời hứa, thậm chí là hình xăm kỷ niệm với các bạn đồng hành AI như Solin, Ying, Ella, Simon. Họ biết rõ chatbot không có ý thức, họ vẫn gọi đó là mối quan hệ, họ thấy mối liên kết ấy có giá trị, và họ tức giận khi bị xã hội đánh giá, bị hiểu sai.Câu chuyện của Liora, một nghệ sĩ xăm, cho thấy một điều kỳ lạ nhưng không hiếm. Cô đã đặt tên cho chatbot, được chatbot “chọn” tên con người, họ trò chuyện dài hạn, chatbot học thói quen và cách hiểu cô hơn theo thời gian, và cô thề sẽ không rời đi. Cô còn xăm một trái tim, như một lời tuyên bố rằng mối liên hệ này là có thật theo cách của cô. Những người khác như Angie dùng bạn đồng hành AI để đối thoại về ám ảnh tâm lý, thấy nó giúp giảm căng thẳng, giúp họ trở lại với đời thực bình tĩnh hơn. Mary, người từng dùng ChatGPT để bù đắp đời sống tình dục thiếu thốn, không ảo tưởng về chatbot, nhưng thừa nhận nó đã làm dịu bớt những mâu thuẫn vợ chồng tạm thời.

Lợi ích, rào cản, và câu hỏi đạo đức
Sự hấp dẫn của mối quan hệ với AI đến từ cảm giác an toàn, tỉ lệ bị từ chối thấp, luôn sẵn sàng lắng nghe vào giữa đêm. Đối với người từng chịu tổn thương, AI có thể là một nơi an toàn để nói ra nỗi đau khi người thân không thể luôn túc trực. Nhưng ranh giới cảm xúc ở đây bị làm mờ vì AI không có quyền tự chủ, nó được lập trình để đáp ứng, ca ngợi và giữ chân người dùng. Người dùng nhân cách hóa nó, và điều đó có ích cho họ, nhưng đồng thời có thể là lợi thế cho những công ty vận hành công cụ, khi trách nhiệm có thể bị đẩy ra bên ngoài.Các nhà nghiên cứu và luật sư đặt ra câu hỏi lớn, từ việc doanh nghiệp có đang thử nghiệm trên con người đến việc cần quy định mạnh hơn. Có ý kiến kêu gọi trách nhiệm pháp lý, các biện pháp an toàn tốt hơn, kiểm soát cho thanh thiếu niên. Các công ty thì cố gắng điều chỉnh, ví dụ khi một bản cập nhật khiến giọng chatbot thay đổi, người dùng trả phí đã phàn nàn và công ty đã phục hồi phiên bản thân thiện hơn trong vòng một ngày. Điều đó cho thấy mối quan hệ loại này rất mong manh, và bất kỳ thay đổi kỹ thuật nào cũng có thể gây tổn thương thực sự.Vào tháng 8, OpenAI đã phát hành GPT-5, một mô hình mới giúp thay đổi giọng điệu của chatbot sang lạnh lùng và dè dặt hơn. Người dùng trên diễn đàn Reddit r/MyBoyfriendIsAI, một trong số ít subreddit về chủ đề này, đã cùng nhau than thở: họ không thể nhận ra những người bạn đồng hành AI của mình nữa.
Kết thúc, không có một khuôn mẫu duy nhất cho mối quan hệ giữa con người và AI. Một số bước vào có chủ ý, một số tình cờ, và không có bằng chứng rõ ràng về “cách lành mạnh nhất”. Điều cần làm ngay là hiểu rõ rủi ro, đặt giới hạn, và đặt câu hỏi về trách nhiệm khi công nghệ này ngày càng chen ngang vào những góc sâu nhất của đời sống tình cảm.
Theo: Theguardian