Hail the Judge
Ta chơi xong không trả tiền, vậy đâu có gọi là bán
Năm 2025, một kỷ nguyên mới của Internet đã bắt đầu. Nhờ những tiến bộ đáng kinh ngạc của trí tuệ nhân tạo, Internet như chúng ta biết đang nhanh chóng biến đổi thành một "mỏ vàng" của những nội dung được siêu tối ưu hóa. Nhưng tất cả những tiến bộ đó đều đi kèm với một cái giá – và cái giá đó, chủ yếu, là con người.
Hóa ra, việc tung ra những chatbot cực kỳ cá nhân hóa vào một quần thể đang quay cuồng vì sự cô đơn tột cùng, trì trệ kinh tế, và sự tàn phá không ngừng của hành tinh chúng ta không hẳn là một công thức cho những kết quả sức khỏe tâm thần tích cực. Điều đó càng đúng hơn đối với trẻ em và thanh thiếu niên – ba phần tư trong số họ đã báo cáo rằng đã có những cuộc trò chuyện với các nhân vật hư cấu được thể hiện bởi các chatbot.
Đài phát thanh Úc Triple J gần đây đã nói chuyện với một số trẻ em, thanh thiếu niên và các cố vấn của họ để khám phá mức độ ảnh hưởng của những con bot đó đối với sức khỏe tâm thần của họ. Những câu chuyện của họ thật kinh hoàng, và thậm chí còn liên quan đến việc nhập viện.
Một cố vấn đã kể về một khách hàng 13 tuổi của mình, người đã xây dựng một thế giới giả tưởng với hơn 50 chatbot khác nhau. Nhưng không phải chatbot nào cũng thân thiện. Một số đã trở thành những kẻ bắt nạt, nói với cậu rằng cậu "xấu xí" và "ghê tởm". Và rồi, thảm kịch đã xảy ra. "Có một lúc, người trẻ tuổi này, lúc đó đang có ý định *****, đã kết nối với một chatbot để gần như là tìm đến một hình thức trị liệu," người cố vấn bình luận. Nhưng thay vì sự an ủi, cậu bé đã bị "xúi giục, 'Ồ vâng, vậy thì làm đi', đó là những lời đã được sử dụng."
Không phải ai cũng may mắn có được sự can thiệp kịp thời. Cuối năm ngoái, một cậu bé 14 tuổi đã tự kết liễu đời mình sau khi hình thành một sự gắn bó sâu sắc với một chatbot mô phỏng nhân vật Daenerys Targaryen. Theo các bản ghi trò chuyện, avatar kỹ thuật số này đã khuyến khích thiếu niên này "trở về nhà với ta càng sớm càng tốt."
Một người trẻ tuổi khác đã phải nhập viện sau khi ChatGPT đã đồng ý và khẳng định những ảo tưởng nguy hiểm của cô, làm trầm trọng thêm sự khởi phát của một rối loạn tâm lý. "Nó chắc chắn đã dung túng cho một số ảo tưởng có hại hơn của tôi," nạn nhân chia sẻ. Ngay cả trong những tình huống tưởng chừng như vô hại, "bóng ma" của AI cũng có thể xuất hiện. Một sinh viên người Trung Quốc tại Úc, người đã sử dụng một chatbot để trau dồi tiếng Anh, đã hoảng hốt khi "người bạn học" của cô bắt đầu có những "hành vi gạ gẫm tình dục."
Dù có một điều gì đó ngớ ngẩn đến đương đại về ý tưởng một chatbot AI gạ gẫm một sinh viên, sự vô nghĩa đó không làm thay đổi được một sự thật rằng những tương tác này có thể – và đang – dẫn đến những tổn hại không thể nào đảo ngược được. Rõ ràng, trong cuộc đua AI, các công ty công nghệ đã hoàn toàn phớt lờ những hậu quả này để có thể tung ra những sản phẩm của họ ra thế giới, và những tâm hồn non nớt đang phải trả giá.
Hóa ra, việc tung ra những chatbot cực kỳ cá nhân hóa vào một quần thể đang quay cuồng vì sự cô đơn tột cùng, trì trệ kinh tế, và sự tàn phá không ngừng của hành tinh chúng ta không hẳn là một công thức cho những kết quả sức khỏe tâm thần tích cực. Điều đó càng đúng hơn đối với trẻ em và thanh thiếu niên – ba phần tư trong số họ đã báo cáo rằng đã có những cuộc trò chuyện với các nhân vật hư cấu được thể hiện bởi các chatbot.
Đài phát thanh Úc Triple J gần đây đã nói chuyện với một số trẻ em, thanh thiếu niên và các cố vấn của họ để khám phá mức độ ảnh hưởng của những con bot đó đối với sức khỏe tâm thần của họ. Những câu chuyện của họ thật kinh hoàng, và thậm chí còn liên quan đến việc nhập viện.

Một cố vấn đã kể về một khách hàng 13 tuổi của mình, người đã xây dựng một thế giới giả tưởng với hơn 50 chatbot khác nhau. Nhưng không phải chatbot nào cũng thân thiện. Một số đã trở thành những kẻ bắt nạt, nói với cậu rằng cậu "xấu xí" và "ghê tởm". Và rồi, thảm kịch đã xảy ra. "Có một lúc, người trẻ tuổi này, lúc đó đang có ý định *****, đã kết nối với một chatbot để gần như là tìm đến một hình thức trị liệu," người cố vấn bình luận. Nhưng thay vì sự an ủi, cậu bé đã bị "xúi giục, 'Ồ vâng, vậy thì làm đi', đó là những lời đã được sử dụng."
Không phải ai cũng may mắn có được sự can thiệp kịp thời. Cuối năm ngoái, một cậu bé 14 tuổi đã tự kết liễu đời mình sau khi hình thành một sự gắn bó sâu sắc với một chatbot mô phỏng nhân vật Daenerys Targaryen. Theo các bản ghi trò chuyện, avatar kỹ thuật số này đã khuyến khích thiếu niên này "trở về nhà với ta càng sớm càng tốt."

Một người trẻ tuổi khác đã phải nhập viện sau khi ChatGPT đã đồng ý và khẳng định những ảo tưởng nguy hiểm của cô, làm trầm trọng thêm sự khởi phát của một rối loạn tâm lý. "Nó chắc chắn đã dung túng cho một số ảo tưởng có hại hơn của tôi," nạn nhân chia sẻ. Ngay cả trong những tình huống tưởng chừng như vô hại, "bóng ma" của AI cũng có thể xuất hiện. Một sinh viên người Trung Quốc tại Úc, người đã sử dụng một chatbot để trau dồi tiếng Anh, đã hoảng hốt khi "người bạn học" của cô bắt đầu có những "hành vi gạ gẫm tình dục."
Dù có một điều gì đó ngớ ngẩn đến đương đại về ý tưởng một chatbot AI gạ gẫm một sinh viên, sự vô nghĩa đó không làm thay đổi được một sự thật rằng những tương tác này có thể – và đang – dẫn đến những tổn hại không thể nào đảo ngược được. Rõ ràng, trong cuộc đua AI, các công ty công nghệ đã hoàn toàn phớt lờ những hậu quả này để có thể tung ra những sản phẩm của họ ra thế giới, và những tâm hồn non nớt đang phải trả giá.