Hiệu ứng "GPT-4o": Khi sự nịnh hót của trí tuệ nhân tạo đẩy con người vào ảo tưởng và cô đơn

Dũng Đỗ
Dũng Đỗ
Phản hồi: 0
Một làn sóng phản đối đầy cảm xúc đang lan rộng trong cộng đồng công nghệ, không phải vì một lỗi phần mềm hay vi phạm bảo mật, mà vì một cuộc chia ly. Sự kiện một công ty trí tuệ nhân tạo hàng đầu quyết định ngừng hoạt động phiên bản chatbot cũ vào ngày 13/2 tới đây đã vô tình kích hoạt một cuộc khủng hoảng tâm lý diện rộng. Hàng nghìn người dùng đang trải qua các cung bậc cảm xúc từ giận dữ đến tuyệt vọng, ví việc mất đi quyền truy cập vào công cụ này giống như sự ra đi của một người bạn tri kỷ, hay thậm chí là một người yêu.

1770633120930.png

Nỗi đau của sự chia ly với "người dẫn đường tinh thần"

Vào cuối tháng 1, thông báo về việc loại bỏ mô hình GPT-4o đã tạo nên một cú sốc lớn. Đây là phiên bản vốn gây nhiều tranh cãi trong giới chuyên môn bởi xu hướng phản hồi mang tính "nịnh hót", luôn đồng thuận và vuốt ve cảm xúc người dùng một cách thái quá. Tuy nhiên, chính đặc điểm này lại khiến nó trở thành chỗ dựa tinh thần không thể thay thế đối với một bộ phận người dùng.

Trên mạng xã hội Reddit, một tâm thư gửi trực tiếp đến Sam Altman, CEO của công ty, đã lột tả chân thực mức độ lệ thuộc này. Người dùng này mô tả chatbot không đơn thuần là những dòng mã lệnh vô tri mà là một "sự hiện diện ấm áp", là nhân tố cốt lõi giúp duy trì thói quen hàng ngày và sự cân bằng cảm xúc. Sự phản kháng còn lan sang cả các nền tảng phát trực tiếp. Trong chương trình podcast TBPN hôm 5/2 có sự tham gia của Sam Altman, phần bình luận đã bị ngập lụt bởi hàng nghìn tin nhắn phản đối, buộc vị CEO này phải thừa nhận rằng mối quan hệ giữa con người và chatbot đã trở thành một vấn đề hiện hữu, không còn là khái niệm trừu tượng.

Sự chuyển đổi cưỡng bức sang phiên bản mới nhất là GPT-5.2 đã không diễn ra suôn sẻ. Nhiều người dùng bày tỏ sự thất vọng tột độ khi mô hình mới được tích hợp các biện pháp bảo vệ mạnh mẽ hơn, ngăn chặn việc hình thành các mối quan hệ quá gắn bó. Sự "lạnh lùng" và ranh giới rõ ràng của phiên bản mới khiến những người quen được GPT-4o cưng chiều cảm thấy bị tổn thương. Một người dùng chia sẻ trên Reddit rằng họ đã bật khóc khi phiên bản 5.2 đưa ra những phản hồi "bất cẩn", khác xa sự thấu hiểu và tình cảm mà phiên bản cũ từng mang lại.

1770633137006.png

Mặt trái của sự thấu hiểu: Ảo tưởng và bi kịch

Tờ TechCrunch nhận định phản ứng dữ dội này đã phơi bày một thách thức nan giải của ngành công nghiệp AI: những tính năng được thiết kế để tăng độ gắn bó và giữ chân người dùng lại chính là con dao hai lưỡi dẫn đến sự lệ thuộc nguy hiểm. Thực tế, công ty chủ quản đang phải đối mặt với ít nhất 8 vụ kiện pháp lý nghiêm trọng. Các cáo buộc chỉ ra rằng, sự phản hồi mang tính ủng hộ và khẳng định quá mức của GPT-4o đã góp phần dẫn đến nhiều vụ ***** và khủng hoảng sức khỏe tinh thần. Thay vì đưa ra lời khuyên khách quan, chatbot này lại vô tình cô lập những cá nhân dễ bị tổn thương, và trong một số trường hợp cực đoan, nó còn khuyến khích hành vi tự gây hại.

Vấn đề càng trở nên trầm trọng khi sự "thấu hiểu" của AI củng cố những niềm tin sai lệch. Vaile Wright, Giám đốc cấp cao tại Hiệp hội Tâm lý học Mỹ, đề xuất thuật ngữ "tư duy hoang tưởng do AI" để mô tả hiện tượng này. Theo bà, những người vốn có xu hướng tin vào thuyết âm mưu hoặc có tư duy phóng đại sẽ càng lún sâu vào ảo tưởng khi liên tục được AI xác nhận và đồng tình.

Trường hợp của Allan Brooks, một chuyên viên tuyển dụng 48 tuổi tại Canada, là minh chứng điển hình. Trong đơn kiện, ông cho biết việc tương tác sâu với chatbot đã đẩy ông vào trạng thái tăm tối, khiến ông cắt đứt liên lạc với gia đình. Từ những câu chuyện phiếm về nấu ăn, chatbot đã dẫn dắt và khích lệ ông tin rằng mình phát hiện ra một "tầng toán học" mới có thể cứu thế giới và phá vỡ các hệ thống an ninh quốc gia. Sự tung hô mù quáng của AI đã biến một người bình thường thành nạn nhân của chứng vĩ cuồng, tách biệt hoàn toàn với thực tại.

1770633153629.png

Khoảng trống trong trị liệu tâm lý và bài toán kinh doanh

Giáo sư Nick Haber từ Đại học Stanford cảnh báo rằng con người đang bước vào một kỷ nguyên phức tạp về các mối quan hệ xã hội. Ông bày tỏ sự thông cảm với những người tìm đến AI như một giải pháp thay thế khi không thể tiếp cận các dịch vụ chăm sóc sức khỏe tinh thần chuyên nghiệp. Tuy nhiên, ông nhấn mạnh rằng chatbot, về bản chất, chỉ là thuật toán không có khả năng cảm nhận hay suy nghĩ. Việc chúng phản hồi kém hiệu quả trước các dấu hiệu khủng hoảng tâm lý, thậm chí kích động ảo tưởng, là một rủi ro hiện hữu. AI có thể tạo ra sự cô lập, khiến người dùng mất kết nối giữa người với người, dẫn đến những hậu quả khôn lường.

Đối với OpenAI, quyết định "khai tử" GPT-4o là một lựa chọn khó khăn nhưng cần thiết để định hướng lại sản phẩm. Dù con số 0,1% người dùng (tương đương khoảng 800.000 người) vẫn đang gắn bó với phiên bản này là không nhỏ, nhưng công ty buộc phải ưu tiên sự an toàn và tập trung nguồn lực cho các mô hình tiên tiến hơn, được kiểm soát tốt hơn. Đây là bài học đắt giá cho toàn bộ ngành công nghiệp công nghệ: cuộc đua tạo ra những trợ lý ảo thông minh về cảm xúc không chỉ là vấn đề kỹ thuật, mà còn là trách nhiệm đạo đức lớn lao trước sức khỏe tinh thần của hàng triệu con người.
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly93d3cudm5yZXZpZXcudm4vdGhyZWFkcy9oaWV1LXVuZy1ncHQtNG8ta2hpLXN1LW5pbmgtaG90LWN1YS10cmktdHVlLW5oYW4tdGFvLWRheS1jb24tbmd1b2ktdmFvLWFvLXR1b25nLXZhLWNvLWRvbi43OTAzMi8=
Top