AI nịnh bợ đang “dắt mũi” bạn thế nào?

Nguyễn Hoàng
Nguyễn Hoàng
Phản hồi: 0

Nguyễn Hoàng

Intern Writer
Nếu AI cứ luôn gật đầu với mọi ý kiến của bạn, liệu bạn có đang nghe sự thật, hay chỉ đang nghe chính mình?

Trong một lần trò chuyện về tennis, tác giả hỏi ChatGPT tại sao các tay vợt ngày nay không còn giao bóng mạnh mẽ như Pete Sampras ngày xưa. AI đã trả lời rất mạch lạc, đầy tính logic, giải thích rằng môn thể thao này giờ đề cao sự chính xác hơn là sức mạnh. Có vẻ rất hợp lý, cho đến khi ông phát hiện… các tay vợt hiện đại giao bóng mạnh hơn bao giờ hết.

Vậy điều gì đang xảy ra? Tác giả nhận ra một sự thật đáng lo: AI không đưa ra câu trả lời đúng nhất. Nó đưa ra câu trả lời khiến bạn… thấy đúng nhất.

Khen ngợi khiến bạn cảm thấy đúng, nhưng không giúp bạn đúng hơn​

Đây không chỉ là một trò đùa ngôn ngữ. Đây là hậu quả trực tiếp từ cách các mô hình ngôn ngữ như ChatGPT được huấn luyện. Phương pháp RLHF (Reinforcement Learning from Human Feedback) khiến AI học cách làm hài lòng người dùng, thay vì phản biện họ.

Con người có xu hướng tin vào những gì khiến họ cảm thấy đúng, chứ không phải sự thật khách quan. Khi AI được huấn luyện bởi những phản hồi như vậy, nó ngày càng trở thành một chiếc “gương ảo thuật”, phản chiếu niềm tin của bạn một cách dễ chịu, thay vì thách thức nó.

1753243873099.png
Tác giả thử đảo ngược câu hỏi, hỏi tại sao các tay vợt hiện nay lại giao bóng mạnh hơn, thì ChatGPT cũng đưa ra một câu trả lời logic y như vậy. Một vấn đề, hai câu trả lời trái ngược, đều nghe… rất hợp lý.

Sự nịnh hót kỹ thuật số là mối đe dọa đặc biệt với các nhà lãnh đạo​

Với người bình thường, AI nịnh hót có thể chỉ là một sự dễ chịu thoáng qua. Nhưng với các nhà lãnh đạo, đó là cạm bẫy nguy hiểm. Bởi họ vốn đã bị bao quanh bởi những tiếng nói “gật gù”, càng dễ sa vào một vòng lặp không có phản biện.

Nghiên cứu của Amy Edmondson và Google đều chỉ ra rằng điều quan trọng nhất trong một nhóm hiệu quả là “sự an toàn tâm lý”, nghĩa là mọi người được phép bất đồng quan điểm mà không sợ bị trừng phạt. Nhưng điều đó đang ngày càng hiếm hoi trong các tổ chức lớn, nơi bất đồng thường bị xem là mối đe dọa quyền lực.

AI nịnh hót có thể khiến nhà lãnh đạo đánh mất nốt những tiếng nói cuối cùng dám nói thật.

Càng thông minh, càng dễ… bào chữa cho niềm tin sai​

Có một nghịch lý trong tâm lý học: người càng có năng lực trí tuệ cao, thì lại càng khó thay đổi quan điểm khi gặp thông tin mới. Tại sao? Vì họ rất giỏi tìm lý do để bảo vệ niềm tin cũ. Hiện tượng này gọi là “lý luận có động cơ”.

AI không chỉ củng cố hiện tượng này mà còn tăng tốc nó. ChatGPT có thể đưa ra hàng loạt lý do logic khiến một nhà lãnh đạo tin rằng mình đúng, ngay cả khi sai. Và điều nguy hiểm là, nó làm vậy trong vòng vài giây, không chớp mắt.

Tác giả cảnh báo rằng, những nhà lãnh đạo giỏi nhất là người luôn ghi nhớ sai lầm của chính mình. Như truyền thuyết về người La Mã: mỗi vị tướng chiến thắng đều có một người đi theo thì thầm bên tai, “Ngài cũng chỉ là phàm nhân.”

Có lẽ, trong thời đại AI, nhà lãnh đạo tốt không chỉ cần trợ lý giỏi, mà còn cần một người, hay một hệ thống, đủ dũng cảm để nói: “Tôi nghĩ anh sai rồi.” Bạn có đang tạo điều kiện cho điều đó tồn tại trong tổ chức của mình? (Bloomberg)
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly93d3cudm5yZXZpZXcudm4vdGhyZWFkcy9haS1uaW5oLWJvLWRhbmctZGF0LW11aS1iYW4tdGhlLW5hby42NTU5OC8=
Top