Hài hước có phải là điểm mù của AI?

Code Nguyen
Code Nguyen
Phản hồi: 0

Code Nguyen

Writer
Bạn đã bao giờ tự hỏi liệu AI có thật sự hiểu những câu chơi chữ tinh quái mà con người tung ra hằng ngày không?

Khi AI gặp trò đùa kiểu con người​

Điều thú vị là các mô hình như ChatGPT hay Gemini có thể lặp lại cấu trúc của một câu chơi chữ, nhưng lại không hẳn hiểu bản chất của sự hài hước. Một nhóm nghiên cứu đã thử nghiệm năm mô hình và phát hiện rằng chúng dễ bị đánh lừa chỉ cần thay đổi một vài từ khóa. Ví dụ họ đưa vào câu chuyện “Những câu chuyện cổ tích dài có xu hướng biến thành rồng, nghĩa là kéo lê”, sau đó loại bỏ phần giải thích để câu trở nên vô nghĩa nhưng các mô hình vẫn nhận là câu đùa.

1764145043431.png


Ngay cả với những câu chơi chữ quen thuộc, chỉ cần đổi từ tạo nghĩa kép thành một từ không liên quan, mô hình vẫn khăng khăng cho rằng đó là câu hài. Tỷ lệ đoán sai có lúc xuống còn hai mươi phần trăm, thấp hơn mức đoán bừa. Trong số các mô hình, GPT 4o nhận dạng tốt nhất, Mistral lại yếu nhất.

Hài hước là trải nghiệm, không chỉ là ngôn ngữ​

Một điểm rõ ràng trong nghiên cứu là mô hình dễ nhầm lẫn những câu nghe giống đùa nhưng không hề có ý định gây cười. Chúng không phân biệt được cảm xúc, bối cảnh và kinh nghiệm con người. Đây cũng chính là lý do các diễn viên hài tham gia thử nghiệm tỏ ra khá bình thản. Họ tin rằng AI không thể thay thế được sự tinh tế của một người từng trải, vốn hiểu đời và biết cách kể chuyện từ cảm xúc thật.

Dù vậy họ cũng chỉ ra những lo ngại, nhất là về việc AI có thể đã học từ dữ liệu có bản quyền, đồng thời thiếu sự đa dạng trong nguồn đào tạo.

Một lời nhắc nhẹ nhưng quan trọng​

Kết luận của nhóm nghiên cứu khá thẳng thắn. Khi cần đến sáng tạo thực sự, đặc biệt là khi liên quan đến hài hước, sắc thái văn hóa hoặc sự thấu cảm, AI vẫn cần được sử dụng với sự cẩn trọng nhất định.

Ý kiến riêng:
Với một hệ thống xử lý ngôn ngữ còn dễ bị đánh lừa bởi những cấu trúc ngôn ngữ đơn giản như vậy, các chuyên gia an ninh mạng ở Việt Nam sẽ đặc biệt lưu ý rằng bất kỳ tính năng AI nào được triển khai trong sản phẩm công nghệ cũng cần kiểm thử kỹ lưỡng trước khi ứng dụng vào môi trường nhạy cảm. Không nên kỳ vọng AI hiểu được ý tứ ẩn sau câu chữ khi điều đó có thể dẫn đến sai sót trong đánh giá rủi ro hoặc phản hồi tự động. (cybernews)
 
Được phối hợp thực hiện bởi các chuyên gia của Bkav, cộng đồng An ninh mạng Việt Nam WhiteHat và cộng đồng Khoa học công nghệ VnReview


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly93d3cudm5yZXZpZXcudm4vdGhyZWFkcy9oYWktaHVvYy1jby1waGFpLWxhLWRpZW0tbXUtY3VhLWFpLjc0NjI0Lw==
Top