4 hạn chế lớn khi dùng các chatbot AI làm công cụ tìm kiếm

Sasha
Sasha
Phản hồi: 0

Sasha

Writer
Hiện nay, khá nhiều người bắt đầu coi các chatbot AI là công cụ tìm kiếm chính của họ mà không nhận ra rằng những công cụ này thường xuyên mắc lỗi và hậu quả nghiêm trọng có thể xảy ra.

1754296276426.png


Chúng bịa đặt sự thật một cách tự tin và ảo tưởng


Vấn đề của chatbot AI là: chúng được thiết kế để nghe có vẻ thông minh, chứ không phải để đảm bảo độ chính xác. Khi bạn hỏi điều gì đó, chúng thường sẽ đưa ra cho bạn một câu trả lời nghe như đến từ một nguồn đáng tin cậy, ngay cả khi nó hoàn toàn sai.

Một ví dụ điển hình về điều này thực sự đã xảy ra với một người gần đây. Một du khách người Úc đang lên kế hoạch cho một chuyến đi đến Chile và hỏi ChatGPT liệu họ có cần thị thực không. Chatbot tự tin trả lời là không, nói rằng người Úc có thể nhập cảnh mà không cần thị thực.

Nghe có vẻ hợp lệ, vì vậy du khách đã đặt vé, hạ cánh xuống Chile và bị từ chối nhập cảnh. Hóa ra, người Úc cần thị thực để nhập cảnh vào Chile, và người đó đã bị mắc kẹt hoàn toàn ở một quốc gia khác.

1754296341440.png

Du khách Úc phải trả giá khi tin vào thông tin do ChatGPT cung cấp

Điều này xảy ra bởi vì các chatbot và các mô hình ngôn ngữ lớn (LLM) đứng sau nó không thực sự "tra cứu" câu trả lời. Chúng tạo ra văn bản dựa trên các mẫu được đào tạo, nghĩa là chúng có thể lấp đầy khoảng trống bằng thông tin nghe có vẻ hợp lý, ngay cả khi nó sai. Và đáng ngại hơn, chatbot sẽ không nói với bạn rằng nó không chắc chắn - hầu hết thời gian, các chatbot sẽ trình bày câu trả lời như một sự thật.

Đó là lý do tại sao ảo giác lại là một vấn đề lớn như vậy. Nó không chỉ là một câu trả lời sai, mà là một câu trả lời sai mà cảm thấy đúng. Khi bạn đưa ra quyết định trong đời thực, đó là lúc thiệt hại xảy ra.

Mặc dù có nhiều cách để ngăn chặn ảo giác AI, bạn vẫn có thể mất tiền, trễ hạn, hoặc, trong trường hợp của người Úc trên, bị kẹt ở sân bay vì bạn tin tưởng một công cụ không thực sự biết nó đang nói về điều gì.

Các mô hình LLM được đào tạo trên các tập dữ liệu hạn chế với độ sai lệch không xác định

Các mô hình ngôn ngữ lớn được đào tạo trên các tập dữ liệu khổng lồ, nhưng không ai thực sự biết chính xác những tập dữ liệu đó bao gồm những gì. Chúng được xây dựng từ sự kết hợp của các trang web, sách, diễn đàn và các nguồn công khai khác, và sự kết hợp đó có thể không đồng đều.

1754296387609.png

Giả sử bạn đang cố gắng tìm hiểu cách khai thuế với tư cách là một người làm việc tự do và bạn nhờ một chatbot trợ giúp. Nó có thể cung cấp cho bạn một câu trả lời dài dòng và chi tiết, nhưng lời khuyên có thể dựa trên các quy tắc lỗi thời của Sở Thuế vụ Mỹ (IRS), hoặc thậm chí là một bình luận ngẫu nhiên của người dùng trên diễn đàn.

Chatbot không cho bạn biết thông tin đó đến từ đâu, và nó sẽ không đánh dấu nếu có điều gì đó không áp dụng cho trường hợp của bạn. Nó chỉ diễn đạt câu trả lời như thể nó đến từ một chuyên gia thuế.

Đó là vấn đề về sự thiên vị trong các mô hình LLM. Nó không phải lúc nào cũng liên quan đến chính trị hay văn hóa, mà cũng có thể liên quan đến việc tiếng nói của ai được đưa vào và tiếng nói của ai bị bỏ qua. Nếu dữ liệu đào tạo thiên về một số khu vực, quan điểm hoặc khoảng thời gian nhất định, thì các phản hồi cũng sẽ như vậy. Bạn sẽ không phải lúc nào cũng nhận thấy điều đó, nhưng lời khuyên bạn nhận được có thể bị sai lệch một cách tinh vi.

Chatbot AI chỉ phản ánh lại ý kiến của bạn

Hãy hỏi chatbot một câu hỏi khó, và nó thường sẽ đưa ra cho bạn một câu trả lời nghe có vẻ ủng hộ, ngay cả khi câu trả lời đó hoàn toàn thay đổi tùy thuộc vào cách bạn diễn đạt câu hỏi. Vấn đề không phải là AI đồng ý với bạn. Vấn đề là nó được thiết kế để hữu ích, và trong hầu hết các trường hợp, "hữu ích" có nghĩa là đồng tình với những giả định của bạn.

1754296402839.png

Ví dụ: nếu bạn hỏi: "Bữa sáng có thực sự quan trọng đến vậy không?", chatbot có thể nói với bạn rằng bỏ bữa sáng là tốt và thậm chí còn liên hệ nó với việc nhịn ăn gián đoạn. Nhưng nếu bạn hỏi: "Tại sao bữa sáng lại là bữa ăn quan trọng nhất trong ngày?", chatbot sẽ đưa ra cho bạn một lập luận thuyết phục về mức năng lượng, quá trình trao đổi chất và khả năng tập trung tốt hơn. Cùng một chủ đề, nhưng giọng điệu hoàn toàn khác, bởi vì nó chỉ phản ứng với cách bạn đặt câu hỏi.

Hầu hết các mô hình này được xây dựng để khiến người dùng cảm thấy hài lòng với câu trả lời. Và điều đó có nghĩa là chúng hiếm khi thách thức bạn.

Chúng có nhiều khả năng đồng ý với cách bạn đặt câu hỏi hơn là phản bác, bởi vì những tương tác tích cực có liên quan đến việc giữ chân người dùng cao hơn. Về cơ bản, nếu chatbot mang lại cảm giác thân thiện và đáng tin cậy, bạn sẽ có nhiều khả năng tiếp tục sử dụng nó.

Có một số mô hình đặt câu hỏi cho bạn thay vì đồng ý một cách mù quáng. Kiểu phản hồi đó có thể hữu ích, nhưng nó vẫn là ngoại lệ, không phải là quy luật.

Chatbot không được cập nhật thông tin theo thời gian thực

Nhiều người cho rằng chatbot AI luôn được cập nhật, đặc biệt là khi các công cụ như ChatGPT, Gemini và Copilot có thể truy cập web. Nhưng việc chúng có thể duyệt web không có nghĩa là chúng giỏi - đặc biệt là khi nói đến tin tức nóng hổi hoặc sản phẩm mới ra mắt.

1754296425239.png

Nếu bạn hỏi một chatbot về iPhone 17 vài giờ sau khi sự kiện kết thúc, rất có thể bạn sẽ nhận được một hỗn hợp những suy đoán lỗi thời và chi tiết bịa đặt. Thay vì lấy thông tin từ trang web chính thức của Apple hoặc các nguồn đã được xác minh, chatbot có thể đoán dựa trên các tin đồn hoặc các mô hình ra mắt trước đó. Bạn sẽ nhận được một câu trả lời nghe có vẻ tự tin, nhưng một nửa trong số đó có thể sai.

Điều này xảy ra bởi vì duyệt web theo thời gian thực không phải lúc nào cũng diễn ra theo cách bạn mong đợi. Một số trang có thể chưa được lập chỉ mục, công cụ có thể dựa vào kết quả được lưu trong bộ nhớ đệm, hoặc có thể chỉ mặc định sử dụng dữ liệu tiền huấn luyện thay vì thực hiện tìm kiếm mới. Và vì câu trả lời được viết mượt mà và tự tin, bạn thậm chí có thể không nhận ra nó không chính xác.

Đối với thông tin nhạy cảm về thời gian, chẳng hạn như tóm tắt sự kiện, thông báo sản phẩm hoặc thông tin thực tế ban đầu, LLM vẫn chưa đáng tin cậy. Bạn thường sẽ nhận được kết quả tốt hơn nếu chỉ sử dụng công cụ tìm kiếm truyền thống và tự mình kiểm tra nguồn.

Vì vậy, mặc dù "truy cập internet trực tiếp" nghe có vẻ như đã giải quyết được vấn đề, nhưng nó vẫn chưa hoàn hảo. Và nếu bạn cho rằng chatbot luôn biết những gì đang diễn ra ngay lúc đó, bạn đang tự chuốc lấy thông tin sai lệch.

>> Vấn đề lớn nhất chatbot AI hiện nay: nịnh hót, nói những gì người dùng muốn nghe

 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly93d3cudm5yZXZpZXcudm4vdGhyZWFkcy80LWhhbi1jaGUtbG9uLWtoaS1kdW5nLWNhYy1jaGF0Ym90LWFpLWxhbS1jb25nLWN1LXRpbS1raWVtLjY2NTgyLw==
Top