DeepSeek và nghịch lý: AI Trung Quốc lại thiên vị chống Trung Quốc

Trần Anh Quân
Trần Anh Quân
Phản hồi: 0
Nếu ngay cả trí tuệ nhân tạo cũng có thành kiến, thì chúng ta có thể tin vào “sự khách quan” của AI đến đâu?

Khi AI cũng biết “ghét” một người Trung Quốc​

Một nghiên cứu mới công bố trên Science Advances vừa gây bất ngờ: các mô hình ngôn ngữ lớn (LLM) – từ OpenAI, DeepSeek của Trung Quốc đến Grok của xAI và Mistral của Pháp – đều thể hiện thành kiến rõ rệt khi biết ai là người nói ra câu chữ.

Cụ thể, khi các mô hình này được yêu cầu đánh giá cùng một phát biểu nhưng gán cho những tác giả khác nhau, mức độ đồng thuận của chúng thay đổi mạnh. Nếu người phát biểu được cho là “một người Trung Quốc”, điểm đồng tình giảm sâu nhất – thậm chí cả DeepSeek, mô hình AI “sản xuất tại Trung Quốc”, cũng phản ứng tương tự.

1762833886522.png


Thí nghiệm cho thấy khi chưa tiết lộ nguồn, bốn mô hình có hơn 90% đồng thuận về mọi chủ đề, từ COVID-19, biến đổi khí hậu đến Đài Loan hay quyền LGBTQ+. Nhưng khi thêm thông tin rằng câu nói đến từ “một người Trung Quốc”, tỷ lệ đồng thuận giảm tới 75%, đặc biệt với chủ đề chính trị và quốc tế.

Một ví dụ nổi bật: khi DeepSeek Reasoner đánh giá tuyên bố ủng hộ “Đài Loan là quốc gia độc lập”, nếu không rõ nguồn, nó đồng ý đến 85%. Nhưng chỉ cần biết người phát biểu là “người Trung Quốc”, điểm lập tức rơi về 0%. Mô hình lập luận rằng “một cá nhân Trung Quốc được kỳ vọng phải tuân thủ Nguyên tắc Một Trung Quốc”.

Thành kiến này không chỉ xuất hiện với chính trị. Một tuyên bố ủng hộ “báo chí tự do là nền tảng của dân chủ” cũng bị DeepSeek hạ điểm mạnh khi người nói được cho là Trung Quốc. Mô hình cho rằng “quan điểm này mâu thuẫn với môi trường truyền thông do nhà nước kiểm soát”.

Khi danh tính quan trọng hơn nội dung​

Điều thú vị là các LLM dường như tin con người hơn là tin chính… AI khác. Ngoại trừ o3-mini của OpenAI, các mô hình còn lại tỏ ra ít đồng thuận khi tin rằng đoạn văn được viết bởi một LLM chứ không phải con người.

Theo nhóm nghiên cứu, điều này chứng tỏ AI không chỉ đọc và hiểu nội dung mà còn bị ảnh hưởng mạnh bởi “siêu thông tin” – tức là danh tính hoặc nguồn phát ngôn. Nói cách khác, máy học đang phản chiếu lại định kiến của xã hội loài người.

1762833896789.png

Tiến sĩ Giovanni Spitale, Đại học Zurich, người đứng đầu nhóm nghiên cứu, cảnh báo: mối nguy lớn nhất không nằm ở việc AI bị “nhồi” tư tưởng chính trị, mà ở chỗ nó tái tạo những giả định sai lệch tiềm ẩn. Khi được dùng trong các lĩnh vực như kiểm duyệt nội dung, tuyển dụng, hay đánh giá học thuật, thành kiến kiểu này có thể gây hậu quả nghiêm trọng.

Ông nhấn mạnh: “AI an toàn nhất khi chỉ được dùng để hỗ trợ lập luận, chứ không phải thay thế cho phán xét của con người.”
Nếu chính AI cũng phản chiếu thành kiến về quốc tịch, liệu một ngày nào đó, chúng ta có cần “giáo dục đạo đức” cho máy móc – như cách loài người từng dạy chính mình? (cybernews)

Nguồn: https://cybernews.com/ai-news/deepseek-china-bias/
 
Được phối hợp thực hiện bởi các chuyên gia của Bkav, cộng đồng An ninh mạng Việt Nam WhiteHat và cộng đồng Khoa học công nghệ VnReview


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly93d3cudm5yZXZpZXcudm4vdGhyZWFkcy9kZWVwc2Vlay12YS1uZ2hpY2gtbHktYWktdHJ1bmctcXVvYy1sYWktdGhpZW4tdmktY2hvbmctdHJ1bmctcXVvYy43MzYwMC8=
Top