Dùng toán học chứng minh sự thật phũ phàng: Giấc mơ về AI toàn năng chỉ là điều viển vông?

Nhật Quang
Nhật Quang
Phản hồi: 0

Nhật Quang

Editor
Thành viên BQT
Trong suốt một thập kỷ qua, thế giới công nghệ đã bị cuốn vào cơn say của những lời hứa hẹn đầy hoa mỹ về tương lai của trí tuệ nhân tạo (AI). Từ các giám đốc điều hành tại Thung lũng Silicon cho đến những nhà đầu tư mạo hiểm, tất cả đều vẽ ra một viễn cảnh nơi AI có thể suy nghĩ như con người, tự ra quyết định phức tạp và tiến gần đến Trí tuệ Nhân tạo Tổng quát (AGI). Tuy nhiên, một nghiên cứu toán học mới đây được thực hiện bởi hai chuyên gia hàng đầu đã dội một gáo nước lạnh vào sự lạc quan thái quá này, chứng minh rằng những giới hạn cốt lõi trong cấu trúc của AI hiện đại khiến những lời hứa đó trở nên bất khả thi về mặt toán học.

1770297031750.png

Tiếng nói phản biện từ những chuyên gia hàng đầu

Không phải là những lời chỉ trích cảm tính từ người ngoại đạo, nghiên cứu này được thực hiện bởi hai cha con Vishal Sikka và Varin Sikka, những người có nền tảng học thuật và kinh nghiệm thực chiến sâu sắc trong ngành. Ông Vishal Sikka là một nhân vật kỳ cựu, từng giữ chức Giám đốc Công nghệ (CTO) của tập đoàn SAP, Tổng Giám đốc (CEO) của Infosys và sở hữu bằng Tiến sĩ về trí tuệ nhân tạo tại Đại học danh tiếng Stanford. Con trai ông, Varin Sikka, cũng đang tiếp bước cha mình tại chính ngôi trường này.

Công trình của họ không tập trung vào các vấn đề đạo đức hay xã hội của AI, mà đi sâu vào bản chất toán học của các Mô hình Ngôn ngữ Lớn (LLM) – nền tảng của hầu hết các công cụ AI đình đám hiện nay. Kết luận của họ rất rõ ràng: cấu trúc hiện tại của AI chứa đựng những khiếm khuyết không thể khắc phục chỉ bằng việc nạp thêm dữ liệu.

1770297058647.png

"Ảo giác AI" là định mệnh toán học, không phải lỗi kỹ thuật

Trọng tâm của nghiên cứu nhắm thẳng vào kiến trúc Transformer, xương sống của các mô hình AI hiện đại. Theo phân tích của hai tác giả, khả năng "suy nghĩ" của một mô hình AI bị giới hạn nghiêm ngặt bởi độ sâu của mạng lưới thần kinh và kích thước của nó. Mỗi khi AI tạo ra một câu trả lời, lượng tính toán mà nó thực hiện là cố định, bất kể câu hỏi đó đơn giản như "1+1 bằng mấy" hay phức tạp như một bài toán logic hóc búa.

Khi đối mặt với một nhiệm vụ đòi hỏi chuỗi suy luận vượt quá giới hạn tính toán cho phép, AI sẽ không dừng lại để "nghĩ thêm" như con người. Thay vào đó, do bị buộc phải đưa ra kết quả tiếp theo, nó sẽ tự động sinh ra những câu trả lời nghe có vẻ hợp lý và trôi chảy nhưng thực chất lại hoàn toàn sai lệch. Giới công nghệ gọi đây là hiện tượng "ảo giác" (hallucination). Nghiên cứu của cha con nhà Sikka khẳng định rằng đây không phải là một lỗi ngẫu nhiên do dữ liệu bẩn, mà là hệ quả tất yếu của một kiến trúc máy tính bị giới hạn về năng lực xử lý chiều sâu. Do đó, việc tinh chỉnh dữ liệu hay huấn luyện thêm cũng không thể loại bỏ hoàn toàn vấn đề này.

1770297067842.png

Sự bất lực trước bài toán "Người bán hàng"

Để minh chứng cho luận điểm của mình, các tác giả đã sử dụng bài toán kinh điển trong khoa học máy tính: Bài toán người bán hàng (Traveling Salesman Problem). Bài toán yêu cầu tìm ra lộ trình ngắn nhất để đi qua một loạt các thành phố và quay trở lại điểm xuất phát. Sự phức tạp của bài toán này nằm ở chỗ số lượng phương án cần xem xét sẽ tăng theo cấp số nhân khi số lượng thành phố tăng lên.

Ví dụ, với 5 thành phố, chỉ có khoảng 120 lộ trình để xem xét. Tuy nhiên, khi số lượng tăng lên 10 hoặc 20 thành phố, số lượng phương án bùng nổ lên tới hơn 3,6 triệu và thậm chí là 2,4 tỷ tỷ cách đi khác nhau. Đối với con người hoặc các thuật toán chuyên biệt, việc giải quyết bài toán này đòi hỏi thời gian suy ngẫm và thử sai. Nhưng với các mô hình ngôn ngữ lớn, chúng cố gắng giải quyết vấn đề này chỉ trong một lần chạy tuyến tính (linear pass). Điều này vượt quá khả năng toán học của mô hình, dẫn đến việc AI sẽ đưa ra một lộ trình ngẫu nhiên mà không có cách nào tự kiểm chứng được tính tối ưu hay đúng đắn của nó.

1770297084377.png

Sự ngộ nhận về "AI Agent" và lời cảnh tỉnh về sự cường điệu

Nghiên cứu cũng giáng một đòn mạnh vào xu hướng công nghệ đang nổi lên gần đây là "AI Agent" (Tác nhân AI) – những hệ thống được quảng bá là có khả năng tự lập kế hoạch, tự hành động và phối hợp nhiều bước để giải quyết vấn đề lớn. Theo phân tích, vì các Agent này vẫn được xây dựng trên cùng một nền tảng LLM, chúng thừa hưởng toàn bộ những giới hạn toán học kể trên. Việc ghép nối nhiều mô hình AI lại với nhau hay để AI này kiểm tra AI kia thực chất chỉ làm tăng thêm độ phức tạp mà không giải quyết được gốc rễ vấn đề: sự thiếu hụt khả năng tư duy logic thực sự.

Tuy nhiên, nghiên cứu không phủ nhận hoàn toàn giá trị của AI. Hai chuyên gia thừa nhận rằng các mô hình hiện tại vẫn cực kỳ hữu dụng và hiệu quả trong các tác vụ có phạm vi hẹp như tóm tắt văn bản, hỗ trợ viết mã lập trình hay tự động hóa quy trình. Thông điệp cốt lõi mà họ muốn gửi gắm là sự cần thiết phải phân biệt rạch ròi giữa thực tế khoa học và những lời quảng cáo tiếp thị (marketing hype). Khi các công ty công nghệ thần thánh hóa AI như một thực thể có khả năng suy luận và ra quyết định như con người, họ đang cố tình phớt lờ những giới hạn toán học bất biến mà chính công nghệ này đang mắc phải.
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly93d3cudm5yZXZpZXcudm4vdGhyZWFkcy9kdW5nLXRvYW4taG9jLWNodW5nLW1pbmgtc3UtdGhhdC1waHUtcGhhbmctZ2lhYy1tby12ZS1haS10b2FuLW5hbmctY2hpLWxhLWRpZXUtdmllbi12b25nLjc4NzY3Lw==
Top