Sasha
Writer
Năm 2025, những hiểu lầm về AI nở rộ khi mọi người chật vật để hiểu được sự phát triển và ứng dụng nhanh chóng của công nghệ này. Dưới đây là ba hiểu lầm phổ biến cần loại bỏ trong năm mới.
Các mô hình AI đang gặp bế tắc
Khi GPT-5 được phát hành vào tháng 5, mọi người tự hỏi liệu AI có đang gặp bế tắc hay không. Mặc dù tên gọi được nâng cấp đáng kể, sự cải tiến dường như chỉ là nhỏ giọt. Tờ New Yorker đã đăng một bài báo có tiêu đề, “Điều gì sẽ xảy ra nếu AI không thể tốt hơn thế này nữa?” tuyên bố rằng GPT-5 là “sản phẩm mới nhất cho thấy tiến bộ về các mô hình ngôn ngữ quy mô lớn đã bị đình trệ.”
Ngay sau đó, người ta nhận ra rằng, bất chấp cột mốc về tên gọi, GPT-5 chủ yếu là một bài tập nhằm mang lại hiệu suất với chi phí thấp hơn. Năm tháng sau, OpenAI, Google và Anthropic đều đã phát hành các mô hình cho thấy sự tiến bộ đáng kể trong các nhiệm vụ có giá trị kinh tế. “Trái ngược với quan niệm phổ biến rằng việc mở rộng quy mô đã kết thúc,” bước nhảy vọt về hiệu suất trong mô hình mới nhất của Google là “lớn hơn bao giờ hết,” Oriol Vinyals, trưởng nhóm học sâu của Google DeepMind, viết sau khi Gemini 3 được phát hành. “Không có giới hạn nào phía trước.”
Có lý do để tự hỏi chính xác các mô hình AI sẽ cải thiện như thế nào. Trong các lĩnh vực mà việc thu thập dữ liệu để đào tạo rất tốn kém—ví dụ như triển khai các tác nhân AI làm người mua sắm cá nhân—tiến độ có thể chậm. “Có thể AI sẽ tiếp tục tốt hơn và cũng có thể AI sẽ tiếp tục có những điểm yếu quan trọng,” Helen Toner, giám đốc điều hành tạm thời tại Trung tâm An ninh và Công nghệ mới nổi ở Mỹ, viết. Nhưng ý kiến cho rằng tiến bộ đang bị đình trệ rất khó để biện minh.
Ô tô tự lái nguy hiểm hơn người lái xe
Khi AI điều khiển ô tô tự lái gặp trục trặc, con người có thể thiệt mạng. Không có gì lạ khi nhiều người ngần ngại thử công nghệ mới này.
Tại Anh, một cuộc khảo sát với 2.000 người trưởng thành cho thấy chỉ có 22% cảm thấy thoải mái khi di chuyển bằng ô tô tự lái. Tại Mỹ, con số này là 13%. Vào tháng 10, một chiếc xe Waymo đã cán chết một con mèo ở San Francisco, gây ra sự phẫn nộ.
Tuy nhiên, theo phân tích dữ liệu từ 100 triệu dặm di chuyển bằng xe tự lái của Waymo, nhiều lần ô tô tự lái đã chứng minh an toàn hơn người lái. Xe của Waymo tham gia vào số vụ tai nạn gây thương tích ít hơn gần 5 lần và số vụ tai nạn gây "thương tích nghiêm trọng hoặc hơn" ít hơn 11 lần so với người lái.
Trí tuệ nhân tạo không thể tạo ra kiến thức mới
Năm 2013, Sébastien Bubeck, một nhà toán học, đã công bố một bài báo trên một tạp chí danh tiếng về lý thuyết đồ thị. "Chúng tôi đã để lại một vài câu hỏi chưa được giải đáp, và sau đó tôi đã làm việc với các sinh viên cao học tại Princeton để giải quyết chúng," Sébastien Bubeck, hiện là nhà nghiên cứu tại OpenAI, cho biết. "Chúng tôi đã giải quyết hầu hết các câu hỏi chưa được giải đáp, ngoại trừ một câu hỏi." Sau hơn một thập kỷ, Sébastien Bubeck đã giao bài toán cho một hệ thống được xây dựng dựa trên GPT-5.
“Chúng tôi để nó suy nghĩ trong hai ngày,” ông nói. “Có một sự trùng khớp kỳ diệu mà mô hình đã tìm thấy, và nó thực sự đã giải quyết được vấn đề.”
Các nhà phê bình cho rằng các mô hình ngôn ngữ lớn, chẳng hạn như GPT-5, không thể đưa ra bất kỳ ý tưởng nào độc đáo, mà chỉ sao chép thông tin mà chúng đã được huấn luyện – điều này khiến các mô hình ngôn ngữ lớn nhận được biệt danh mỉa mai là “những con vẹt ngẫu nhiên”. Vào tháng 6/2025, Apple đã công bố một bài báo tuyên bố chứng minh rằng bất kỳ khả năng suy luận nào của các mô hình ngôn ngữ lớn đều là “ảo tưởng”.
Chắc chắn, cách mà các mô hình ngôn ngữ lớn tạo ra phản hồi của chúng khác với suy luận của con người. Chúng không thể diễn giải các sơ đồ đơn giản, ngay cả khi chúng giành được huy chương vàng trong các cuộc thi toán học và lập trình hàng đầu, và “tự động” khám phá ra “các cấu trúc toán học mới lạ”. Nhưng việc gặp khó khăn với các nhiệm vụ dễ dàng dường như không ngăn cản chúng đưa ra những ý tưởng hữu ích và phức tạp.
“Các hệ thống (LLM) chắc chắn có thể thực hiện các chuỗi bước logic để giải quyết các vấn đề đòi hỏi suy luận diễn dịch và quy nạp,” Dan Hendrycks, giám đốc điều hành của Trung tâm An toàn Trí tuệ Nhân tạo, nói với TIME. “Việc ai đó chọn gọi quá trình đó là 'lý luận' hay một cái tên khác là tùy thuộc vào họ và từ điển của họ.”
Các mô hình AI đang gặp bế tắc
Ngay sau đó, người ta nhận ra rằng, bất chấp cột mốc về tên gọi, GPT-5 chủ yếu là một bài tập nhằm mang lại hiệu suất với chi phí thấp hơn. Năm tháng sau, OpenAI, Google và Anthropic đều đã phát hành các mô hình cho thấy sự tiến bộ đáng kể trong các nhiệm vụ có giá trị kinh tế. “Trái ngược với quan niệm phổ biến rằng việc mở rộng quy mô đã kết thúc,” bước nhảy vọt về hiệu suất trong mô hình mới nhất của Google là “lớn hơn bao giờ hết,” Oriol Vinyals, trưởng nhóm học sâu của Google DeepMind, viết sau khi Gemini 3 được phát hành. “Không có giới hạn nào phía trước.”
Có lý do để tự hỏi chính xác các mô hình AI sẽ cải thiện như thế nào. Trong các lĩnh vực mà việc thu thập dữ liệu để đào tạo rất tốn kém—ví dụ như triển khai các tác nhân AI làm người mua sắm cá nhân—tiến độ có thể chậm. “Có thể AI sẽ tiếp tục tốt hơn và cũng có thể AI sẽ tiếp tục có những điểm yếu quan trọng,” Helen Toner, giám đốc điều hành tạm thời tại Trung tâm An ninh và Công nghệ mới nổi ở Mỹ, viết. Nhưng ý kiến cho rằng tiến bộ đang bị đình trệ rất khó để biện minh.
Ô tô tự lái nguy hiểm hơn người lái xe
Khi AI điều khiển ô tô tự lái gặp trục trặc, con người có thể thiệt mạng. Không có gì lạ khi nhiều người ngần ngại thử công nghệ mới này.
Tại Anh, một cuộc khảo sát với 2.000 người trưởng thành cho thấy chỉ có 22% cảm thấy thoải mái khi di chuyển bằng ô tô tự lái. Tại Mỹ, con số này là 13%. Vào tháng 10, một chiếc xe Waymo đã cán chết một con mèo ở San Francisco, gây ra sự phẫn nộ.
Tuy nhiên, theo phân tích dữ liệu từ 100 triệu dặm di chuyển bằng xe tự lái của Waymo, nhiều lần ô tô tự lái đã chứng minh an toàn hơn người lái. Xe của Waymo tham gia vào số vụ tai nạn gây thương tích ít hơn gần 5 lần và số vụ tai nạn gây "thương tích nghiêm trọng hoặc hơn" ít hơn 11 lần so với người lái.
Trí tuệ nhân tạo không thể tạo ra kiến thức mới
Năm 2013, Sébastien Bubeck, một nhà toán học, đã công bố một bài báo trên một tạp chí danh tiếng về lý thuyết đồ thị. "Chúng tôi đã để lại một vài câu hỏi chưa được giải đáp, và sau đó tôi đã làm việc với các sinh viên cao học tại Princeton để giải quyết chúng," Sébastien Bubeck, hiện là nhà nghiên cứu tại OpenAI, cho biết. "Chúng tôi đã giải quyết hầu hết các câu hỏi chưa được giải đáp, ngoại trừ một câu hỏi." Sau hơn một thập kỷ, Sébastien Bubeck đã giao bài toán cho một hệ thống được xây dựng dựa trên GPT-5.
“Chúng tôi để nó suy nghĩ trong hai ngày,” ông nói. “Có một sự trùng khớp kỳ diệu mà mô hình đã tìm thấy, và nó thực sự đã giải quyết được vấn đề.”
Các nhà phê bình cho rằng các mô hình ngôn ngữ lớn, chẳng hạn như GPT-5, không thể đưa ra bất kỳ ý tưởng nào độc đáo, mà chỉ sao chép thông tin mà chúng đã được huấn luyện – điều này khiến các mô hình ngôn ngữ lớn nhận được biệt danh mỉa mai là “những con vẹt ngẫu nhiên”. Vào tháng 6/2025, Apple đã công bố một bài báo tuyên bố chứng minh rằng bất kỳ khả năng suy luận nào của các mô hình ngôn ngữ lớn đều là “ảo tưởng”.
Chắc chắn, cách mà các mô hình ngôn ngữ lớn tạo ra phản hồi của chúng khác với suy luận của con người. Chúng không thể diễn giải các sơ đồ đơn giản, ngay cả khi chúng giành được huy chương vàng trong các cuộc thi toán học và lập trình hàng đầu, và “tự động” khám phá ra “các cấu trúc toán học mới lạ”. Nhưng việc gặp khó khăn với các nhiệm vụ dễ dàng dường như không ngăn cản chúng đưa ra những ý tưởng hữu ích và phức tạp.
“Các hệ thống (LLM) chắc chắn có thể thực hiện các chuỗi bước logic để giải quyết các vấn đề đòi hỏi suy luận diễn dịch và quy nạp,” Dan Hendrycks, giám đốc điều hành của Trung tâm An toàn Trí tuệ Nhân tạo, nói với TIME. “Việc ai đó chọn gọi quá trình đó là 'lý luận' hay một cái tên khác là tùy thuộc vào họ và từ điển của họ.”
Nguồn: tạp chí Time