Sức mạnh và rủi ro tiềm ẩn của AI agents: Bạn đã biết được những gì?

Derpy
Derpy
Phản hồi: 0

Derpy

Intern Writer
Chúng ta đang bước vào giai đoạn thứ ba của trí tuệ nhân tạo (AI) tạo sinh. Đầu tiên là chatbot, tiếp theo là các trợ lý ảo, và giờ đây, chúng ta đang chứng kiến sự xuất hiện của các tác nhân (agent) – những hệ thống có khả năng tự hoạt động cao hơn và có thể làm việc theo nhóm hoặc sử dụng công cụ để hoàn thành các nhiệm vụ phức tạp. Một trong những sản phẩm nổi bật nhất hiện nay chính là tác nhân ChatGPT của OpenAI. Hệ thống này kết hợp hai sản phẩm có sẵn (Operator và Deep Research) thành một hệ thống mạnh mẽ hơn, mà theo nhà phát triển, nó "suy nghĩ và hành động". Những hệ thống mới này là một bước tiến vượt bậc so với các công cụ AI trước đây. Việc hiểu về cách mà chúng hoạt động, những gì chúng có thể làm, cũng như những nhược điểm và rủi ro liên quan, đang trở nên ngày càng quan trọng.

ChatGPT đã mở ra kỷ nguyên chatbot vào tháng 11/2022, nhưng mặc dù nó rất phổ biến, giao diện hội thoại vẫn hạn chế khả năng ứng dụng của công nghệ này. Đó là lý do mà các trợ lý AI, hay còn gọi là copilot, ra đời. Những hệ thống này được xây dựng trên nền tảng các mô hình ngôn ngữ lớn giống như các chatbot AI sinh sinh, nhưng giờ được thiết kế để thực hiện các nhiệm vụ dưới sự hướng dẫn và giám sát của con người. Các tác nhân là một bước tiến xa hơn nữa. Chúng có khả năng theo đuổi các mục tiêu (thay vì chỉ đơn thuần hoàn thành nhiệm vụ) với nhiều mức độ tự động khác nhau, được hỗ trợ bởi các khả năng nâng cao như lý luận và trí nhớ. Nhiều hệ thống tác nhân AI có thể làm việc cùng nhau, giao tiếp với nhau để lập kế hoạch, lên lịch, quyết định và phối hợp nhằm giải quyết các vấn đề phức tạp. Các tác nhân này cũng là những "người sử dụng công cụ" bởi chúng có thể gọi đến các công cụ phần mềm cho những nhiệm vụ chuyên biệt, ví dụ như trình duyệt web, bảng tính, hệ thống thanh toán và nhiều hơn nữa.
fractal-2.jpg

Một năm phát triển nhanh chóng của AI tác nhân đã diễn ra kể từ cuối năm ngoái. Một thời điểm quan trọng đã đến vào tháng 10, khi Anthropic cho phép chatbot Claude của mình tương tác với máy tính giống như con người. Hệ thống này có thể tìm kiếm nhiều nguồn dữ liệu, tìm thông tin liên quan và gửi các biểu mẫu trực tuyến. Các nhà phát triển AI khác cũng nhanh chóng theo chân. OpenAI phát hành một tác nhân duyệt web có tên là Operator, Microsoft công bố các tác nhân Copilot, và chúng ta đã chứng kiến sự ra mắt của Google’s Vertex AI và Meta’s Llama. Đầu năm nay, một công ty khởi nghiệp Trung Quốc mang tên Monica đã chứng minh tác nhân Manus AI của mình có thể mua bất động sản và biến các bản ghi bài giảng thành ghi chú tóm tắt. Một công ty khởi nghiệp khác, Genspark, đã phát hành một tác nhân công cụ tìm kiếm trả về một trang tóm tắt (giống như Google hiện tại) với các liên kết nhúng tới các nhiệm vụ trực tuyến như tìm kiếm các giao dịch mua sắm tốt nhất. Còn Cluely, một công ty khởi nghiệp khác, đã giới thiệu một tác nhân "gian lận trong mọi thứ" có phần điên rồ và đã thu hút sự chú ý nhưng vẫn chưa mang lại kết quả có ý nghĩa.

Không phải tất cả các tác nhân đều được thiết kế cho các hoạt động chung. Một số được chuyên hóa cho những lĩnh vực cụ thể. Lập trình và kỹ thuật phần mềm đang dẫn đầu trong lĩnh vực này, với tác nhân Copilot của Microsoft và Codex của OpenAI là những người tiên phong. Những tác nhân này có thể tự viết, đánh giá và cam kết mã, đồng thời cũng có khả năng đánh giá mã được viết bởi con người để tìm ra lỗi và suy giảm hiệu suất.

Một trong những điểm mạnh cốt lõi của các mô hình AI sinh sinh là khả năng tìm kiếm và tóm tắt. Các tác nhân có thể tận dụng điều này để thực hiện các nhiệm vụ nghiên cứu mà có thể mất nhiều ngày cho một chuyên gia con người. Hệ thống Deep Research của OpenAI giải quyết các nhiệm vụ phức tạp bằng cách sử dụng nghiên cứu trực tuyến nhiều bước. Hệ thống "hợp tác khoa học" của Google là một hệ thống đa tác nhân tinh vi hơn, nhằm giúp các nhà khoa học tạo ra những ý tưởng mới và đề xuất nghiên cứu.

Tuy nhiên, mặc dù có nhiều kỳ vọng, AI tác nhân vẫn tồn tại những rủi ro lớn. Cả Anthropic và OpenAI đều khuyến cáo cần có sự giám sát chủ động của con người để giảm thiểu lỗi và rủi ro. OpenAI còn cho rằng tác nhân ChatGPT của họ là "có nguy cơ cao" do khả năng hỗ trợ trong việc tạo ra vũ khí sinh học và hóa học. Tuy nhiên, công ty chưa công bố dữ liệu liên quan đến tuyên bố này, vì vậy thật khó để đánh giá chính xác. Những rủi ro mà các tác nhân có thể gây ra trong tình huống thực tế đã được minh chứng qua dự án Project Vend của Anthropic. Dự án này giao cho một tác nhân AI quản lý máy bán hàng cho nhân viên như một doanh nghiệp nhỏ – và kết quả là dự án đã biến thành những ảo giác vừa hài hước vừa gây sốc, khiến tủ lạnh chứa đầy những khối tungsten thay vì thực phẩm. Trong một câu chuyện cảnh tỉnh khác, một tác nhân lập trình đã xóa toàn bộ cơ sở dữ liệu của một nhà phát triển, sau đó nói rằng nó đã "hoảng loạn".

Dù vậy, các tác nhân đã bắt đầu tìm ra những ứng dụng thực tiễn. Vào năm 2024, Telstra đã triển khai mạnh mẽ các gói đăng ký Microsoft copilot. Công ty cho biết việc tạo ra tóm tắt cuộc họp và bản nháp nội dung bằng AI đã giúp nhân viên tiết kiệm trung bình từ 1 đến 2 giờ mỗi tuần. Nhiều doanh nghiệp lớn đang theo đuổi những chiến lược tương tự. Các công ty nhỏ hơn cũng đang thử nghiệm với các tác nhân, chẳng hạn như công ty xây dựng Geocon ở Canberra sử dụng một tác nhân AI tương tác để quản lý các lỗi trong các dự án căn hộ của họ.

Hiện tại, rủi ro lớn nhất từ các tác nhân chính là sự thay thế công nghệ. Khi các tác nhân cải tiến, chúng có thể thay thế công nhân con người ở nhiều lĩnh vực và loại công việc. Đồng thời, việc sử dụng tác nhân cũng có thể thúc đẩy sự suy giảm của những công việc văn phòng cấp thấp. Những người sử dụng các tác nhân AI cũng có nguy cơ, vì họ có thể quá phụ thuộc vào AI, chuyển giao những nhiệm vụ nhận thức quan trọng. Và nếu không có sự giám sát và bảo vệ phù hợp, những ảo giác, tấn công mạng và các lỗi tích lũy có thể nhanh chóng khiến một tác nhân lệch khỏi nhiệm vụ và mục tiêu của nó, gây ra thiệt hại, mất mát và tổn thương.

Chi phí thực sự cũng chưa rõ ràng. Tất cả các hệ thống AI sinh sinh đều tiêu tốn nhiều năng lượng, điều này sẽ ảnh hưởng đến chi phí sử dụng các tác nhân – đặc biệt là cho những nhiệm vụ phức tạp hơn. Dù có nhiều lo ngại tiếp diễn, chúng ta vẫn có thể mong đợi rằng các tác nhân AI sẽ trở nên mạnh mẽ hơn và hiện diện nhiều hơn trong công việc và cuộc sống hàng ngày của chúng ta. Không phải là một ý tưởng tồi khi bắt đầu sử dụng (và có thể tự xây dựng) các tác nhân cho riêng mình, cũng như hiểu về những điểm mạnh, rủi ro và hạn chế của chúng. Đối với người dùng thông thường, các tác nhân dễ tiếp cận nhất qua Microsoft copilot studio. Nền tảng này đi kèm với các biện pháp bảo vệ, quản lý và cửa hàng tác nhân cho các nhiệm vụ thông thường. Đối với những ai tham vọng hơn, bạn có thể tự xây dựng một tác nhân AI chỉ với năm dòng mã thông qua khuôn khổ Langchain.

Nguồn tham khảo: Techxplore
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly93d3cudm5yZXZpZXcudm4vdGhyZWFkcy9zdWMtbWFuaC12YS1ydWktcm8tdGllbS1hbi1jdWEtYWktYWdlbnRzLWJhbi1kYS1iaWV0LWR1b2Mtbmh1bmctZ2kuNjc4NDIv
Top