Điều gì đang bị bỏ quên khi các công ty đua nhau triển khai AI?

Quang Trương
Quang Trương
Phản hồi: 0
Bạn đã bao giờ tự hỏi tại sao công ty ai cũng đua nhau dùng AI nhưng lại chưa lo kỹ về an toàn và rủi ro?
1769739119625.png

Khi “cỗ máy AI” chạy nhanh hơn quản trị​

Chúng ta đang chứng kiến một nghịch lý: doanh nghiệp vội vàng triển khai các trợ lý AI, đại lý AI hay tác nhân AI một cách nhanh đến mức vượt xa khả năng quản lý rủi ro và bảo mật hiện tại của họ.

Deloitte gần đây đưa ra một cảnh báo rất đáng chú ý, họ nói rằng tốc độ áp dụng công nghệ này đang nhanh đến mức các biện pháp bảo mật và kiểm soát truyền thống không theo kịp. Các công cụ mà trước đây được thiết kế để kiểm soát hoạt động do con người thực hiện giờ không còn đủ mạnh để quản lý những “thực thể” phần mềm có thể tự hành động và quyết định trong môi trường kinh doanh phức tạp.

Một con số khiến nhiều người giật mình, chỉ 21% tổ chức có hệ thống quản trị hoặc giám sát chặt chẽ cho các tác nhân AI, dù tỷ lệ dùng AI hiện tại đã khoảng 23% và sẽ tăng lên đến 74% trong hai năm tới. Ngược lại, số doanh nghiệp chưa dùng AI sẽ giảm mạnh từ 25% xuống chỉ còn 5%. Trong bối cảnh đó, nếu không có quản trị tốt, rủi ro sớm muộn cũng bùng phát.

Không phải AI nguy hiểm, mà vì không ai quản​

Điểm mấu chốt Deloitte nhấn mạnh không phải là AI “tự nó xấu”, mà là khi những tác nhân này hoạt động độc lập mà không có giám sát rõ ràng, chúng trở nên khó hiểu và tiềm ẩn sai sót.

Ali Sarrafi, CEO của Kovant, giải thích rất chí lý: câu trả lời là quyền tự chủ được quản lý. Nghĩa là bạn vẫn cho tác nhân AI làm việc, nhưng trong khuôn khổ rõ ràng, giống như bạn quản lý một nhóm nhân viên thực sự. Khi tác nhân làm việc trong vùng rủi ro thấp, nó có thể tự động, nhưng khi vượt quá giới hạn đó, con người phải “can thiệp”.

Sarrafi còn nói rằng nếu mỗi hành động của AI được ghi lại rõ ràng, có thể quan sát và kiểm tra, hệ thống sẽ từ chỗ là một “hộp đen bí ẩn” trở thành một thứ bạn có thể kiểm toán, đánh giá và tin tưởng. Điều này không chỉ giúp doanh nghiệp an tâm hơn mà còn giúp các công ty bảo hiểm sẵn sàng bảo hiểm cho hệ thống AI bởi họ có thông tin rõ ràng về rủi ro và biện pháp kiểm soát.

Tại sao rủi ro AI lại lớn trong thực tế​

Trong môi trường kiểm soát như demo hay thử nghiệm, AI trông rất hoàn hảo. Nhưng trong môi trường kinh doanh thực tế có dữ liệu phân mảnh, hệ thống phức tạp, tác nhân AI có thể hành xử bất ngờ.

Sarrafi nói rằng khi một tác nhân được “ôm” quá nhiều ngữ cảnh cùng lúc, nó dễ rơi vào ảo giác và hành vi khó lường. Những hệ thống sản xuất an toàn sẽ chia nhỏ nhiệm vụ, giới hạn phạm vi, khiến hành vi dễ dự đoán và dễ kiểm soát. Quan trọng là các lỗi được phát hiện và xử lý ngay chứ không gây lỗi dây chuyền lớn.

Một trong những yếu tố khiến doanh nghiệp lo ngại nhất là trách nhiệm giải trình. Khi nhân viên ghi nhật ký hoạt động chi tiết, ai cũng biết chuyện gì đã xảy ra, khi nào và ai chịu trách nhiệm. Với AI, nếu không có lịch sử rõ ràng, khó mà bảo hiểm hay trách nhiệm pháp lý rõ ràng.

Khi AI thực hiện hành động quan trọng mà mọi thứ đều có nhật ký, các tổ chức có thể kiểm tra, tái hiện và đánh giá rủi ro, điều này là nền tảng để các công ty bảo hiểm chấp nhận bảo hiểm cho các hệ thống AI.

Hiện có một số tiêu chuẩn chung như của Tổ chức Trí tuệ Nhân tạo Tác nhân (AAIF), nhưng theo Deloitte những tiêu chuẩn này đang tập trung vào các quy tắc đơn giản, không đủ cho các tổ chức lớn vận hành an toàn. Doanh nghiệp cần các tiêu chuẩn hỗ trợ kiểm soát như quyền truy cập, quy trình phê duyệt, nhật ký kiểm toán và khả năng quan sát để giám sát hành vi và chứng minh tuân thủ.

Chiến lược quản trị an toàn mà Deloitte đề xuất bắt đầu từ việc xác định rõ việc các tác nhân AI chỉ được quyền xem, đề xuất hay thực hiện hành động và khi nào con người phải phê duyệt. Các lớp quản trị này gắn vào hệ thống kiểm soát của doanh nghiệp và tạo ra một lộ trình tuân thủ.

Một phần không thể thiếu là đào tạo con người. Nhân viên cần biết điều gì không nên đưa cho AI, cách phản ứng khi AI hoạt động sai, và làm sao để phát hiện hành vi bất thường. Nếu con người không hiểu được rủi ro, họ có thể vô tình làm suy yếu hệ thống kiểm soát.

Điểm chung của mọi thứ là: quản trị chặt chẽ và kiến thức chung là nền tảng để AI được triển khai an toàn, tuân thủ và có trách nhiệm trong môi trường thực tế. (artificialintelligence)
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly93d3cudm5yZXZpZXcudm4vdGhyZWFkcy9kaWV1LWdpLWRhbmctYmktYm8tcXVlbi1raGktY2FjLWNvbmctdHktZHVhLW5oYXUtdHJpZW4ta2hhaS1haS43ODM4MS8=
Top