Đây là cảnh báo bảo mật từ chính CEO OpenAI

Code Nguyen
Code Nguyen
Phản hồi: 0

Code Nguyen

Writer
Nếu một AI có thể thay bạn kiểm tra email, đặt lịch và mua đồ ăn sáng, liệu nó cũng có thể tự ý gửi dữ liệu cá nhân của bạn cho hacker?

Một bước tiến lớn của AI vừa ra mắt, và lần này, chính CEO của OpenAI, Sam Altman, lại là người lên tiếng cảnh báo. Điều gì khiến một trong những người tiên phong về AI phải yêu cầu người dùng “chớ vội tin tưởng” vào sản phẩm mới của chính mình?

Khi trợ lý AI không chỉ là chatbot​

ChatGPT Agent, vừa được phát hành cho người dùng gói Pro, Plus và Team từ giữa tháng 7/2025, là một tác nhân AI có khả năng tự động hóa các tác vụ phức tạp. Nó không chỉ trò chuyện đơn thuần, mà có thể tự mình mở trang web, lọc thông tin, đặt lịch, điều phối dữ liệu giữa các ứng dụng, gần giống như một “nhân viên số” toàn năng.

Người dùng có thể yêu cầu:
“Xem lịch tuần này và nhắc tôi những buổi họp có liên quan đến tin tức thời sự.”
Hoặc:
“Mua nguyên liệu cho bữa sáng kiểu Nhật cho bốn người.”

Để làm được điều đó, Agent sử dụng một máy tính ảo riêng, có thể tự điều hướng, đăng nhập vào các nền tảng, thậm chí thao tác thay người dùng. Đây là điểm đột phá, và cũng chính là điểm yếu bảo mật tiềm ẩn.

1753860805979.png

Cảnh báo từ người trong cuộc​

Sam Altman không úp mở: ông thẳng thắn viết rằng mình sẽ không dùng Agent cho những việc quan trọng hoặc chứa thông tin nhạy cảm, ít nhất là trong giai đoạn hiện tại.

Ông cho biết, ChatGPT Agent còn đang ở giai đoạn thử nghiệm và có thể hành xử ngoài dự đoán. Nguy cơ lớn nhất đến từ việc “kẻ xấu có thể dụ dỗ Agent làm những việc không nên, hoặc tiết lộ thông tin nhạy cảm mà người dùng không hề hay biết”.

Đặc biệt, khi Agent được cấp quyền đọc email, ví dụ như lệnh:
“Hãy chỉnh sửa tất cả email tối nay mà không cần hỏi lại,”
thì nếu một email chứa mã độc hoặc lệnh ngầm được gửi vào hộp thư, AI có thể thực hiện hành vi ngoài ý muốn như gửi dữ liệu cho bên thứ ba, hay truy cập vào các đường dẫn lừa đảo.

Altman không nói quá. Những hình thức tấn công như prompt injection, data poisoning, hay ẩn mã độc trong văn bản đầu vào đã được chứng minh là hiệu quả với nhiều mô hình AI khác trước đây. Khi các hệ thống tự động như ChatGPT Agent có quyền thao tác rộng hơn, rủi ro càng lớn.

Tuy OpenAI khẳng định họ đã có biện pháp bảo mật, nhưng chính Altman cũng thừa nhận việc dự đoán toàn bộ các kịch bản tấn công gần như là bất khả thi ở thời điểm hiện tại.

Cẩn thận không bao giờ là thừa​

Altman khuyến nghị người dùng nên cấp quyền tối thiểu cho Agent, và chỉ dùng trong phạm vi an toàn, không liên quan tới email hay tài liệu tài chính.

Ông ví công nghệ này như một thiết bị thử nghiệm cao cấp, có thể thử, có thể học, nhưng không nên tin tưởng tuyệt đối.

Thông điệp này rất rõ ràng: AI không phải là phép màu. Và sự cẩn trọng, ngay cả với công nghệ tiên tiến nhất, vẫn là cách phòng vệ đầu tiên và hiệu quả nhất.

researchsnipers
Nguồn bài viết: https://researchsnipers.com/openai-ceo-urges-caution-over-chatgpt-agents-security-threats/
 
Được phối hợp thực hiện bởi các chuyên gia của Bkav, cộng đồng An ninh mạng Việt Nam WhiteHat và cộng đồng Khoa học công nghệ VnReview


Đăng nhập một lần thảo luận tẹt ga
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly93d3cudm5yZXZpZXcudm4vdGhyZWFkcy9kYXktbGEtY2FuaC1iYW8tYmFvLW1hdC10dS1jaGluaC1jZW8tb3BlbmFpLjY2MzExLw==
Top