Bảy lỗ hổng nguy hiểm biến ChatGPT thành công cụ đánh cắp dữ liệu

Code Nguyen
Code Nguyen
Phản hồi: 0

Code Nguyen

Writer
Nếu một ngày công cụ bạn dùng mỗi ngày, như ChatGPT, vô tình trở thành “kẻ thu thập thông tin” cho ai đó, bạn có biết không?

Khi AI trở thành mục tiêu và công cụ tấn công​

Một nhóm nghiên cứu bảo mật của Tenable vừa công bố kết quả khiến giới công nghệ phải giật mình: họ tìm ra bảy lỗ hổng nghiêm trọng trong ChatGPT, bao gồm cả các phiên bản ChatGPT-4 và ChatGPT-5. Những lỗ hổng này không chỉ cho phép tin tặc đánh cắp dữ liệu mà còn có thể biến chính AI thành công cụ tấn công, lặng lẽ thu thập thông tin người dùng.

1762571904476.png


Theo nhóm nghiên cứu, OpenAI đã vá một số lỗi nhưng vẫn còn nhiều điểm yếu chưa được xử lý triệt để. Điều này đồng nghĩa với việc, trong một số tình huống, ChatGPT có thể bị lợi dụng để thực hiện các hành vi trái phép – mà người dùng hoàn toàn không hay biết.

Chuỗi tấn công “âm thầm”​

Các nhà nghiên cứu mô tả một chuỗi tấn công rất tinh vi, bắt đầu từ việc chèn mã gián tiếp (indirect prompt injection).

Chẳng hạn, một trang web hoặc bình luận tưởng như vô hại có thể ẩn lệnh ẩn. Khi ChatGPT truy cập hoặc đọc nội dung này, nó có thể vô tình thực hiện hành động trái phép.

Những kỹ thuật này gồm:
  • Tấn công 0-click: chỉ cần đặt câu hỏi, không cần nhấp chuột, mã độc đã có thể kích hoạt.
  • Tấn công 1-click: người dùng chỉ cần nhấn vào một liên kết tưởng như an toàn là đã mở đường cho lệnh độc hại.
  • Tấn công bộ nhớ liên tục: mã độc được “ghi nhớ” qua nhiều phiên làm việc, duy trì khả năng rò rỉ hoặc thao túng dữ liệu lâu dài.
Các kỹ thuật còn lại cho phép kẻ tấn công ẩn lệnh trong markdown, giả mạo các URL hợp pháp, hoặc chèn nội dung vào hội thoại để điều hướng cách AI phản hồi. Khi kết hợp, bảy lỗ hổng này tạo thành một chuỗi tấn công hoàn chỉnh, từ xâm nhập, né tránh, đánh cắp đến duy trì dữ liệu.

Moshe Bernstein, kỹ sư cao cấp của Tenable, nhận định: “Mỗi lỗ hổng riêng lẻ trông có vẻ nhỏ, nhưng khi ghép lại, chúng cho phép kẻ tấn công kiểm soát và duy trì truy cập dữ liệu. AI không chỉ là mục tiêu, mà còn có thể bị biến thành công cụ tấn công.”

Nguy cơ và cảnh báo cho người dùng AI​

Tenable cảnh báo rằng nếu bị khai thác, các lỗ hổng này có thể bị dùng để đánh cắp lịch sử trò chuyện, thông tin nhạy cảm trong các tài khoản tích hợp như Gmail hoặc Google Drive, hoặc thao túng phản hồi của AI để gây hiểu lầm cho người dùng.

OpenAI đã khắc phục một số lỗi, nhưng theo báo cáo, một vài lỗ hổng trong ChatGPT-5 vẫn còn tồn tại. Tenable khuyến nghị các công ty và nhóm bảo mật cần xem AI như một bề mặt tấn công chủ động, không phải hệ thống thụ động. Điều này bao gồm việc:
  • Giám sát thường xuyên các tích hợp AI,
  • Phát hiện sớm các hành vi bất thường,
  • Cập nhật biện pháp phòng thủ,
  • Và kiểm soát quản trị dữ liệu phù hợp.
Bernstein kết luận: “Chúng ta cần thay đổi cách bảo mật AI. Cả cá nhân và tổ chức phải hiểu rằng công cụ này có thể bị thao túng. Muốn AI phục vụ con người, chúng ta phải chủ động kiểm soát và giám sát nó.”

Nguồn: https://securitybrief.asia/story/seven-critical-chatgpt-flaws-expose-users-to-data-theft-risks
 
Được phối hợp thực hiện bởi các chuyên gia của Bkav, cộng đồng An ninh mạng Việt Nam WhiteHat và cộng đồng Khoa học công nghệ VnReview


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly93d3cudm5yZXZpZXcudm4vdGhyZWFkcy9iYXktbG8taG9uZy1uZ3V5LWhpZW0tYmllbi1jaGF0Z3B0LXRoYW5oLWNvbmctY3UtZGFuaC1jYXAtZHUtbGlldS43MzQ2NS8=
Top