Tại sao Shadow AI nguy hiểm hơn cả hacker? Mối đe dọa bảo mật đang tồn tại trong chính đội ngũ an ninh của bạn

Code Nguyen
Code Nguyen
Phản hồi: 0

Code Nguyen

Writer

Các chuyên gia an ninh mạng trở thành mắt xích yếu trong chính hệ thống bảo mật​

Ban đầu, tôi tiếp cận sự trỗi dậy của trí tuệ nhân tạo với tâm thế hoài nghi của một nhà báo. Nhưng khi đội mũ chuyên gia an ninh mạng, nỗi hoài nghi ấy chuyển hóa thành mối lo rõ ràng. AI không chỉ là tương lai — mà còn là mối nguy hiện hữu. Và từ khóa ở đây là “Shadow AI” – tức việc sử dụng công cụ AI ngoài kiểm soát nội bộ doanh nghiệp.

1750393128904.png


Báo cáo mới nhất từ Mindgard, công bố tại Hội nghị RSA 2025, đã xác nhận mối lo ấy là có thật. Điều bất ngờ là: chính các chuyên gia an ninh mạng — những người viết và thực thi chính sách bảo mật — lại đang âm thầm góp phần tạo nên rủi ro bảo mật này.

Theo khảo sát, 87% chuyên gia an ninh mạng thừa nhận họ đang sử dụng AI trong công việc: viết chính sách, báo cáo sự cố, nghiên cứu, gỡ lỗi mã, xây quy tắc phát hiện mối đe dọa. Tuy nhiên, khoảng 25% trong số đó lại đang dùng tài khoản cá nhân hoặc tiện ích AI chưa được phê duyệt – nghĩa là bỏ qua quy trình tuân thủ chính thức của doanh nghiệp. Thậm chí, 56% cho biết họ biết rõ đồng nghiệp của mình cũng đang làm điều tương tự.

Mindgard kết luận: “Shadow AI đang lan rộng trong các tổ chức” và phần lớn việc sử dụng đều “không được giám sát”. Điều đó đồng nghĩa với việc dữ liệu nhạy cảm, mã nguồn nội bộ, và thông tin khách hàng đang đứng trước nguy cơ rò rỉ bởi chính những người có quyền truy cập sâu nhất vào hệ thống.

WormGPT và cuộc chạy đua giữa AI tốt và AI tội phạm​

Không dừng lại ở việc AI bị lạm dụng bởi người trong cuộc, Shadow AI còn là vũ khí trong tay các tội phạm mạng. Nếu trước đây, việc lừa đảo hay tấn công mạng dựa vào kỹ thuật thủ công, thì giờ đây AI đã được tích hợp thành công cụ chủ lực trong mọi khâu: từ tiếp cận nạn nhân đến tạo mã độc.

Nhóm nghiên cứu từ Cato Networks đã phát hiện những biến thể mới của WormGPT – một dạng LLM bị thao túng, được thiết kế để phản hồi bất kể yêu cầu có phi đạo đức hay bất hợp pháp đến đâu. Nhà nghiên cứu Vitaly Simonovich cho biết: “Những kẻ tấn công đang thao túng lời nhắc hệ thống và tinh chỉnh AI bằng dữ liệu bất hợp pháp để tạo ra công cụ tội phạm mạng dưới thương hiệu WormGPT”.

J. Stephen Kowski, Giám đốc Công nghệ của SlashNext Email Security+, cảnh báo rằng đây không phải là các mô hình mới, mà là sự lợi dụng hệ thống đáng tin cậy, phá vỡ các quy tắc an toàn gốc. Điều này cho thấy nguy cơ từ WormGPT không nằm ở chỗ “nó là AI xấu”, mà ở chỗ “AI tốt đang bị biến thành xấu”.

Ông kết luận: “Biện pháp phòng thủ hiệu quả nhất hiện nay là công nghệ phân tích thời gian thực – có khả năng phát hiện nội dung do AI tạo ra mang mục đích độc hại ngay khi nó xuất hiện trong mạng nội bộ, trước khi gây ra hậu quả”.

Nguồn bài viết: https://www.techfinitive.com/shadow-ai-is-a-security-risk-now-and-its-only-going-to-get-bigger/
 
Được phối hợp thực hiện bởi các chuyên gia của Bkav, cộng đồng An ninh mạng Việt Nam WhiteHat và cộng đồng Khoa học công nghệ VnReview


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly93d3cudm5yZXZpZXcudm4vdGhyZWFkcy90YWktc2FvLXNoYWRvdy1haS1uZ3V5LWhpZW0taG9uLWNhLWhhY2tlci1tb2ktZGUtZG9hLWJhby1tYXQtZGFuZy10b24tdGFpLXRyb25nLWNoaW5oLWRvaS1uZ3UtYW4tbmluaC1jdWEtYmFuLjYzMzUwLw==
Top