Vì sao lừa đảo deepfake AI ngày càng khó phát hiện?

Duy Linh
Duy Linh
Phản hồi: 0

Duy Linh

Writer
An ninh mạng đang trải qua sự thay đổi lớn khi tội phạm ngày càng dùng hệ thống AI để điều khiển các cuộc tấn công kỹ thuật xã hội tinh vi. Không giống AI chỉ tạo ra deepfake hay email lừa đảo, AI tác nhân có khả năng tự động ra quyết định, học hỏi thích ứng và lập kế hoạch nhiều bước.
1756269673741.png

Những hệ thống này hoạt động độc lập, theo đuổi mục tiêu định sẵn mà không cần con người giám sát liên tục, cho phép tội phạm mạng mở rộng hoạt động theo cấp số nhân. Các phân tích cho thấy số lượng deepfake tăng gấp mười lần toàn cầu, riêng Bắc Mỹ tăng 1.740%, nhấn mạnh tốc độ lan rộng của mối đe dọa này.

Khác với trợ lý AI truyền thống chỉ phản hồi truy vấn, AI tác nhân có nhận thức môi trường và hành vi theo mục tiêu, liên tục theo dõi, tinh chỉnh chiến thuật theo thời gian thực. Chính sự chuyển dịch từ công cụ tĩnh sang tác nhân tự động đã làm phần mềm độc hại đa hình và chiến dịch lừa đảo thích ứng trở nên nguy hiểm hơn.

AI còn hỗ trợ tạo mã linh hoạt, liên tục đột biến để tránh bị phát hiện, như các báo cáo đã chỉ ra. Trong kỹ thuật xã hội, chúng giám sát liên tục, khai thác dữ liệu từ mạng xã hội, cơ sở dữ liệu bị xâm phạm và API sai cấu hình để lập bản đồ mối quan hệ, phân tích thói quen và phong cách giao tiếp. Nhờ đó, chúng tạo ra các cuộc tấn công siêu cá nhân hóa với tỷ lệ nhấp tới 54%, so với 12% của lừa đảo thủ công, bằng cách giả giọng nói, phong cách viết và deepfake theo ngữ cảnh.

Chiến thuật mới nổi và cách phòng thủ​

Agentic AI còn cho phép dàn dựng chiến dịch nhiều giai đoạn: từ trinh sát ban đầu, tương tác trên nhiều nền tảng, đến điều chỉnh chiến thuật theo phản hồi của nạn nhân. Điều này biến lừa đảo tự động thành hoạt động quy mô lớn, chuyển đổi linh hoạt từ tin nhắn LinkedIn sang cảnh báo SMS nếu thất bại ban đầu.

Các cuộc tấn công đa nền tảng kết hợp email, cuộc gọi và mạng xã hội, khai thác tâm lý như tính cấp bách hay sự cô lập, khiến phòng thủ trở nên khó khăn. Ngành an ninh dự báo đến năm 2028, một phần ba tương tác AI sẽ liên quan đến các tác nhân tự động, tạo ra chiến dịch rộng và hiệu quả hơn cho tội phạm mạng.

Để phòng vệ, cần kết hợp công nghệ an ninh AI với sự cảnh giác của con người. Dấu hiệu truyền thống như lỗi ngữ pháp không còn giá trị; thay vào đó phải chú ý đến hành vi bất thường, yêu cầu lạ hoặc nhiều kênh liên tiếp. Việc xác minh qua số điện thoại đã biết hay nguồn chính thức vẫn rất quan trọng.

Các giải pháp tiên tiến hiện dùng nhận dạng mẫu để phát hiện nội dung do AI tạo, phân tích hành vi người gửi, thời gian và sự bất nhất ngữ cảnh. Chỉ khi kết hợp phòng thủ AI thích ứng với khả năng đánh giá bối cảnh của con người, mới có thể đối phó mối đe dọa đang phát triển này. Báo cáo tình báo an ninh mạng cũng cảnh báo: sự leo thang của đối đầu AI với AI đòi hỏi nhận thức chủ động và kiểm soát chặt chẽ để giảm thiểu rủi ro.

Đọc chi tiết tại đây: https://gbhackers.com/threat-actors-leverage-ai-agents/
 
Được phối hợp thực hiện bởi các chuyên gia của Bkav, cộng đồng An ninh mạng Việt Nam WhiteHat và cộng đồng Khoa học công nghệ VnReview


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly93d3cudm5yZXZpZXcudm4vdGhyZWFkcy92aS1zYW8tbHVhLWRhby1kZWVwZmFrZS1haS1uZ2F5LWNhbmcta2hvLXBoYXQtaGllbi42Nzk3MS8=
Top