MinhSec
Writer
Mô hình ngôn ngữ lớn (LLM) như GPT-4 đã cho thấy tiềm năng khổng lồ trong nhiều lĩnh vực, nhưng một nghiên cứu mới đây từ Netcraft đã chỉ ra những rủi ro an ninh mạng đáng lo ngại. Theo báo cáo, khi người dùng hỏi các LLM về URL đăng nhập của các thương hiệu lớn, gần 35% trong số hơn 130 tên miền được gợi ý là không chính xác.
Đáng chú ý, trong số các câu trả lời đúng, gần 30% lại dẫn đến các miền chưa đăng ký hoặc không hoạt động. Điều này khiến người dùng dễ bị lừa nếu kẻ tấn công nhanh chóng chiếm đoạt những tên miền này để tạo các trang web giả mạo. Ngoài ra, 5% URL do LLM đề xuất còn đưa người dùng đến các trang web hợp pháp nhưng không liên quan, gây nhiễu và làm xói mòn niềm tin.
LLM trở thành công cụ vô tình hỗ trợ lừa đảo
Netcraft đã ghi nhận một trường hợp điển hình khi công cụ hỗ trợ AI đề xuất một trang Google Sites mạo danh Wells Fargo, khiến người dùng tin tưởng và dễ dàng cung cấp thông tin đăng nhập. Các URL nguy hiểm này thường không bị phát hiện bởi những tín hiệu bảo mật truyền thống như tên miền đã xác minh hay thứ hạng tìm kiếm, khiến nguy cơ bị khai thác càng cao.
Theo Gal Moyal, Giám đốc công nghệ tại Noma Security, chính sự tự tin trong các câu trả lời sai của AI đã khiến người dùng dễ tin tưởng và hành động sai lệch, tạo điều kiện cho kẻ gian thu thập thông tin nhạy cảm hoặc phát tán phần mềm độc hại trên diện rộng. Trong khi đó, J Stephen Kowski, Giám đốc công nghệ tại SlashNext, cảnh báo kẻ tấn công có thể nhanh chóng đăng ký các miền chưa có chủ mà AI vô tình đề xuất, rồi chờ nạn nhân truy cập để thực hiện hành vi lừa đảo.
www.technadu.com

Đáng chú ý, trong số các câu trả lời đúng, gần 30% lại dẫn đến các miền chưa đăng ký hoặc không hoạt động. Điều này khiến người dùng dễ bị lừa nếu kẻ tấn công nhanh chóng chiếm đoạt những tên miền này để tạo các trang web giả mạo. Ngoài ra, 5% URL do LLM đề xuất còn đưa người dùng đến các trang web hợp pháp nhưng không liên quan, gây nhiễu và làm xói mòn niềm tin.
LLM trở thành công cụ vô tình hỗ trợ lừa đảo
Netcraft đã ghi nhận một trường hợp điển hình khi công cụ hỗ trợ AI đề xuất một trang Google Sites mạo danh Wells Fargo, khiến người dùng tin tưởng và dễ dàng cung cấp thông tin đăng nhập. Các URL nguy hiểm này thường không bị phát hiện bởi những tín hiệu bảo mật truyền thống như tên miền đã xác minh hay thứ hạng tìm kiếm, khiến nguy cơ bị khai thác càng cao.
Theo Gal Moyal, Giám đốc công nghệ tại Noma Security, chính sự tự tin trong các câu trả lời sai của AI đã khiến người dùng dễ tin tưởng và hành động sai lệch, tạo điều kiện cho kẻ gian thu thập thông tin nhạy cảm hoặc phát tán phần mềm độc hại trên diện rộng. Trong khi đó, J Stephen Kowski, Giám đốc công nghệ tại SlashNext, cảnh báo kẻ tấn công có thể nhanh chóng đăng ký các miền chưa có chủ mà AI vô tình đề xuất, rồi chờ nạn nhân truy cập để thực hiện hành vi lừa đảo.

Vulnerable AI Delivers Phishing Links for Query Prompts
LLMs can provide URLs that lead to malicious websites, either offering incorrect links or correct URLs to unregistered, parked, or inactive domains.

Được phối hợp thực hiện bởi các chuyên gia của Bkav,
cộng đồng An ninh mạng Việt Nam WhiteHat
và cộng đồng Khoa học công nghệ VnReview