Thảo Nông
Writer
Cục Điều tra Liên bang Mỹ (FBI) vừa phát đi một lời cảnh báo khẩn cấp sau khi hàng loạt quan chức cấp cao, bao gồm các bộ trưởng ngoại giao và một thượng nghị sĩ, nhận được các tin nhắn thoại giả mạo giọng nói của Thượng nghị sĩ Marco Rubio. Vụ việc này cho thấy một thực tế đáng báo động: công nghệ giả mạo giọng nói bằng AI đang trở nên tinh vi đến mức có thể dễ dàng đánh lừa cả những người cảnh giác nhất, và nguyên tắc an toàn hàng đầu giờ đây là: đừng trả lời bất kỳ tin nhắn nào bạn không thể xác minh.
Theo tờ Washington Post, các cuộc tấn công gần đây đã sử dụng công nghệ giả mạo giọng nói bằng AI (voice cloning) để tạo ra các bản ghi âm có giọng nói y hệt Thượng nghị sĩ Marco Rubio, sau đó gửi chúng đến các quan chức khác thông qua ứng dụng nhắn tin mã hóa Signal. Mức độ chân thực của các đoạn ghi âm này cao đến mức có thể dễ dàng khiến người nghe tin rằng họ đang thực sự nhận được tin nhắn từ đồng nghiệp của mình.
Đây chính là mối nguy hiểm lớn nhất. Bà Margaret Cunningham, một chuyên gia về AI tại công ty an ninh mạng Darktrace, nhận định rằng trong lúc bận rộn hoặc mệt mỏi, một tin nhắn mang giọng điệu quen thuộc rất dễ khiến người dùng chúng ta bỏ qua các lớp phòng vệ và mất cảnh giác.
Công nghệ đằng sau các vụ lừa đảo này đang ngày càng trở nên rẻ hơn và dễ tiếp cận hơn. Các chuyên gia an ninh cảnh báo rằng chỉ cần vài phút ghi âm giọng nói của một người, kẻ xấu đã có thể sử dụng AI để "nhân bản" và tạo ra một giọng nói giả mạo y như thật. Một báo cáo từ Trend Micro cũng chỉ ra rằng các công cụ deepfake giọng nói giờ đây có thể được tạo ra với chi phí thấp nhưng lại mang lại hiệu quả lừa đảo rất cao.
"Thế giới mới do AI dẫn dắt đang đặt người dùng vào thế bị động nếu không được chuẩn bị kỹ," chuyên gia Thomas Richards từ Black Duck nhận định. Sự cố mạo danh ông Rubio chỉ là phần nổi của một tảng băng chìm, khi các công cụ AI vốn được phát triển cho mục đích sáng tạo đang ngày càng bị khai thác cho các mục đích lừa đảo, với mục tiêu chính là đánh vào sự tin tưởng của con người.
Trước nguy cơ ngày càng gia tăng, FBI đã đưa ra những khuyến cáo mạnh mẽ. Nguyên tắc quan trọng nhất là tuyệt đối không trả lời tin nhắn văn bản, tin nhắn thoại hay các cuộc gọi nếu bạn không thể xác minh được danh tính người gửi. Ngay cả khi giọng nói nghe có vẻ quen thuộc, bạn vẫn cần chủ động tra cứu số điện thoại chính thức của người hoặc tổ chức đó và gọi lại qua kênh chính thống trước khi phản hồi.
Ngoài ra, tuyệt đối không nhấp vào các liên kết lạ hoặc cung cấp thông tin cá nhân khi chưa kiểm chứng.
Một trong những biện pháp bảo mật đơn giản nhưng cực kỳ hiệu quả mà FBI đề xuất là các gia đình hoặc các nhóm bạn thân nên thiết lập một mật mã riêng, hay còn gọi là "mật khẩu gia đình". Đây là một từ hoặc một câu nói bí mật chỉ những người trong nhóm biết, có thể được dùng để xác minh danh tính trong các tình huống khẩn cấp, đặc biệt là khi có kẻ gian giả giọng người thân để nhờ chuyển tiền hoặc yêu cầu hỗ trợ.
FBI nhấn mạnh, khi cảm thấy có bất kỳ điều gì đáng nghi, hãy dừng lại, xác minh và báo cáo ngay cho cơ quan chức năng. Trong thời đại mà chúng ta không còn có thể hoàn toàn tin vào tai mình nữa, sự cẩn trọng chính là lớp phòng vệ quan trọng nhất.

Khi giọng nói quen thuộc trở thành vũ khí
Theo tờ Washington Post, các cuộc tấn công gần đây đã sử dụng công nghệ giả mạo giọng nói bằng AI (voice cloning) để tạo ra các bản ghi âm có giọng nói y hệt Thượng nghị sĩ Marco Rubio, sau đó gửi chúng đến các quan chức khác thông qua ứng dụng nhắn tin mã hóa Signal. Mức độ chân thực của các đoạn ghi âm này cao đến mức có thể dễ dàng khiến người nghe tin rằng họ đang thực sự nhận được tin nhắn từ đồng nghiệp của mình.
Đây chính là mối nguy hiểm lớn nhất. Bà Margaret Cunningham, một chuyên gia về AI tại công ty an ninh mạng Darktrace, nhận định rằng trong lúc bận rộn hoặc mệt mỏi, một tin nhắn mang giọng điệu quen thuộc rất dễ khiến người dùng chúng ta bỏ qua các lớp phòng vệ và mất cảnh giác.
Công nghệ "deepfake giọng nói" và nguy cơ tiềm ẩn
Công nghệ đằng sau các vụ lừa đảo này đang ngày càng trở nên rẻ hơn và dễ tiếp cận hơn. Các chuyên gia an ninh cảnh báo rằng chỉ cần vài phút ghi âm giọng nói của một người, kẻ xấu đã có thể sử dụng AI để "nhân bản" và tạo ra một giọng nói giả mạo y như thật. Một báo cáo từ Trend Micro cũng chỉ ra rằng các công cụ deepfake giọng nói giờ đây có thể được tạo ra với chi phí thấp nhưng lại mang lại hiệu quả lừa đảo rất cao.
"Thế giới mới do AI dẫn dắt đang đặt người dùng vào thế bị động nếu không được chuẩn bị kỹ," chuyên gia Thomas Richards từ Black Duck nhận định. Sự cố mạo danh ông Rubio chỉ là phần nổi của một tảng băng chìm, khi các công cụ AI vốn được phát triển cho mục đích sáng tạo đang ngày càng bị khai thác cho các mục đích lừa đảo, với mục tiêu chính là đánh vào sự tin tưởng của con người.
Lời khuyên từ FBI: "Mật khẩu gia đình" và các nguyên tắc tự bảo vệ
Trước nguy cơ ngày càng gia tăng, FBI đã đưa ra những khuyến cáo mạnh mẽ. Nguyên tắc quan trọng nhất là tuyệt đối không trả lời tin nhắn văn bản, tin nhắn thoại hay các cuộc gọi nếu bạn không thể xác minh được danh tính người gửi. Ngay cả khi giọng nói nghe có vẻ quen thuộc, bạn vẫn cần chủ động tra cứu số điện thoại chính thức của người hoặc tổ chức đó và gọi lại qua kênh chính thống trước khi phản hồi.
Ngoài ra, tuyệt đối không nhấp vào các liên kết lạ hoặc cung cấp thông tin cá nhân khi chưa kiểm chứng.
Một trong những biện pháp bảo mật đơn giản nhưng cực kỳ hiệu quả mà FBI đề xuất là các gia đình hoặc các nhóm bạn thân nên thiết lập một mật mã riêng, hay còn gọi là "mật khẩu gia đình". Đây là một từ hoặc một câu nói bí mật chỉ những người trong nhóm biết, có thể được dùng để xác minh danh tính trong các tình huống khẩn cấp, đặc biệt là khi có kẻ gian giả giọng người thân để nhờ chuyển tiền hoặc yêu cầu hỗ trợ.
FBI nhấn mạnh, khi cảm thấy có bất kỳ điều gì đáng nghi, hãy dừng lại, xác minh và báo cáo ngay cho cơ quan chức năng. Trong thời đại mà chúng ta không còn có thể hoàn toàn tin vào tai mình nữa, sự cẩn trọng chính là lớp phòng vệ quan trọng nhất.