Deepfake: Nguy cơ 'nhân sự giả' và những kịch bản lừa đảo khó nhận diện

K
Kaya
Phản hồi: 0

Kaya

Writer
Sự phát triển nhanh chóng của trí tuệ nhân tạo đang đưa công nghệ deepfake lên một cấp độ mới, thường được gọi là “Deepfake 2.0”. Không còn dừng lại ở việc tạo video giải trí hay chỉnh sửa hình ảnh đơn giản, deepfake hiện nay có thể tái tạo khuôn mặt, giọng nói và hành vi con người với độ chính xác rất cao.

Các chuyên gia cảnh báo, deepfake đang trở thành công cụ nguy hiểm trong các hoạt động lừa đảo và tấn công mạng. Công nghệ này có thể tạo ra hình ảnh, video và giọng nói giả mạo gần như thật, khiến người dùng rất khó nhận biết bằng mắt thường .​

“Nhân sự giả” - mối đe dọa mới với doanh nghiệp​

Một trong những kịch bản đáng lo ngại nhất của Deepfake 2.0 là việc tạo ra “nhân sự giả” trong môi trường doanh nghiệp.

Theo đó, các đối tượng có thể sử dụng AI để giả mạo ứng viên xin việc thông qua video phỏng vấn, hồ sơ cá nhân hoặc thậm chí là các cuộc gọi trực tuyến. Với khả năng tái tạo khuôn mặt và giọng nói, deepfake có thể giúp một người “đóng vai” hoàn toàn khác, qua mặt nhà tuyển dụng.

Không chỉ dừng lại ở việc tuyển dụng, các đối tượng còn có thể giả mạo nhân viên nội bộ, lãnh đạo hoặc đối tác để:​
  • Yêu cầu chuyển tiền​
  • Truy cập hệ thống nội bộ​
  • Đánh cắp dữ liệu doanh nghiệp​
Thực tế cho thấy, deepfake đang được sử dụng để giả mạo người thân, đồng nghiệp hoặc cấp trên nhằm tạo áp lực tâm lý và khiến nạn nhân nhanh chóng làm theo yêu cầu .​

Cơ chế hoạt động: Từ dữ liệu công khai đến giả mạo hoàn chỉnh​

Các cuộc tấn công deepfake thường bắt đầu bằng việc thu thập dữ liệu từ chính người dùng. Hình ảnh, video, giọng nói được lấy từ mạng xã hội, các nền tảng công khai hoặc nguồn rò rỉ dữ liệu.

Sau đó, AI sẽ được sử dụng để:​
  • Tái tạo khuôn mặt và biểu cảm​
  • Mô phỏng giọng nói​
  • Dựng video hoặc cuộc gọi giả mạo​
Khi đã có “bản sao số”, kẻ xấu có thể thực hiện các kịch bản lừa đảo như gọi video khẩn cấp, giả danh lãnh đạo yêu cầu chuyển tiền hoặc đóng vai ứng viên xin việc để xâm nhập hệ thống. Điểm nguy hiểm nằm ở chỗ các cuộc tấn công này thường diễn ra nhanh, có yếu tố cấp bách và đánh vào tâm lý tin tưởng của nạn nhân.​

Ranh giới thật – giả ngày càng bị xóa nhòa​

Deepfake 2.0 không chỉ là vấn đề kỹ thuật, mà còn là thách thức lớn về nhận thức. Hiện nay, các sản phẩm do AI tạo ra đã đạt mức độ chân thực rất cao. Trong nhiều trường hợp, người dùng gần như không thể phân biệt đâu là hình ảnh thật và đâu là hình ảnh giả chỉ bằng mắt thường. Điều này khiến việc xác minh thông tin trở nên khó khăn hơn bao giờ hết.
1774255254149.png

Ảnh: Internet

Các chuyên gia nhận định deepfake đang mở ra một “kỷ nguyên mới” cho tội phạm mạng, khi ranh giới giữa thật và giả ngày càng mờ nhạt. Không chỉ cá nhân, doanh nghiệp cũng trở thành mục tiêu khi các cuộc tấn công có thể vượt qua cả quy trình xác thực truyền thống.​

Hệ lụy: Không chỉ mất tiền mà còn mất niềm tin​

Việc lợi dụng deepfake không chỉ gây thiệt hại tài chính mà còn tạo ra những hậu quả nghiêm trọng hơn:​
  • Doanh nghiệp có thể tuyển nhầm người, gây rủi ro nội bộ​
  • Hệ thống bảo mật bị xâm nhập từ bên trong​
  • Cá nhân bị giả mạo danh tính để lừa đảo người khác​
  • Niềm tin vào thông tin số bị suy giảm​
Trong bối cảnh này, deepfake không chỉ “làm giả hình ảnh” mà còn có thể làm giả niềm tin, khiến người dùng khó phân biệt và dễ bị thao túng.​

Khuyến nghị: Làm gì để không trở thành nạn nhân?​

Trước sự gia tăng của các hình thức lừa đảo sử dụng deepfake, các chuyên gia an ninh mạng khuyến cáo:​
  • Xác minh danh tính qua nhiều kênh, không chỉ dựa vào video hoặc giọng nói​
  • Cảnh giác với các yêu cầu chuyển tiền khẩn cấp​
  • Không chia sẻ quá nhiều hình ảnh, video cá nhân trên mạng​
  • Doanh nghiệp cần bổ sung các lớp xác thực đa yếu tố​
Deepfake 2.0 cho thấy công nghệ AI đang phát triển với tốc độ rất nhanh, mở ra nhiều ứng dụng mới nhưng cũng kéo theo những rủi ro khó lường. Trong một thế giới mà hình ảnh, giọng nói và danh tính đều có thể bị “tái tạo”, việc nâng cao nhận thức và kỹ năng xác minh thông tin trở thành yếu tố then chốt. Nếu không đủ cảnh giác, bất kỳ ai cũng có thể trở thành nạn nhân của những “nhân sự giả” và các kịch bản lừa đảo ngày càng tinh vi trên không gian mạng.​
 
Được phối hợp thực hiện bởi các chuyên gia của Bkav, cộng đồng An ninh mạng Việt Nam WhiteHat và cộng đồng Khoa học công nghệ VnReview


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly93d3cudm5yZXZpZXcudm4vdGhyZWFkcy9kZWVwZmFrZS1uZ3V5LWNvLW5oYW4tc3UtZ2lhLXZhLW5odW5nLWtpY2gtYmFuLWx1YS1kYW8ta2hvLW5oYW4tZGllbi44MDkzNi8=
Top