Trước thực trạng lừa đảo trực tuyến ngày càng tinh vi, Ngân hàng TMCP Hàng Hải Việt Nam (MSB) vừa phát đi cảnh báo nóng về nguy cơ bị chiếm đoạt tiền và thông tin cá nhân qua các chiêu trò sử dụng trí tuệ nhân tạo (AI), đặc biệt là công nghệ deepfake – hình ảnh và giọng nói giả mạo khó phân biệt với thật. Thông tin này nằm trong bối cảnh các hình thức lừa đảo công nghệ cao liên tục gia tăng tại Việt Nam, gây thiệt hại nghiêm trọng cho người dân và doanh nghiệp.
Công nghệ deepfake - “mồi ngon” cho tội phạm mạng
Công nghệ deepfake sử dụng AI để tạo ra hình ảnh, video và giọng nói giả mạo cực kỳ chân thực, khiến người xem khó nhận biết ngay lập tức. Những sản phẩm video này có thể “đánh lừa” cả cảm nhận thị giác, âm thanh lẫn cảm xúc, làm cho người xem tin rằng họ đang tương tác với người thân, bạn bè hoặc cả cán bộ cơ quan chức năng thật.
Các đối tượng lừa đảo hiện đang lợi dụng AI để mạo danh người quen, cán bộ cơ quan công an, viện kiểm sát, tạo dựng các tình huống giả nhằm xâm nhập lòng tin nạn nhân rồi tiến hành chiếm đoạt tiền hoặc dữ liệu cá nhân.
Các đối tượng lừa đảo hiện đang lợi dụng AI để mạo danh người quen, cán bộ cơ quan công an, viện kiểm sát, tạo dựng các tình huống giả nhằm xâm nhập lòng tin nạn nhân rồi tiến hành chiếm đoạt tiền hoặc dữ liệu cá nhân.
Thủ đoạn tinh vi và cách thức hoạt động
Một trong những hình thức lừa đảo phổ biến nhất được ghi nhận gần đây là gọi video giả mạo cán bộ cơ quan điều tra. Qua các ứng dụng gọi video, kẻ gian sử dụng hình ảnh và lời nói được dựng bằng AI để tự xưng là điều tra viên, công an, viện kiểm sát liên quan đến “vụ án” của nạn nhân.
Sau đó, chúng yêu cầu nạn nhân:
Sau đó, chúng yêu cầu nạn nhân:
- Chuyển tiền để “xác minh tài khoản”.
- Cài đặt ứng dụng chứa mã độc nhằm kiểm soát thiết bị.
- Cung cấp mã xác thực (OTP), mật khẩu ngân hàng hoặc dữ liệu nhạy cảm khác.
Các đối tượng còn sử dụng deepfake để giả danh người thân, bạn bè. Trường hợp này, kẻ gian chiếm quyền truy cập tài khoản mạng xã hội của người quen nạn nhân, gửi video với giọng nói “giả” yêu cầu chuyển tiền gấp vào tài khoản có tên gần giống với người thân.
Không chỉ dừng ở đó, trong nhiều vụ lừa đảo tinh vi khác, đối tượng đã tạo video giả mạo người nổi tiếng, doanh nhân, diễn viên, “shark đầu tư” nổi tiếng, dùng hình ảnh AI để quảng bá các dự án tài chính, tiền ảo hoặc kêu gọi đầu tư. Sau khi tạo niềm tin, họ dẫn dụ nạn nhân mở tài khoản và nạp tiền vào nền tảng mà kẻ xấu chỉ định, rồi biến mất khi số tiền đã lớn.
Hậu quả và tác hại với người dùng
Các thủ đoạn trên không chỉ gây mất tiền trực tiếp cho người bị hại, mà còn làm lộ dữ liệu cá nhân như số điện thoại, danh tính, hình ảnh khuôn mặt và tài khoản ngân hàng. Khi đó, nạn nhân có thể tiếp tục bị tấn công tinh vi hơn trong những lần sau.
Ngoài ra, loại scam “shill” đầu tư tài chính giả mạo có thể khiến người dân:
Ngoài ra, loại scam “shill” đầu tư tài chính giả mạo có thể khiến người dân:
- Mất toàn bộ vốn đầu tư.
- Gặp rắc rối với pháp lý nếu tài khoản được dùng cho các giao dịch bất hợp pháp.
- Bị lừa vào các hệ thống đa cấp, tiền ảo lừa đảo tinh vi.
Vì sao công nghệ AI khiến lừa đảo trở nên nguy hiểm hơn?
Không giống những chiêu lừa đảo truyền thống như nhắn tin giả mạo hay yêu cầu chuyển tiền qua mạng xã hội, deepfake sử dụng dữ liệu AI để tạo ra nội dung chân thực hơn gấp nhiều lần. Video và giọng nói được tạo có thể trông và nghe giống hệt người thật, khiến ngay cả những người cẩn trọng cũng khó phân biệt. Đây là lý do thủ đoạn này đang ngày càng phổ biến và khó phát hiện hơn.
Chưa kể, các nền tảng mạng xã hội đang là “đại lý” tung clip deepfake này đến người dùng, giúp chiêu trò lừa đảo lan truyền rất nhanh. Khi ấy, chỉ một chút thiếu cảnh giác thôi cũng đủ khiến người dùng mất tiền, hoặc cung cấp thông tin nhạy cảm cho kẻ xấu.
Chưa kể, các nền tảng mạng xã hội đang là “đại lý” tung clip deepfake này đến người dùng, giúp chiêu trò lừa đảo lan truyền rất nhanh. Khi ấy, chỉ một chút thiếu cảnh giác thôi cũng đủ khiến người dùng mất tiền, hoặc cung cấp thông tin nhạy cảm cho kẻ xấu.
Khuyến cáo từ chuyên gia và nhà băng
Các cơ quan chức năng và ngân hàng cảnh báo người dân cần tăng cường ý thức bảo mật thông tin cá nhân khi giao dịch trực tuyến. Một số lời khuyên thiết thực là:
- Không cung cấp mã OTP, mật khẩu hoặc mã xác thực cho bất cứ ai qua điện thoại, tin nhắn hay video.
- Xác minh danh tính gọi điện hoặc liên hệ trực tiếp qua kênh chính thức khi có yêu cầu chuyển tiền từ người tự xưng là cơ quan chức năng.
- Không nhấp vào đường link lạ, không cài đặt ứng dụng ngoài kho ứng dụng chính thống.
- Khi nhận được tin nhắn hoặc cuộc gọi đòi tiền theo bất kỳ kịch bản nào, hãy dừng lại và gọi lại qua số chính thức của ngân hàng, cơ quan chức năng để xác minh.
Cần cảnh giác trong mọi tình huống giao dịch trực tuyến
Trong bối cảnh công nghệ AI ngày càng phát triển, người dùng cần nhận thức rằng không phải mọi hình ảnh, giọng nói hay video đều phản ánh sự thật. Khi giao dịch tài chính, đặc biệt là chuyển tiền, vay mượn hoặc chia sẻ dữ liệu, việc tự bảo vệ bản thân là điều bắt buộc. Nếu nghi vấn lừa đảo, người dân nên báo ngay cho cơ quan chức năng để được hỗ trợ kịp thời.
Tổng hợp
Được phối hợp thực hiện bởi các chuyên gia của Bkav,
cộng đồng An ninh mạng Việt Nam WhiteHat
và cộng đồng Khoa học công nghệ VnReview