Trường Sơn
Writer
Bộ An ninh Quốc gia Trung Quốc cho biết việc sử dụng trái phép các công cụ trí tuệ nhân tạo mã nguồn mở đã dẫn tới nguy cơ nghiêm trọng về rò rỉ dữ liệu, trong đó có những trường hợp dữ liệu nhạy cảm bị truy cập và tải xuống trái phép từ các địa chỉ IP ở nước ngoài.
Trong bài đăng trên WeChat ngày 26/12, Bộ An ninh Quốc gia nhận định rằng các mô hình AI quy mô lớn đang nhanh chóng được ứng dụng trong nhiều lĩnh vực, trở thành “đối tác kỹ thuật số” quen thuộc trong đời sống hằng ngày. Tuy nhiên, song hành với tốc độ phát triển và mức độ tích hợp ngày càng sâu của AI là những rủi ro mới liên quan đến bảo mật dữ liệu, quyền riêng tư và thiên kiến thuật toán. Theo cơ quan này, việc sớm xây dựng các “hàng rào an ninh” là yêu cầu cấp thiết để quá trình chuyển đổi số diễn ra an toàn và bền vững.
Cảnh báo về những rủi ro tiềm ẩn, Bộ An ninh Quốc gia cho biết ranh giới giữa dữ liệu cá nhân và an ninh thông tin đang ngày càng mờ nhạt. Một số tổ chức đã trực tiếp sử dụng khung phần mềm AI mã nguồn mở để xây dựng mô hình lớn nhưng thiếu biện pháp bảo vệ cần thiết, tạo kẽ hở để tin tặc xâm nhập mạng nội bộ. Trong một trường hợp được công bố, nhân viên của một đơn vị đã sử dụng sai mục đích công cụ AI mã nguồn mở khi xử lý tài liệu nội bộ. Do hệ thống máy tính mặc định kết nối internet công cộng và không thiết lập mật khẩu, dữ liệu nhạy cảm đã bị truy cập và tải xuống trái phép từ nước ngoài.
Bộ này cũng cảnh báo về nguy cơ lạm dụng AI để tạo và phát tán thông tin giả. Công nghệ deepfake, vốn sử dụng học sâu để mô phỏng hình ảnh, âm thanh và video, nếu bị khai thác với mục đích xấu có thể xâm phạm quyền cá nhân, gây mất ổn định xã hội và đe dọa an ninh quốc gia. Các cơ quan chức năng cho biết đã phát hiện thế lực thù địch ở nước ngoài lợi dụng deepfake để tạo video giả, tìm cách phát tán trong nội địa Trung Quốc nhằm gây nhiễu loạn dư luận.
Một rủi ro khác được nhấn mạnh là thiên kiến thuật toán và tính “hộp đen” trong quá trình ra quyết định của AI. Do AI học từ dữ liệu huấn luyện, nếu dữ liệu này mang định kiến hoặc thiếu tính đại diện, mô hình có thể khuếch đại sai lệch. Một số thử nghiệm cho thấy cùng một câu hỏi lịch sử, AI có xu hướng đưa ra câu trả lời khác nhau khi sử dụng tiếng Trung và tiếng Anh, trong đó bản tiếng Anh đôi khi né tránh hoặc làm giảm vai trò của một số sự kiện, thậm chí chứa thông tin chưa chính xác.
Trước thực tế này, Bộ An ninh Quốc gia đưa ra ba khuyến nghị an toàn cho người dùng AI. Thứ nhất là xác định rõ phạm vi sử dụng và áp dụng nguyên tắc quyền truy cập tối thiểu, không để AI xử lý dữ liệu bí mật hoặc thu thập thông tin không cần thiết. Thứ hai là thường xuyên kiểm tra “dấu chân số”, bao gồm xóa lịch sử trò chuyện, thay đổi mật khẩu, cập nhật phần mềm bảo mật và tránh cài đặt mô hình từ nguồn không rõ ràng. Thứ ba là tối ưu hóa sự phối hợp giữa con người và AI, luôn kiểm chứng thông tin quan trọng từ nhiều nguồn, giữ tư duy độc lập, đặc biệt với các chủ đề nhạy cảm như chính trị và lịch sử.
Bộ An ninh Quốc gia nhấn mạnh rằng an ninh là tiền đề của phát triển, và phát triển bền vững chỉ có thể đạt được trên nền tảng an toàn. Cơ quan này kêu gọi người dùng nâng cao ý thức bảo mật khi sử dụng các mô hình AI quy mô lớn. Trường hợp phát hiện dấu hiệu đánh cắp dữ liệu cá nhân hoặc truyền dữ liệu nhạy cảm ra nước ngoài, người dân có thể báo cáo qua đường dây nóng 12339, cổng thông tin trực tuyến 12339.gov.cn, tài khoản WeChat chính thức của Bộ An ninh Quốc gia hoặc trực tiếp với cơ quan an ninh địa phương.
Trong bài đăng trên WeChat ngày 26/12, Bộ An ninh Quốc gia nhận định rằng các mô hình AI quy mô lớn đang nhanh chóng được ứng dụng trong nhiều lĩnh vực, trở thành “đối tác kỹ thuật số” quen thuộc trong đời sống hằng ngày. Tuy nhiên, song hành với tốc độ phát triển và mức độ tích hợp ngày càng sâu của AI là những rủi ro mới liên quan đến bảo mật dữ liệu, quyền riêng tư và thiên kiến thuật toán. Theo cơ quan này, việc sớm xây dựng các “hàng rào an ninh” là yêu cầu cấp thiết để quá trình chuyển đổi số diễn ra an toàn và bền vững.
Cảnh báo về những rủi ro tiềm ẩn, Bộ An ninh Quốc gia cho biết ranh giới giữa dữ liệu cá nhân và an ninh thông tin đang ngày càng mờ nhạt. Một số tổ chức đã trực tiếp sử dụng khung phần mềm AI mã nguồn mở để xây dựng mô hình lớn nhưng thiếu biện pháp bảo vệ cần thiết, tạo kẽ hở để tin tặc xâm nhập mạng nội bộ. Trong một trường hợp được công bố, nhân viên của một đơn vị đã sử dụng sai mục đích công cụ AI mã nguồn mở khi xử lý tài liệu nội bộ. Do hệ thống máy tính mặc định kết nối internet công cộng và không thiết lập mật khẩu, dữ liệu nhạy cảm đã bị truy cập và tải xuống trái phép từ nước ngoài.
Bộ này cũng cảnh báo về nguy cơ lạm dụng AI để tạo và phát tán thông tin giả. Công nghệ deepfake, vốn sử dụng học sâu để mô phỏng hình ảnh, âm thanh và video, nếu bị khai thác với mục đích xấu có thể xâm phạm quyền cá nhân, gây mất ổn định xã hội và đe dọa an ninh quốc gia. Các cơ quan chức năng cho biết đã phát hiện thế lực thù địch ở nước ngoài lợi dụng deepfake để tạo video giả, tìm cách phát tán trong nội địa Trung Quốc nhằm gây nhiễu loạn dư luận.
Một rủi ro khác được nhấn mạnh là thiên kiến thuật toán và tính “hộp đen” trong quá trình ra quyết định của AI. Do AI học từ dữ liệu huấn luyện, nếu dữ liệu này mang định kiến hoặc thiếu tính đại diện, mô hình có thể khuếch đại sai lệch. Một số thử nghiệm cho thấy cùng một câu hỏi lịch sử, AI có xu hướng đưa ra câu trả lời khác nhau khi sử dụng tiếng Trung và tiếng Anh, trong đó bản tiếng Anh đôi khi né tránh hoặc làm giảm vai trò của một số sự kiện, thậm chí chứa thông tin chưa chính xác.
Trước thực tế này, Bộ An ninh Quốc gia đưa ra ba khuyến nghị an toàn cho người dùng AI. Thứ nhất là xác định rõ phạm vi sử dụng và áp dụng nguyên tắc quyền truy cập tối thiểu, không để AI xử lý dữ liệu bí mật hoặc thu thập thông tin không cần thiết. Thứ hai là thường xuyên kiểm tra “dấu chân số”, bao gồm xóa lịch sử trò chuyện, thay đổi mật khẩu, cập nhật phần mềm bảo mật và tránh cài đặt mô hình từ nguồn không rõ ràng. Thứ ba là tối ưu hóa sự phối hợp giữa con người và AI, luôn kiểm chứng thông tin quan trọng từ nhiều nguồn, giữ tư duy độc lập, đặc biệt với các chủ đề nhạy cảm như chính trị và lịch sử.
Bộ An ninh Quốc gia nhấn mạnh rằng an ninh là tiền đề của phát triển, và phát triển bền vững chỉ có thể đạt được trên nền tảng an toàn. Cơ quan này kêu gọi người dùng nâng cao ý thức bảo mật khi sử dụng các mô hình AI quy mô lớn. Trường hợp phát hiện dấu hiệu đánh cắp dữ liệu cá nhân hoặc truyền dữ liệu nhạy cảm ra nước ngoài, người dân có thể báo cáo qua đường dây nóng 12339, cổng thông tin trực tuyến 12339.gov.cn, tài khoản WeChat chính thức của Bộ An ninh Quốc gia hoặc trực tiếp với cơ quan an ninh địa phương.
Được phối hợp thực hiện bởi các chuyên gia của Bkav,
cộng đồng An ninh mạng Việt Nam WhiteHat
và cộng đồng Khoa học công nghệ VnReview