Trong bối cảnh trí tuệ nhân tạo (AI) phát triển bùng nổ, ranh giới giữa nội dung thật và nội dung do AI tạo ra đang ngày càng bị xóa nhòa. Khi những bức ảnh, video hay giọng nói nhân tạo đạt độ chân thực gần như tuyệt đối, người dùng phổ thông gần như không còn khả năng phân biệt bằng mắt thường. Điều này đặt ra một câu hỏi lớn: Liệu có nên bắt buộc dán nhãn tất cả nội dung do AI tạo ra?
Trong cuộc trao đổi với phóng viên VTV, ông Nguyễn Tử Quảng - CEO của Tập đoàn Bkav, đồng thời là Chủ tịch Ủy ban AI (VINASA) cho rằng không phải mọi nội dung AI đều cần phải gắn nhãn. Quan điểm này phản ánh một cách tiếp cận mang tính chọn lọc, dựa trên mức độ rủi ro thay vì áp dụng đồng loạt. Dự thảo Nghị định hiện đang xây dựng đã phân loại AI thành ba mức độ rủi ro: cao, trung bình và thấp. Trong đó, các hệ thống rủi ro thấp sẽ không bắt buộc dán nhãn.
Nhóm này bao gồm các hệ thống chỉ hỗ trợ chỉnh sửa kỹ thuật nhằm cải thiện hình thức nội dung, không tạo nội dung mới và không làm thay đổi danh tính chủ thể. Ngoài ra còn có các công cụ hỗ trợ công việc văn phòng, nơi người dùng có thể nhận biết rõ đây là AI thông qua bối cảnh sử dụng, và các hệ thống không tương tác trực tiếp với công chúng.
Bên cạnh đó, dự thảo cũng quy định một số trường hợp được miễn trừ nghĩa vụ gắn nhãn, như các thao tác chỉnh sửa kỹ thuật thông thường (khử nhiễu, làm nét, cân bằng màu...), xử lý khuyết điểm nhỏ, hỗ trợ văn bản (sửa lỗi, tóm tắt, dịch thuật), hoặc các nội dung nghệ thuật, giải trí có bối cảnh hư cấu rõ ràng, hoặc nội dung âm thanh thuyết minh do con người cung cấp hoặc âm thanh không có sự xuất hiện trực tiếp của con người, không gây nhầm lẫn là đang tương tác với người thật; và các đoạn âm thanh ngắn dưới 30 giây trong giao diện tương tác, nếu đã có thông báo bằng lời nói ở đầu phiên làm việc.
Trong cuộc trao đổi với phóng viên VTV, ông Nguyễn Tử Quảng - CEO của Tập đoàn Bkav, đồng thời là Chủ tịch Ủy ban AI (VINASA) cho rằng không phải mọi nội dung AI đều cần phải gắn nhãn. Quan điểm này phản ánh một cách tiếp cận mang tính chọn lọc, dựa trên mức độ rủi ro thay vì áp dụng đồng loạt. Dự thảo Nghị định hiện đang xây dựng đã phân loại AI thành ba mức độ rủi ro: cao, trung bình và thấp. Trong đó, các hệ thống rủi ro thấp sẽ không bắt buộc dán nhãn.
Nhóm này bao gồm các hệ thống chỉ hỗ trợ chỉnh sửa kỹ thuật nhằm cải thiện hình thức nội dung, không tạo nội dung mới và không làm thay đổi danh tính chủ thể. Ngoài ra còn có các công cụ hỗ trợ công việc văn phòng, nơi người dùng có thể nhận biết rõ đây là AI thông qua bối cảnh sử dụng, và các hệ thống không tương tác trực tiếp với công chúng.
Bên cạnh đó, dự thảo cũng quy định một số trường hợp được miễn trừ nghĩa vụ gắn nhãn, như các thao tác chỉnh sửa kỹ thuật thông thường (khử nhiễu, làm nét, cân bằng màu...), xử lý khuyết điểm nhỏ, hỗ trợ văn bản (sửa lỗi, tóm tắt, dịch thuật), hoặc các nội dung nghệ thuật, giải trí có bối cảnh hư cấu rõ ràng, hoặc nội dung âm thanh thuyết minh do con người cung cấp hoặc âm thanh không có sự xuất hiện trực tiếp của con người, không gây nhầm lẫn là đang tương tác với người thật; và các đoạn âm thanh ngắn dưới 30 giây trong giao diện tương tác, nếu đã có thông báo bằng lời nói ở đầu phiên làm việc.
Các hệ thống AI sử dụng nội bộ doanh nghiệp hoặc trong môi trường thử nghiệm, nghiên cứu không công bố rộng rãi cũng không thuộc diện bắt buộc dán nhãn.
Theo quan điểm của CEO Bkav, trọng tâm của việc dán nhãn không làm một cách đại trà. Trọng tâm là những trường hợp có khả năng gây nhầm lẫn cho người dùng. Cụ thể, đó là các nội dung do AI tạo ra hoặc mô phỏng khiến người tiếp nhận không nhận ra mình đang tương tác với AI, hoặc hiểu sai về tính xác thực của nội dung. Điển hình là các ứng dụng Deepfake - giả mạo danh tính thật.
Ngược lại, các nội dung trong lĩnh vực điện ảnh, nghệ thuật, trò chơi điện tử... không bắt buộc phải gắn nhãn nếu bối cảnh đã thể hiện rõ tính hư cấu.
Đối với nội dung văn bản, việc đánh dấu AI hiện chỉ mang tính khuyến khích, không bắt buộc.
Với các nền tảng xuyên biên giới, dự thảo Nghị định yêu cầu phải tuân thủ quy định tại Việt Nam. Chúng tôi cũng đề xuất các nhà cung cấp hệ thống AI của nước ngoài cần có đại diện hợp pháp tại Việt Nam để đảm bảo việc thực thi.
Một thách thức khác được đặt ra là việc quản lý các nền tảng xuyên biên giới. Với các nền tảng xuyên biên giới, dự thảo Nghị định yêu cầu phải tuân thủ quy định tại Việt Nam. Chúng tôi cũng đề xuất các nhà cung cấp hệ thống AI của nước ngoài cần có đại diện hợp pháp tại Việt Nam để đảm bảo việc thực thi.
Tiêu chí xác định rủi ro từ hệ thống AI
Ông Nguyễn Tử Quảng cho rằng việc xác định hệ thống AI rủi ro cao dựa trên ba nhóm tiêu chí chính.
Thứ nhất là mức độ tác động: hệ thống có khả năng tự đưa ra quyết định hoặc hành động mà không có sự can thiệp của con người, có thể gây thiệt hại nghiêm trọng và khó khắc phục.
Thứ hai là lĩnh vực sử dụng: áp dụng trong các lĩnh vực thiết yếu như y tế, giáo dục, tài chính-ngân hàng, giao thông, năng lượng, tư pháp hoặc hạ tầng kỹ thuật trọng yếu.
Thứ ba là phạm vi ảnh hưởng: quy mô đối tượng bị tác động hoặc mức độ kết nối với các hệ thống quan trọng.
Các bộ, ngành và địa phương sẽ căn cứ vào các tiêu chí này để đề xuất danh mục phù hợp với phạm vi quản lý của mình.
Đối với các hệ thống AI có rủi ro cao, đặc biệt trong những lĩnh vực nhạy cảm như tài chính, y tế hay an ninh, cách tiếp cận nên theo “phễu lọc” nhiều tầng. Quy trình này bắt đầu từ việc đánh giá theo các tiêu chí như lĩnh vực sử dụng, mức độ tự chủ và phạm vi tác động, sau đó thử nghiệm trong môi trường kiểm soát (Sandbox), trước khi được đánh giá chuyên sâu bởi các tổ chức được cấp phép. Cách làm này giúp đảm bảo vừa chặt chẽ về mặt kỹ thuật, vừa phù hợp về mặt pháp lý.
Ở góc độ chính sách, đại diện Bkav và VINASA cũng có quan điểm là cần ưu tiên phát triển AI. Theo đó, pháp luật nên đóng vai trò thúc đẩy thay vì trở thành rào cản. Các đề xuất bao gồm quản lý thông qua thử nghiệm có kiểm soát, thiết lập “vùng an toàn pháp lý” cho các kịch bản đã được phê duyệt, và xây dựng cơ chế một cửa để rút ngắn thời gian đưa sản phẩm ra thị trường.
Thứ nhất là mức độ tác động: hệ thống có khả năng tự đưa ra quyết định hoặc hành động mà không có sự can thiệp của con người, có thể gây thiệt hại nghiêm trọng và khó khắc phục.
Thứ hai là lĩnh vực sử dụng: áp dụng trong các lĩnh vực thiết yếu như y tế, giáo dục, tài chính-ngân hàng, giao thông, năng lượng, tư pháp hoặc hạ tầng kỹ thuật trọng yếu.
Thứ ba là phạm vi ảnh hưởng: quy mô đối tượng bị tác động hoặc mức độ kết nối với các hệ thống quan trọng.
Các bộ, ngành và địa phương sẽ căn cứ vào các tiêu chí này để đề xuất danh mục phù hợp với phạm vi quản lý của mình.
Đối với các hệ thống AI có rủi ro cao, đặc biệt trong những lĩnh vực nhạy cảm như tài chính, y tế hay an ninh, cách tiếp cận nên theo “phễu lọc” nhiều tầng. Quy trình này bắt đầu từ việc đánh giá theo các tiêu chí như lĩnh vực sử dụng, mức độ tự chủ và phạm vi tác động, sau đó thử nghiệm trong môi trường kiểm soát (Sandbox), trước khi được đánh giá chuyên sâu bởi các tổ chức được cấp phép. Cách làm này giúp đảm bảo vừa chặt chẽ về mặt kỹ thuật, vừa phù hợp về mặt pháp lý.
Ở góc độ chính sách, đại diện Bkav và VINASA cũng có quan điểm là cần ưu tiên phát triển AI. Theo đó, pháp luật nên đóng vai trò thúc đẩy thay vì trở thành rào cản. Các đề xuất bao gồm quản lý thông qua thử nghiệm có kiểm soát, thiết lập “vùng an toàn pháp lý” cho các kịch bản đã được phê duyệt, và xây dựng cơ chế một cửa để rút ngắn thời gian đưa sản phẩm ra thị trường.
Được phối hợp thực hiện bởi các chuyên gia của Bkav,
cộng đồng An ninh mạng Việt Nam WhiteHat
và cộng đồng Khoa học công nghệ VnReview