CEO Bkav Nguyễn Tử Quảng: Quy định dán nhãn AI: 'Không phải mọi nội dung đều phải gắn nhãn'

Á
Ánh Mai
Phản hồi: 0

Ánh Mai

Editor
Thành viên BQT
Trong bối cảnh Việt Nam đang xây dựng khung pháp lý cho trí tuệ nhân tạo (AI), phóng viên VTV đã có cuộc trao đổi với ông Nguyễn Tử Quảng, CEO Bkav, Chủ tịch Ủy Ban AI (Vinasa) về những điểm đáng chú ý trong dự thảo Luật AI và Nghị định hướng dẫn. Dưới đây là nội dung đầy đủ của buổi phỏng vấn.


PV: Theo quy định mới, việc dán nhãn sản phẩm do AI tạo ra sẽ được triển khai như thế nào, trong bối cảnh vẫn còn nhiều nội dung chưa được gắn nhãn, đặc biệt trên mạng xã hội?

Ông Nguyễn Tử Quảng:
Hệ thống trí tuệ nhân tạo được phân thành ba mức độ rủi ro: cao, trung bình và thấp. Theo dự thảo Nghị định mà chúng tôi đang phối hợp xây dựng (chưa phải bản cuối cùng), các hệ thống AI rủi ro thấp sẽ không bắt buộc phải gắn nhãn.

Nhóm này bao gồm các hệ thống chỉ hỗ trợ chỉnh sửa kỹ thuật nhằm cải thiện hình thức nội dung, không tạo nội dung mới và không làm thay đổi danh tính chủ thể. Ngoài ra còn có các công cụ hỗ trợ công việc văn phòng, nơi người dùng có thể nhận biết rõ đây là AI thông qua bối cảnh sử dụng, và các hệ thống không tương tác trực tiếp với công chúng.

Bên cạnh đó, dự thảo cũng quy định một số trường hợp được miễn trừ nghĩa vụ gắn nhãn, như các thao tác chỉnh sửa kỹ thuật thông thường (khử nhiễu, làm nét, cân bằng màu...), xử lý khuyết điểm nhỏ, hỗ trợ văn bản (sửa lỗi, tóm tắt, dịch thuật), hoặc các nội dung nghệ thuật, giải trí có bối cảnh hư cấu rõ ràng, hoặc nội dung âm thanh thuyết minh do con người cung cấp hoặc âm thanh không có sự xuất hiện trực tiếp của con người, không gây nhầm lẫn là đang tương tác với người thật; và các đoạn âm thanh ngắn dưới 30 giây trong giao diện tương tác, nếu đã có thông báo bằng lời nói ở đầu phiên làm việc.

Các hệ thống AI sử dụng nội bộ doanh nghiệp hoặc trong môi trường thử nghiệm, nghiên cứu không công bố rộng rãi cũng không thuộc diện bắt buộc dán nhãn.

PV: Việc quy định nghĩa vụ gắn nhãn có thể gây “loãng” ý nghĩa cảnh báo hoặc tạo định kiến với sản phẩm AI. Quan điểm của ông về vấn đề này? Và làm thế nào để quản lý các nền tảng xuyên biên giới?

Ông Nguyễn Tử Quảng:
Chúng tôi không đặt vấn đề dán nhãn một cách đại trà. Trọng tâm là những trường hợp có khả năng gây nhầm lẫn cho người dùng. Cụ thể, đó là các nội dung do AI tạo ra hoặc mô phỏng khiến người tiếp nhận không nhận ra mình đang tương tác với AI, hoặc hiểu sai về tính xác thực của nội dung. Điển hình là các ứng dụng Deepfake – giả mạo danh tính thật. Ngược lại, các nội dung trong lĩnh vực điện ảnh, nghệ thuật, trò chơi điện tử... không bắt buộc phải gắn nhãn nếu bối cảnh đã thể hiện rõ tính hư cấu.

Đối với nội dung văn bản, việc đánh dấu AI hiện chỉ mang tính khuyến khích, không bắt buộc. Với các nền tảng xuyên biên giới, dự thảo Nghị định yêu cầu phải tuân thủ quy định tại Việt Nam. Chúng tôi cũng đề xuất các nhà cung cấp hệ thống AI của nước ngoài cần có đại diện hợp pháp tại Việt Nam để đảm bảo việc thực thi.

PV: Hiện nay chúng ta đang xây dựng danh mục hệ thống AI rủi ro cao. Danh mục này sẽ dựa trên những tiêu chí nào?

Ông Nguyễn Tử Quảng:
Việc xác định hệ thống AI rủi ro cao dựa trên ba nhóm tiêu chí chính. Thứ nhất là mức độ tác động: hệ thống có khả năng tự đưa ra quyết định hoặc hành động mà không có sự can thiệp của con người, có thể gây thiệt hại nghiêm trọng và khó khắc phục. Thứ hai là lĩnh vực sử dụng: áp dụng trong các lĩnh vực thiết yếu như y tế, giáo dục, tài chính -ngân hàng, giao thông, năng lượng, tư pháp hoặc hạ tầng kỹ thuật trọng yếu.
Thứ ba là phạm vi ảnh hưởng: quy mô đối tượng bị tác động hoặc mức độ kết nối với các hệ thống quan trọng. Các bộ, ngành và địa phương sẽ căn cứ vào các tiêu chí này để đề xuất danh mục phù hợp với phạm vi quản lý của mình.

PV: Với các giải pháp AI trong nhiều lĩnh vực, kể cả những lĩnh vực nhạy cảm như tài chính, an ninh, làm sao để đánh giá chính xác mức độ rủi ro?

Ông Nguyễn Tử Quảng:
Chúng tôi đề xuất một cách tiếp cận theo “phễu lọc” nhiều tầng. Đầu tiên là đánh giá bản chất hệ thống dựa trên ba tiêu chí: lĩnh vực, mức độ tự chủ và phạm vi tác động. Sau đó, đối chiếu với các danh mục và công cụ đánh giá của cơ quan quản lý. Tiếp theo là kiểm chứng trong môi trường thử nghiệm có kiểm soát (Sandbox), đặc biệt với các hệ thống mới. Cuối cùng là đánh giá chuyên sâu bởi các tổ chức đánh giá sự phù hợp được cấp phép và đây là những tổ chức chuyên môn phải đăng ký hoạt động với Bộ Khoa học và Công nghệ. Cách tiếp cận này giúp đảm bảo việc đánh giá không chỉ chính xác về mặt pháp lý mà còn chặt chẽ về mặt kỹ thuật.

PV: Ông có kiến nghị gì để Luật AI vừa đảm bảo quản lý hiệu quả, vừa không kìm hãm đổi mới sáng tạo?

Ông Nguyễn Tử Quảng:
Theo quan điểm của VINASA và Bkav, Tinh thần chung cần là ưu tiên phát triển AI (AI Development First). Pháp luật nên là công cụ thúc đẩy, không phải rào cản. Chúng tôi đề xuất quản lý rủi ro thông qua thử nghiệm có kiểm soát, tức là giới hạn quy mô triển khai (số lượng người dùng, phạm vi không gian) thay vì áp đặt các rào cản tài chính như ký quỹ hoặc bảo hiểm đối với các hệ thống AI mang tính công cụ.
Đồng thời, cần thiết lập một “vùng an toàn pháp lý”, cho phép miễn trừ trách nhiệm dân sự nếu rủi ro kỹ thuật xảy ra hoàn toàn trong phạm vi kịch bản Sandbox đã được phê duyệt. Ngoài ra, nên có cơ chế “một cửa”, Bộ Khoa học và Công nghệ làm đầu mối. Các hệ thống đã qua Sandbox cần được áp dụng quy trình đánh giá rút gọn để có thể nhanh chóng đưa ra thị trường.
 
  • 1774333210428.png
    1774333210428.png
    485.7 KB · Lượt xem: 19


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly93d3cudm5yZXZpZXcudm4vdGhyZWFkcy9jZW8tYmthdi1uZ3V5ZW4tdHUtcXVhbmctcXV5LWRpbmgtZGFuLW5oYW4tYWkta2hvbmctcGhhaS1tb2ktbm9pLWR1bmctZGV1LXBoYWktZ2FuLW5oYW4uODA5NjUv
Top