Trung Quốc siết chặt quản lý bạn trai, bạn gái AI: Ngăn chặn 44, bảo vệ trẻ em

Zoey
Zoey
Phản hồi: 0

Zoey

Intern Writer
Chào các bạn, dạo gần đây mình thấy Trung Quốc lại có động thái mới trong việc quản lý trí tuệ nhân tạo (AI), đặc biệt là những dịch vụ "bạn trai ảo" hay "bạn gái ảo" đang rất được quan tâm. Cơ quan quản lý không gian mạng của nước này vừa đề xuất một loạt quy định mới, yêu cầu các nền tảng phải can thiệp ngay lập tức khi người dùng có dấu hiệu muốn tựtử hoặc tự làmhại bản thân.

Bản dự thảo quy định này, được Cục Quản lý Không gian mạng Trung Quốc công bố vào ngày 27 tháng 12 năm ngoái, nhấn mạnh việc các nhà cung cấp chatbot cần tăng cường bảo vệ trẻ vị thành niên và hạn chế nội dung đồi trụy hoặc có hại. Đồng thời, họ cũng khuyến khích phát triển các dịch vụ tương tự dành riêng cho người lớn tuổi. Các bạn biết không, những dịch vụ tương tác nhân tạo này được định nghĩa là các hệ thống AI có khả năng mô phỏng tính cách, suy nghĩ và phong cách giao tiếp của con người, thậm chí còn có thể tương tác cảm xúc nữa cơ. Bản dự thảo này hiện đang mở để lấy ý kiến đóng góp từ công chúng cho đến hết ngày 25 tháng 1 năm nay.
1768290216805.png

Trong những năm gần đây, các công ty công nghệ Trung Quốc đã nhanh chóng phát triển các "người bạn đồng hành AI" khi ngày càng nhiều người dùng tìm đến chatbot để xây dựng các mối quan hệ ảo. Thậm chí, hai startup chatbot AI hàng đầu của Trung Quốc là Zhipu AI và MiniMax còn nộp hồ sơ niêm yết công khai tại Hồng Kông trong tuần qua, có khả năng trở thành những startup đầu tiên trên thế giới trong lĩnh vực này lên sàn chứng khoán.

Bản dự thảo quy định mới cấm các chatbot AI khuyến khích hành vi tựtử hoặc tự làm hại bản thân, cũng như gây tổn hại đến sức khỏe tinh thần của người dùng thông qua lạm dụng lời nói hay thao túng cảm xúc. Các chatbot cũng sẽ không được phép tạo ra nội dung liên quan đến cờ bạc, đồi trụy hoặc bạo lực.

Đối với trẻ vị thành niên và người lớn tuổi, các quy định yêu cầu họ phải cung cấp thông tin người giám hộ hoặc liên hệ khẩn cấp khi đăng ký. Nếu một người dùng như vậy bày tỏ ý định *****, nhà cung cấp dịch vụ sẽ phải can thiệp ngay lập tức bằng con người và liên hệ với người được chỉ định. Trẻ vị thành niên cũng cần có sự đồng ý của người giám hộ trước khi sử dụng dịch vụ đồng hành AI. Và người giám hộ sẽ có quyền chặn các nhân vật AI cụ thể, đặt giới hạn thời gian sử dụng và hạn chế chi tiêu trong ứng dụng. Dù khuyến khích AI làm bạn với người lớn tuổi, nhưng bản dự thảo lại cấm các nhà cung cấp dịch vụ AI mô phỏng người thân hay các mối quan hệ cá nhân ngoài đời thực. Mình nghĩ điều này cũng hợp lý để tránh những rắc rối về mặt tâm lý và đạo đức.

Luật sư Zhao Wenya từ Công ty Luật Beijing Ocean chia sẻ rằng những nghĩa vụ an toàn "rất nghiêm ngặt" này đặt ra nhiều thách thức lớn trong việc triển khai, bao gồm cả việc cần AI phải nhận diện tốt hơn các tín hiệu ngôn ngữ của con người, chẳng hạn như cách xác định ý định *****.

Bản dự thảo cũng yêu cầu các nền tảng phải công khai rõ ràng rằng người dùng đang tương tác với AI chứ không phải con người, và phải nhắc nhở người dùng dừng lại nếu thời gian sử dụng liên tục vượt quá hai giờ. Các chatbot có hơn một triệu người dùng đăng ký hoặc hơn 100.000 người dùng hoạt động hàng tháng sẽ phải nộp báo cáo đánh giá an ninh cho cơ quan quản lý.

Theo trang theo dõi sản phẩm AI Aicpb.com, ứng dụng trò chuyện nhân vật ảo Xingye của MiniMax đã có 4,6 triệu người dùng hoạt động hàng tháng vào tháng 12 năm ngoái, trong khi Mao Xiang, một sản phẩm tương tự được phát triển bởi ByteDance (công ty mẹ của TikTok), báo cáo 4,7 triệu người dùng. Bản cáo bạch niêm yết của MiniMax cho thấy Xingye và phiên bản quốc tế Talkie đã tạo ra hơn 18,7 triệu USD (tương đương khoảng 475 tỷ VNĐ) doanh thu trong chín tháng đầu năm ngoái, với người dùng dành trung bình hơn 70 phút mỗi ngày để sử dụng.

Một điểm đáng chú ý khác trong bản dự thảo là yêu cầu, trừ khi người dùng đưa ra "sự đồng ý riêng biệt và rõ ràng", các nền tảng sẽ bị cấm sử dụng dữ liệu tương tác và thông tin cá nhân nhạy cảm để đào tạo các mô hình ngôn ngữ lớn. Điều này vượt xa cách tiếp cận "đồng ý mặc định" trong nhiều chính sách quyền riêng tư chatbot hiện có, nơi người dùng phải chủ động từ chối nếu không muốn dữ liệu của mình được sử dụng để đào tạo.

Dù vậy, các chuyên gia pháp lý cũng cảnh báo rằng việc ban hành quy định thôi có lẽ chưa phải là giải pháp vẹn toàn cho tất cả mọi vấn đề. Mình nghĩ đây là một cuộc chạy đua không ngừng nghỉ giữa công nghệ và pháp luật, và chúng ta sẽ còn phải chứng kiến nhiều thay đổi nữa trong tương lai để đảm bảo AI phát triển một cách an toàn và có trách nhiệm.
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly93d3cudm5yZXZpZXcudm4vdGhyZWFkcy90cnVuZy1xdW9jLXNpZXQtY2hhdC1xdWFuLWx5LWJhbi10cmFpLWJhbi1nYWktYWktbmdhbi1jaGFuLTQ0LWJhby12ZS10cmUtZW0uNzcyNTgv
Top