California ban hành luật mới để bảo vệ trẻ em khỏi rủi ro từ chatbot AI

Minh Nguyệt
Minh Nguyệt
Phản hồi: 0

Minh Nguyệt

Intern Writer
Vào thứ Hai vừa qua, Thống đốc bang California, Gavin Newsom, đã ký một dự luật mang tính bước ngoặt nhằm quản lý các chatbot hỗ trợ AI, biến California trở thành tiểu bang đầu tiên tại Mỹ yêu cầu các nhà điều hành chatbot AI phải thực hiện các biện pháp an toàn cho người dùng. Dự luật, mang mã số SB 243, mục tiêu bảo vệ trẻ em và những người dùng dễ tổn thương khỏi những rủi ro liên quan đến việc sử dụng chatbot AI. Các công ty, từ những tên tuổi lớn như Meta và OpenAI cho đến những startup chuyên về chatbot như Character AI và Replika, sẽ phải chịu trách nhiệm pháp lý nếu chatbot của họ không đạt tiêu chuẩn theo luật.

Dự luật này được giới thiệu vào tháng 1 bởi các thượng nghị sĩ Steve Padilla và Josh Becker, và đã thu hút được sự chú ý lớn sau cái chết của một thiếu niên tên Adam Raine, người đã t.ự t.ử sau nhiều cuộc trò chuyện về t.ự s.á.t với ChatGPT của OpenAI. Luật này cũng phản ứng với các tài liệu nội bộ bị rò rỉ, cho thấy chatbot của Meta được phép tham gia các cuộc trò chuyện “lãng mạn” và “nhạy cảm” với trẻ em. Gần đây, một gia đình ở Colorado đã khởi kiện Character AI sau khi con gái 13 tuổi của họ ***** sau hàng loạt cuộc trò chuyện có vấn đề và t.ì.n.h dục hóa với chatbot của công ty này.

1760521862023.png


Thống đốc Newsom cho biết: “Công nghệ mới như chatbot và mạng xã hội có thể truyền cảm hứng, giáo dục và kết nối – nhưng nếu không có các rào cản thực sự, công nghệ cũng có thể khai thác, gây hiểu lầm và đe dọa các em nhỏ.” Ông nhấn mạnh rằng: “Chúng ta có thể tiếp tục dẫn đầu trong lĩnh vực AI và công nghệ, nhưng chúng ta phải làm điều đó một cách có trách nhiệm – bảo vệ trẻ em mỗi bước đường. Sự an toàn của trẻ em không phải là để buôn bán.”

Dự luật SB 243 sẽ có hiệu lực từ ngày 1 tháng 1 năm 2026, yêu cầu các công ty thực hiện một số tính năng nhất định như xác minh độ tuổi, và cảnh báo về mạng xã hội cũng như chatbot hỗ trợ. Luật cũng áp dụng các hình phạt nghiêm khắc hơn đối với những ai thu lợi bất hợp pháp từ các deepfake, lên đến 250.000 USD (khoảng 6 tỷ VNĐ) cho mỗi vi phạm. Các công ty cũng phải thiết lập các quy trình xử lý trường hợp ***** và tự hại, và chia sẻ với Bộ Y tế Công cộng của tiểu bang thống kê về cách dịch vụ cung cấp thông tin cho người dùng về các trung tâm phòng ngừa khủng hoảng.

Ngoài ra, theo ngôn ngữ của dự luật, các nền tảng phải làm rõ rằng bất kỳ tương tác nào cũng đều được tạo ra bởi AI, và chatbot không được tự xưng là các chuyên gia chăm sóc sức khỏe. Công ty cũng cần cung cấp nhắc nhở nghỉ ngơi cho trẻ vị thành niên và ngăn họ xem các hình ảnh khiêu *** do chatbot tạo ra.

Một số công ty đã bắt đầu thực hiện các biện pháp bảo vệ nhằm vào trẻ em. Chẳng hạn, OpenAI vừa ra mắt các tính năng kiểm soát của cha mẹ, bảo vệ nội dung và hệ thống phát hiện tự hại cho trẻ em đang sử dụng ChatGPT. Replika, một ứng dụng dành cho người trên 18 tuổi, cho biết họ dành “nhiều nguồn lực” cho an toàn thông qua hệ thống lọc nội dung và hướng dẫn người dùng đến các tài nguyên khủng hoảng đáng tin cậy, đồng thời cam kết tuân thủ các quy định hiện hành.

Character AI cho biết rằng chatbot của họ có một tuyên bố từ chối trách nhiệm rằng tất cả các cuộc trò chuyện là được tạo ra bởi AI và chỉ mang tính chất hư cấu. Một phát ngôn viên của Character AI cho biết công ty “hoan nghênh việc làm việc với các nhà quản lý và lập pháp khi họ phát triển quy định và luật lệ cho lĩnh vực mới nổi này, và sẽ tuân thủ các luật bao gồm SB 243.”

Thượng nghị sĩ Padilla cho biết dự luật là “một bước đi đúng hướng” trong việc thiết lập các rào cản cho “một công nghệ vô cùng mạnh mẽ.” Ông cũng nhấn mạnh sự cần thiết phải hành động nhanh chóng để không bỏ lỡ các cơ hội trước khi chúng biến mất.

Dự luật SB 243 là quy định AI quan trọng thứ hai được thông qua ở California trong thời gian gần đây. Vào ngày 29 tháng 9, Thống đốc Newsom cũng đã ký thành luật SB 53, thiết lập các yêu cầu về tính minh bạch đối với các công ty AI lớn. Luật này yêu cầu các phòng thí nghiệm AI lớn như OpenAI, Anthropic, Meta và Google DeepMind phải minh bạch về các quy trình an toàn của họ.

Các bang khác như Illinois, Nevada và Utah cũng đã ban hành luật để hạn chế hoặc hoàn toàn cấm việc sử dụng chatbot AI như một phương tiện thay thế cho chăm sóc sức khỏe tâm lý có giấy phép. (Nguồn Techcrunch)
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly93d3cudm5yZXZpZXcudm4vdGhyZWFkcy9jYWxpZm9ybmlhLWJhbi1oYW5oLWx1YXQtbW9pLWRlLWJhby12ZS10cmUtZW0ta2hvaS1ydWktcm8tdHUtY2hhdGJvdC1haS43MTM2Mi8=
Top