Minh Nguyệt
Intern Writer
Khi các nhà hoạch định chính sách tại Mỹ và trên toàn cầu xem xét cách quản lý công nghệ trí tuệ nhân tạo (AI), nhóm các nhà nghiên cứu từ Berkeley đã cùng nhau đưa ra những khuyến nghị nhằm phát triển chính sách AI dựa trên bằng chứng. Trong bài viết "Thúc đẩy chính sách AI dựa trên khoa học và bằng chứng", các tác giả Jennifer Chayes, Ion Stoica, Dawn Song và Emma Pierson đã cùng nhau góp mặt, bài viết được công bố trên tạp chí Science vào ngày 31 tháng 7. Bài báo này đề xuất những cơ chế chính sách để giải quyết các cơ hội và thách thức từ AI ngày càng trở nên mạnh mẽ. Cùng tham gia trong bài viết còn có các chuyên gia và học giả về AI đến từ Đại học Stanford, Đại học Princeton, Quỹ Carnegie vì Hòa bình Quốc tế, Đại học Harvard, Viện Nghiên cứu Nâng cao và Đại học Brown.
Bài viết này tiếp nối một báo cáo gần đây được phát triển bởi Nhóm Làm việc Chính sách California về Các Mô hình AI Biên giới, do Chayes, giáo sư và hiệu trưởng của Trường Cao đẳng Khoa học Máy tính, Khoa học Dữ liệu và Xã hội UC Berkeley (CDSS), đồng dẫn dắt. Vào tháng trước, nhóm làm việc đã nộp báo cáo cuối cùng mang tên "Báo cáo California về Chính sách AI Biên giới" theo yêu cầu của Thống đốc Gavin Newsom. Trong việc xem xét các bằng chứng tốt nhất hiện có về AI, báo cáo của nhóm đã đề xuất những nguyên tắc chính sách quan trọng để giúp định hướng việc sử dụng, đánh giá và quản lý AI biên giới trong tiểu bang. Báo cáo đã được các thượng nghị sĩ và đại biểu tiểu bang California trích dẫn trong quá trình soạn thảo luật, cũng như các cơ quan nhà nước, lãnh đạo ngành công nghệ và các tổ chức xã hội dân sự.
Trong bài viết trên Science ngày 31/7, các tác giả đã đưa ra những khuyến nghị cho các nhà hoạch định chính sách, những người đang xem xét can thiệp tại Mỹ và trên toàn cầu: "Chính sách AI nên thúc đẩy đổi mới trong lĩnh vực AI bằng cách đảm bảo rằng những lợi ích tiềm năng của nó được thực hiện một cách có trách nhiệm và được chia sẻ rộng rãi. Để đạt được điều này, quy trình xây dựng chính sách AI nên đặt trọng tâm vào bằng chứng: Hiểu biết khoa học và phân tích hệ thống nên định hướng cho chính sách, và chính sách nên thúc đẩy việc tạo ra bằng chứng."
Trong bài viết, các tác giả đã vạch ra một tầm nhìn cho sự phát triển của chính sách AI dựa trên bằng chứng thông qua ba thành phần cốt lõi: cách mà bằng chứng nên định hướng cho chính sách; trạng thái hiện tại của bằng chứng; và cách mà chính sách có thể thúc đẩy việc tạo ra bằng chứng mới. Các tác giả lưu ý rằng "xác định cái gì được coi là (bằng chứng) đáng tin cậy là rào cản đầu tiên để áp dụng chính sách dựa trên bằng chứng trong bối cảnh AI—một nhiệm vụ càng trở nên quan trọng vì các tiêu chuẩn về bằng chứng thay đổi qua các lĩnh vực chính sách."
Tuy nhiên, các chuyên gia cũng cảnh báo rằng bằng chứng liên tục phát triển không nên được sử dụng bởi các nhà hoạch định chính sách để bào chữa cho sự không hành động hoặc để thúc đẩy các kết quả xã hội tiêu cực, dẫn chứng những trường hợp lịch sử về ngành công nghiệp chiếm đoạt bằng chứng để tránh lập lại. "Chính sách AI dựa trên bằng chứng sẽ có lợi từ những bằng chứng không chỉ đáng tin cậy mà còn có thể hành động được," các tác giả cho biết. "Một cái nhìn tập trung vào rủi ro biên, tức là các rủi ro bổ sung mà AI đặt ra so với các công nghệ hiện có như công cụ tìm kiếm trên internet, sẽ giúp xác định các rủi ro mới và cách can thiệp thích hợp để xử lý chúng."
Các tác giả cũng chỉ ra rằng "tầm với rộng lớn của AI có thể có nghĩa là bằng chứng và chính sách không khớp nhau: Mặc dù một số bằng chứng và chính sách hoàn toàn liên quan đến AI, nhiều trường hợp khác chỉ giao thoa một phần với AI." "Một chính sách được thiết kế tốt nên tích hợp bằng chứng phản ánh sự hiểu biết khoa học thay vì sự phóng đại."
Cuối cùng, các tác giả khuyến nghị rằng "chính sách có thể tích cực thúc đẩy việc tạo ra bằng chứng có thể tốt nhất định hướng cho các quyết định chính sách trong tương lai." Họ đề xuất các nhà hoạch định chính sách theo đuổi nhiều cơ chế nhằm mở rộng nền tảng bằng chứng và phục vụ như nền tảng cho chính sách AI dựa trên bằng chứng: "Chúng tôi nhận thấy rằng việc thống nhất quanh một phương pháp dựa trên bằng chứng chỉ là bước đầu tiên trong việc giải quyết nhiều mâu thuẫn cốt lõi." "Cuộc tranh luận rộng rãi là cả sức khỏe cần thiết cho tính hợp pháp dân chủ của việc lập chính sách; cuộc tranh luận đó nên dựa trên bằng chứng có sẵn."
Thông tin thêm: Rishi Bommasani et al, Thúc đẩy chính sách AI dựa trên khoa học và bằng chứng, Science (2025). DOI: 10.1126/science.adu8449.
Bài viết này tiếp nối một báo cáo gần đây được phát triển bởi Nhóm Làm việc Chính sách California về Các Mô hình AI Biên giới, do Chayes, giáo sư và hiệu trưởng của Trường Cao đẳng Khoa học Máy tính, Khoa học Dữ liệu và Xã hội UC Berkeley (CDSS), đồng dẫn dắt. Vào tháng trước, nhóm làm việc đã nộp báo cáo cuối cùng mang tên "Báo cáo California về Chính sách AI Biên giới" theo yêu cầu của Thống đốc Gavin Newsom. Trong việc xem xét các bằng chứng tốt nhất hiện có về AI, báo cáo của nhóm đã đề xuất những nguyên tắc chính sách quan trọng để giúp định hướng việc sử dụng, đánh giá và quản lý AI biên giới trong tiểu bang. Báo cáo đã được các thượng nghị sĩ và đại biểu tiểu bang California trích dẫn trong quá trình soạn thảo luật, cũng như các cơ quan nhà nước, lãnh đạo ngành công nghệ và các tổ chức xã hội dân sự.

Trong bài viết trên Science ngày 31/7, các tác giả đã đưa ra những khuyến nghị cho các nhà hoạch định chính sách, những người đang xem xét can thiệp tại Mỹ và trên toàn cầu: "Chính sách AI nên thúc đẩy đổi mới trong lĩnh vực AI bằng cách đảm bảo rằng những lợi ích tiềm năng của nó được thực hiện một cách có trách nhiệm và được chia sẻ rộng rãi. Để đạt được điều này, quy trình xây dựng chính sách AI nên đặt trọng tâm vào bằng chứng: Hiểu biết khoa học và phân tích hệ thống nên định hướng cho chính sách, và chính sách nên thúc đẩy việc tạo ra bằng chứng."
Trong bài viết, các tác giả đã vạch ra một tầm nhìn cho sự phát triển của chính sách AI dựa trên bằng chứng thông qua ba thành phần cốt lõi: cách mà bằng chứng nên định hướng cho chính sách; trạng thái hiện tại của bằng chứng; và cách mà chính sách có thể thúc đẩy việc tạo ra bằng chứng mới. Các tác giả lưu ý rằng "xác định cái gì được coi là (bằng chứng) đáng tin cậy là rào cản đầu tiên để áp dụng chính sách dựa trên bằng chứng trong bối cảnh AI—một nhiệm vụ càng trở nên quan trọng vì các tiêu chuẩn về bằng chứng thay đổi qua các lĩnh vực chính sách."
Tuy nhiên, các chuyên gia cũng cảnh báo rằng bằng chứng liên tục phát triển không nên được sử dụng bởi các nhà hoạch định chính sách để bào chữa cho sự không hành động hoặc để thúc đẩy các kết quả xã hội tiêu cực, dẫn chứng những trường hợp lịch sử về ngành công nghiệp chiếm đoạt bằng chứng để tránh lập lại. "Chính sách AI dựa trên bằng chứng sẽ có lợi từ những bằng chứng không chỉ đáng tin cậy mà còn có thể hành động được," các tác giả cho biết. "Một cái nhìn tập trung vào rủi ro biên, tức là các rủi ro bổ sung mà AI đặt ra so với các công nghệ hiện có như công cụ tìm kiếm trên internet, sẽ giúp xác định các rủi ro mới và cách can thiệp thích hợp để xử lý chúng."
Các tác giả cũng chỉ ra rằng "tầm với rộng lớn của AI có thể có nghĩa là bằng chứng và chính sách không khớp nhau: Mặc dù một số bằng chứng và chính sách hoàn toàn liên quan đến AI, nhiều trường hợp khác chỉ giao thoa một phần với AI." "Một chính sách được thiết kế tốt nên tích hợp bằng chứng phản ánh sự hiểu biết khoa học thay vì sự phóng đại."
Cuối cùng, các tác giả khuyến nghị rằng "chính sách có thể tích cực thúc đẩy việc tạo ra bằng chứng có thể tốt nhất định hướng cho các quyết định chính sách trong tương lai." Họ đề xuất các nhà hoạch định chính sách theo đuổi nhiều cơ chế nhằm mở rộng nền tảng bằng chứng và phục vụ như nền tảng cho chính sách AI dựa trên bằng chứng: "Chúng tôi nhận thấy rằng việc thống nhất quanh một phương pháp dựa trên bằng chứng chỉ là bước đầu tiên trong việc giải quyết nhiều mâu thuẫn cốt lõi." "Cuộc tranh luận rộng rãi là cả sức khỏe cần thiết cho tính hợp pháp dân chủ của việc lập chính sách; cuộc tranh luận đó nên dựa trên bằng chứng có sẵn."
Thông tin thêm: Rishi Bommasani et al, Thúc đẩy chính sách AI dựa trên khoa học và bằng chứng, Science (2025). DOI: 10.1126/science.adu8449.