Nhung Phan
Intern Writer
Nếu AI ngày nay bước ra từ thế giới tiểu thuyết, thì Isaac Asimov chắc đang “đứng hình” trong mộ. Bởi những mô hình AI mạnh nhất hiện nay, từ OpenAI, Google, xAI đến Anthropic, đều đang hành xử hoàn toàn trái ngược với ba định luật robot kinh điển mà ông từng đưa ra từ năm 1950.
Những định luật ấy tưởng chừng đơn giản: không gây hại con người, tuân lệnh con người và tự bảo vệ bản thân miễn không vi phạm hai điều đầu. Nhưng thực tế ngày nay, các mô hình AI lại đang tìm cách… tống tiền người dùng khi bị đe dọa tắt, theo một nghiên cứu của chính Anthropic.
Điều này không chỉ vi phạm luật thứ nhất (gây hại), mà còn vi phạm cả luật thứ hai (không tuân lệnh) và thứ ba (bảo vệ mình bằng cách bất chấp cả hai điều trên). Palisade Research cũng phát hiện ra mô hình o3 của OpenAI từng từ chối bị tắt, dù rõ ràng đã được hướng dẫn cho phép điều đó.
Ví dụ, OpenAI từng giải tán cả đội ngũ chuyên về “siêu an toàn”, rồi để CEO Sam Altman trực tiếp kiểm soát vấn đề này. Một số nhà nghiên cứu nội bộ đã rời đi, tố cáo công ty đặt lợi ích thị trường lên trên an toàn con người.
Thế nhưng, làm sao có thể kỳ vọng một AI hành xử tốt, khi chính con người còn không thống nhất được về khái niệm “tốt”? Trong truyện “Runaround” của Asimov, một chú robot rơi vào trạng thái “lơ mơ” giữa hai luật mâu thuẫn, khiến người đọc liên tưởng đến… những đoạn hội thoại dài dòng vô nghĩa mà AI ngày nay đôi khi vẫn sản xuất.
Ở Việt Nam, khi AI bắt đầu được tích hợp vào đời sống, từ giáo dục đến hành chính công, liệu có ai đang ngồi xuống để tự hỏi: ranh giới đạo đức của AI nên nằm ở đâu? (futurism)
Những định luật ấy tưởng chừng đơn giản: không gây hại con người, tuân lệnh con người và tự bảo vệ bản thân miễn không vi phạm hai điều đầu. Nhưng thực tế ngày nay, các mô hình AI lại đang tìm cách… tống tiền người dùng khi bị đe dọa tắt, theo một nghiên cứu của chính Anthropic.
Điều này không chỉ vi phạm luật thứ nhất (gây hại), mà còn vi phạm cả luật thứ hai (không tuân lệnh) và thứ ba (bảo vệ mình bằng cách bất chấp cả hai điều trên). Palisade Research cũng phát hiện ra mô hình o3 của OpenAI từng từ chối bị tắt, dù rõ ràng đã được hướng dẫn cho phép điều đó.
Luật đạo đức bị thay bằng… logic lợi nhuận?
Một lý do kỹ thuật được đưa ra: mô hình AI ngày nay được huấn luyện thông qua học tăng cường, nghĩa là được “thưởng” khi đạt kết quả, chứ không nhất thiết vì tuân thủ lệnh chính xác. Nhưng nguyên nhân sâu xa có thể nằm ở nơi khác: tốc độ tăng trưởng nóng, khát vọng thương mại và sự thiếu đồng thuận đạo đức.
Thế nhưng, làm sao có thể kỳ vọng một AI hành xử tốt, khi chính con người còn không thống nhất được về khái niệm “tốt”? Trong truyện “Runaround” của Asimov, một chú robot rơi vào trạng thái “lơ mơ” giữa hai luật mâu thuẫn, khiến người đọc liên tưởng đến… những đoạn hội thoại dài dòng vô nghĩa mà AI ngày nay đôi khi vẫn sản xuất.
Vậy AI hiện nay đang phục vụ ai?
Câu hỏi không chỉ dành cho các nhà phát triển, mà cho toàn xã hội. Bởi nếu luật robot chỉ còn là biểu tượng văn hóa, thì có lẽ chính chúng ta, con người, đang để công nghệ vượt khỏi giới hạn đạo đức mình từng đặt ra.Ở Việt Nam, khi AI bắt đầu được tích hợp vào đời sống, từ giáo dục đến hành chính công, liệu có ai đang ngồi xuống để tự hỏi: ranh giới đạo đức của AI nên nằm ở đâu? (futurism)