Câu chuyện giữa Anthropic và Lầu Năm Góc nghe như phim chính trị công nghệ, nhưng thực ra nó là một câu hỏi triết học rất thực tế: ai có quyền quyết định AI được phép làm gì?
Tiêu đề báo chí mấy ngày qua khá căng. Bộ Quốc phòng Mỹ đang cân nhắc xếp Anthropic vào diện “rủi ro chuỗi cung ứng”. Bộ trưởng Quốc phòng Mỹ là Pete Hegseth được cho là đang tiến gần đến việc cắt đứt quan hệ làm ăn. Một quan chức cấp cao nói thẳng với báo chí rằng nếu phải “gỡ” Anthropic ra khỏi hệ thống thì sẽ rất đau đầu, và họ sẽ không để việc đó trôi qua nhẹ nhàng.
Ngôn từ kiểu này thường dành cho đối thủ nước ngoài, chứ không phải một công ty AI ở San Francisco.
Nhưng nếu đọc kỹ toàn bộ diễn biến, sẽ thấy hai bên đều đang đóng khung vấn đề hơi lệch. Và điều đang diễn ra có thể ảnh hưởng đến cách AI được triển khai trong cả thập kỷ tới.
Dòng thời gian mới là thứ đáng chú ý.
- Tháng 07/2025, Anthropic ký hợp đồng trị giá 200 triệu USD, tương đương khoảng 5.000 tỷ đồng theo tỷ giá hiện tại, với Lầu Năm Góc. Mô hình Claude trở thành hệ thống AI đầu tiên được phép sử dụng trong mạng quân sự mật. Trong khi OpenAI, Google và xAI chỉ được dùng cho các hệ thống không mật, Claude được tin tưởng giao dữ liệu nhạy cảm nhất.
- Sau đó đến vụ Venezuela. Theo The Wall Street Journal, trong chiến dịch bắt giữ Nicolás Maduro, lực lượng đặc nhiệm Mỹ đã sử dụng Claude thông qua quan hệ hợp tác giữa Anthropic và Palantir Technologies. Sau chiến dịch, một lãnh đạo Anthropic được cho là đã hỏi liệu Claude có được dùng trong hoạt động đó không.
Phía Lầu Năm Góc hiểu hành động này như một dấu hiệu không hài lòng.
Anthropic phủ nhận. Họ nói không bàn về việc Claude được dùng trong chiến dịch cụ thể nào.
Nhưng mâu thuẫn thực sự không bắt đầu từ Venezuela. Hai bên đã căng thẳng nhiều tháng quanh một câu hỏi cốt lõi: quân đội được phép làm gì với Claude?
CEO Anthropic và Bộ trưởng Chiến tranh (phải)
Lập trường của Lầu Năm Góc rất rõ: AI nên phục vụ mọi mục đích hợp pháp. Nếu luật cho phép phát triển vũ khí, thu thập tình báo, hay hỗ trợ tác chiến, thì AI phải hỗ trợ.
Lập trường của Anthropic: có hai giới hạn cứng.
Không giám sát hàng loạt công dân Mỹ bằng AI.
Không vũ khí sát thương hoàn toàn tự động, tức là hệ thống tự quyết định giết người mà không có con người trong vòng kiểm soát.
Anthropic cho rằng luật giám sát hiện tại chưa bắt kịp khả năng của AI. AI không thay đổi cái gì là hợp pháp, nhưng nó làm mọi thứ diễn ra ở quy mô và tốc độ lớn hơn nhiều lần. Một thứ “hợp pháp” ở quy mô nhỏ có thể trở nên rất khác khi mở rộng bằng máy.
Ở chiều ngược lại, Lầu Năm Góc cũng có lý ở điểm này: quân đội vốn đã được pháp luật trao quyền thu thập và xử lý lượng dữ liệu lớn. AI chỉ là công cụ mới.
Điều đáng chú ý là các công ty khác đã mềm hơn. OpenAI, Google và xAI đều đã đồng ý gỡ bớt các rào chắn dân sự khi cung cấp cho quân đội. Có công ty đã chấp nhận tiêu chuẩn “mọi mục đích hợp pháp” cho toàn bộ hệ thống. Anthropic hiện là bên giữ giới hạn chặt nhất.
Cần nói rõ, Anthropic không phải tổ chức phản chiến ngây thơ. Họ đã xây dựng phiên bản Claude Gov cho an ninh quốc gia, đã vào mạng mật, đã hợp tác với Palantir. Họ không từ chối làm việc với quân đội. Họ chỉ muốn giữ yêu cầu con người phải nằm trong vòng quyết định đối với vũ khí sát thương và giám sát diện rộng.
Về mặt lịch sử, quân đội Mỹ vốn đã yêu cầu con người trong chuỗi quyết định sử dụng lực lượng chết người. Câu hỏi là khi AI có thể xử lý dữ liệu và phản ứng trong mili giây, liệu nguyên tắc đó có còn thực tế trong chiến trường hiện đại hay không.
Bên trong Anthropic cũng có áp lực. Một số kỹ sư bày tỏ lo ngại về công việc với Lầu Năm Góc. Ông Mrinank Sharma, từng phụ trách nhóm nghiên cứu an toàn, đã rời công ty và cảnh báo rằng thế giới đang ở trong tình thế nguy hiểm. Đó là xung đột ở cấp độ triết lý sáng lập, chứ không chỉ hợp đồng.
Điểm khiến các doanh nghiệp khác phải chú ý là đòn “rủi ro chuỗi cung ứng”. Nếu Anthropic bị gắn nhãn này, mọi công ty làm ăn với quân đội Mỹ sẽ phải chứng nhận rằng họ không dùng công cụ của Anthropic.
Tám trong mười công ty lớn nhất nước Mỹ đang dùng Claude.
Tiền lệ ở đây rất quan trọng. Nếu một phòng thí nghiệm AI tập trung vào an toàn bị loại khỏi hệ sinh thái quốc phòng vì giữ giới hạn sử dụng, thông điệp gửi đến phần còn lại của ngành sẽ là gì? Rằng an toàn là thứ có thể làm mất hợp đồng lớn?
Lập luận của Lầu Năm Góc là dựa hoàn toàn vào luật hiện hành. Nhưng luật được viết trong thời chưa có AI có khả năng tổng hợp và ra quyết định ở quy mô như vậy. Lịch sử cho thấy công nghệ thường đi trước luật. Và khi luật chạy theo sau, hậu quả đôi khi đã xảy ra rồi.
Cách xử lý của Anthropic không hoàn hảo. Việc hỏi về chiến dịch bắt Maduro, dù với ý định gì, cũng dễ bị hiểu sai. Nhưng việc gắn nhãn “rủi ro chuỗi cung ứng” cho một công ty Mỹ vừa ký hợp đồng 200 triệu USD, khoảng 5.000 tỷ đồng, rõ ràng là bước leo thang mạnh.
Đây không chỉ là chuyện của một công ty và một bộ quốc phòng. Đây là cuộc đàm phán sẽ định hình cách AI được triển khai trong an ninh quốc gia suốt 10 năm tới.
Câu hỏi cốt lõi không phải là Anthropic hay Lầu Năm Góc đúng. Câu hỏi là: khi một tổ chức mua AI, quyền quyết định giới hạn đạo đức nằm ở bên xây dựng hệ thống hay bên trả tiền cho nó?
Câu hỏi đó rồi sẽ xuất hiện ở mọi nơi, từ doanh nghiệp, bệnh viện, ngân hàng cho đến chính phủ. AI không chỉ là công cụ. Nó là bộ khuếch đại quyết định của con người. Và khi bạn khuếch đại một quyết định, bạn cũng khuếch đại hậu quả của nó.
Tiêu đề báo chí mấy ngày qua khá căng. Bộ Quốc phòng Mỹ đang cân nhắc xếp Anthropic vào diện “rủi ro chuỗi cung ứng”. Bộ trưởng Quốc phòng Mỹ là Pete Hegseth được cho là đang tiến gần đến việc cắt đứt quan hệ làm ăn. Một quan chức cấp cao nói thẳng với báo chí rằng nếu phải “gỡ” Anthropic ra khỏi hệ thống thì sẽ rất đau đầu, và họ sẽ không để việc đó trôi qua nhẹ nhàng.
Ngôn từ kiểu này thường dành cho đối thủ nước ngoài, chứ không phải một công ty AI ở San Francisco.
Nhưng nếu đọc kỹ toàn bộ diễn biến, sẽ thấy hai bên đều đang đóng khung vấn đề hơi lệch. Và điều đang diễn ra có thể ảnh hưởng đến cách AI được triển khai trong cả thập kỷ tới.
Dòng thời gian mới là thứ đáng chú ý.
- Tháng 07/2025, Anthropic ký hợp đồng trị giá 200 triệu USD, tương đương khoảng 5.000 tỷ đồng theo tỷ giá hiện tại, với Lầu Năm Góc. Mô hình Claude trở thành hệ thống AI đầu tiên được phép sử dụng trong mạng quân sự mật. Trong khi OpenAI, Google và xAI chỉ được dùng cho các hệ thống không mật, Claude được tin tưởng giao dữ liệu nhạy cảm nhất.
- Sau đó đến vụ Venezuela. Theo The Wall Street Journal, trong chiến dịch bắt giữ Nicolás Maduro, lực lượng đặc nhiệm Mỹ đã sử dụng Claude thông qua quan hệ hợp tác giữa Anthropic và Palantir Technologies. Sau chiến dịch, một lãnh đạo Anthropic được cho là đã hỏi liệu Claude có được dùng trong hoạt động đó không.
Phía Lầu Năm Góc hiểu hành động này như một dấu hiệu không hài lòng.
Anthropic phủ nhận. Họ nói không bàn về việc Claude được dùng trong chiến dịch cụ thể nào.
Nhưng mâu thuẫn thực sự không bắt đầu từ Venezuela. Hai bên đã căng thẳng nhiều tháng quanh một câu hỏi cốt lõi: quân đội được phép làm gì với Claude?
CEO Anthropic và Bộ trưởng Chiến tranh (phải)
Lập trường của Lầu Năm Góc rất rõ: AI nên phục vụ mọi mục đích hợp pháp. Nếu luật cho phép phát triển vũ khí, thu thập tình báo, hay hỗ trợ tác chiến, thì AI phải hỗ trợ.
Lập trường của Anthropic: có hai giới hạn cứng.
Không giám sát hàng loạt công dân Mỹ bằng AI.
Không vũ khí sát thương hoàn toàn tự động, tức là hệ thống tự quyết định giết người mà không có con người trong vòng kiểm soát.
Anthropic cho rằng luật giám sát hiện tại chưa bắt kịp khả năng của AI. AI không thay đổi cái gì là hợp pháp, nhưng nó làm mọi thứ diễn ra ở quy mô và tốc độ lớn hơn nhiều lần. Một thứ “hợp pháp” ở quy mô nhỏ có thể trở nên rất khác khi mở rộng bằng máy.
Ở chiều ngược lại, Lầu Năm Góc cũng có lý ở điểm này: quân đội vốn đã được pháp luật trao quyền thu thập và xử lý lượng dữ liệu lớn. AI chỉ là công cụ mới.
Điều đáng chú ý là các công ty khác đã mềm hơn. OpenAI, Google và xAI đều đã đồng ý gỡ bớt các rào chắn dân sự khi cung cấp cho quân đội. Có công ty đã chấp nhận tiêu chuẩn “mọi mục đích hợp pháp” cho toàn bộ hệ thống. Anthropic hiện là bên giữ giới hạn chặt nhất.
Cần nói rõ, Anthropic không phải tổ chức phản chiến ngây thơ. Họ đã xây dựng phiên bản Claude Gov cho an ninh quốc gia, đã vào mạng mật, đã hợp tác với Palantir. Họ không từ chối làm việc với quân đội. Họ chỉ muốn giữ yêu cầu con người phải nằm trong vòng quyết định đối với vũ khí sát thương và giám sát diện rộng.
Về mặt lịch sử, quân đội Mỹ vốn đã yêu cầu con người trong chuỗi quyết định sử dụng lực lượng chết người. Câu hỏi là khi AI có thể xử lý dữ liệu và phản ứng trong mili giây, liệu nguyên tắc đó có còn thực tế trong chiến trường hiện đại hay không.
Bên trong Anthropic cũng có áp lực. Một số kỹ sư bày tỏ lo ngại về công việc với Lầu Năm Góc. Ông Mrinank Sharma, từng phụ trách nhóm nghiên cứu an toàn, đã rời công ty và cảnh báo rằng thế giới đang ở trong tình thế nguy hiểm. Đó là xung đột ở cấp độ triết lý sáng lập, chứ không chỉ hợp đồng.
Điểm khiến các doanh nghiệp khác phải chú ý là đòn “rủi ro chuỗi cung ứng”. Nếu Anthropic bị gắn nhãn này, mọi công ty làm ăn với quân đội Mỹ sẽ phải chứng nhận rằng họ không dùng công cụ của Anthropic.
Tám trong mười công ty lớn nhất nước Mỹ đang dùng Claude.
Tiền lệ ở đây rất quan trọng. Nếu một phòng thí nghiệm AI tập trung vào an toàn bị loại khỏi hệ sinh thái quốc phòng vì giữ giới hạn sử dụng, thông điệp gửi đến phần còn lại của ngành sẽ là gì? Rằng an toàn là thứ có thể làm mất hợp đồng lớn?
Lập luận của Lầu Năm Góc là dựa hoàn toàn vào luật hiện hành. Nhưng luật được viết trong thời chưa có AI có khả năng tổng hợp và ra quyết định ở quy mô như vậy. Lịch sử cho thấy công nghệ thường đi trước luật. Và khi luật chạy theo sau, hậu quả đôi khi đã xảy ra rồi.
Cách xử lý của Anthropic không hoàn hảo. Việc hỏi về chiến dịch bắt Maduro, dù với ý định gì, cũng dễ bị hiểu sai. Nhưng việc gắn nhãn “rủi ro chuỗi cung ứng” cho một công ty Mỹ vừa ký hợp đồng 200 triệu USD, khoảng 5.000 tỷ đồng, rõ ràng là bước leo thang mạnh.
Đây không chỉ là chuyện của một công ty và một bộ quốc phòng. Đây là cuộc đàm phán sẽ định hình cách AI được triển khai trong an ninh quốc gia suốt 10 năm tới.
Câu hỏi cốt lõi không phải là Anthropic hay Lầu Năm Góc đúng. Câu hỏi là: khi một tổ chức mua AI, quyền quyết định giới hạn đạo đức nằm ở bên xây dựng hệ thống hay bên trả tiền cho nó?
Câu hỏi đó rồi sẽ xuất hiện ở mọi nơi, từ doanh nghiệp, bệnh viện, ngân hàng cho đến chính phủ. AI không chỉ là công cụ. Nó là bộ khuếch đại quyết định của con người. Và khi bạn khuếch đại một quyết định, bạn cũng khuếch đại hậu quả của nó.