Thế Việt
Writer
Theo một báo cáo phân tích từ tờ Wall Street Journal (WSJ), lực lượng quân sự Mỹ tại khu vực Trung Đông đã tiếp tục sử dụng hệ thống trí tuệ nhân tạo Claude của công ty Anthropic trong các hoạt động tác chiến. Đáng chú ý, sự việc này diễn ra chỉ vài giờ sau khi Tổng thống Donald Trump chính thức ban hành sắc lệnh cấm hoàn toàn các cơ quan chính phủ sử dụng công nghệ của doanh nghiệp này, tạo ra một nghịch lý lớn giữa chỉ đạo từ Nhà Trắng và thực tế chiến trường.
Vai trò của Claude trong chiến dịch Epic Fury và "quán tính hoạt động"
Chiến dịch Epic Fury, một chiến dịch quân sự quy mô nhằm vào giới lãnh đạo cấp cao của Iran (bao gồm cả vụ không kích khiến Lãnh tụ Tối cao Ayatollah Ali Khamenei thiệt mạng vào ngày 28/2/2026), có sự tham gia điều phối của nhiều bộ chỉ huy toàn cầu, đặc biệt là Bộ Chỉ huy Trung ương Mỹ (CENTCOM). Các nguồn tin tình báo quen thuộc với vấn đề tiết lộ với WSJ rằng hệ thống Claude đã được tích cực sử dụng trong cả giai đoạn lập kế hoạch và thực thi các cuộc không kích.
Cụ thể, quân đội Mỹ đã ứng dụng khả năng xử lý dữ liệu khổng lồ của Claude để đánh giá tình báo, xác định mục tiêu và mô phỏng các kịch bản chiến đấu. Trước thời điểm diễn ra cuộc tấn công, mô hình này được cho là đã phân tích dữ liệu công khai để dự báo chính xác về một khoảng thời gian rủi ro cao cho hành động quân sự vào đầu tháng 3 năm 2026. Nguyên nhân khiến quân đội Mỹ không thể lập tức tuân thủ sắc lệnh của Tổng thống được các chuyên gia giải thích là do "quán tính hoạt động" và sự phức tạp của các hệ thống máy tính nhúng. Claude đã được tích hợp quá sâu vào các mạng lưới phân tích dữ liệu cốt lõi của Lầu Năm Góc, khiến việc gỡ bỏ hệ thống này ngay trước giờ G của một chiến dịch quân sự khẩn cấp là điều bất khả thi về mặt hậu cần và kỹ thuật.
Xung đột giữa an ninh quốc gia và đạo đức trí tuệ nhân tạo
Sự hiện diện của Claude trong một chiến dịch quân sự mang tính sát thương cao đi ngược lại hoàn toàn với triết lý phát triển của chính Anthropic. Được thành lập vào năm 2021 bởi các cựu lãnh đạo OpenAI, Anthropic định vị Claude là một công cụ AI "hữu ích, trung thực và vô hại", tuân thủ nghiêm ngặt phương pháp đào tạo "Trí tuệ nhân tạo Hiến pháp" (Constitutional AI). Chính sự kiên định với các rào cản đạo đức này đã dẫn đến sự đổ vỡ trong quan hệ hợp tác với Lầu Năm Góc. Vào tháng 2 năm 2026, Anthropic đã kiên quyết từ chối yêu cầu của quân đội Mỹ về việc nới lỏng các hạn chế, từ chối cho phép công nghệ của hãng được sử dụng trong các hệ thống vũ khí tự động hoàn toàn hoặc các hoạt động giám sát đại trà.
Phản ứng trước sự từ chối này, ngày 27/2/2026, Tổng thống Trump đã trực tiếp chỉ thị tất cả các cơ quan liên bang chấm dứt ngay lập tức việc sử dụng sản phẩm của Anthropic, đi kèm tuyên bố cứng rắn rằng chính phủ Mỹ sẽ không bao giờ hợp tác với công ty này nữa. Do sự tích hợp quá sâu rộng vào hạ tầng mạng lưới tình báo mật, Lầu Năm Góc được cấp một khoảng thời gian loại bỏ dần kéo dài sáu tháng. Mặc dù vậy, việc hệ thống AI này vẫn gián tiếp hỗ trợ quy trình ra quyết định trong cuộc không kích trụ sở của ông Khamenei ở Tehran đã phơi bày sự phụ thuộc sâu sắc của bộ máy an ninh quốc gia Mỹ vào các công nghệ AI thương mại.
#AnthropicxungđộtChínhphủMỹ
Vai trò của Claude trong chiến dịch Epic Fury và "quán tính hoạt động"
Chiến dịch Epic Fury, một chiến dịch quân sự quy mô nhằm vào giới lãnh đạo cấp cao của Iran (bao gồm cả vụ không kích khiến Lãnh tụ Tối cao Ayatollah Ali Khamenei thiệt mạng vào ngày 28/2/2026), có sự tham gia điều phối của nhiều bộ chỉ huy toàn cầu, đặc biệt là Bộ Chỉ huy Trung ương Mỹ (CENTCOM). Các nguồn tin tình báo quen thuộc với vấn đề tiết lộ với WSJ rằng hệ thống Claude đã được tích cực sử dụng trong cả giai đoạn lập kế hoạch và thực thi các cuộc không kích.
Cụ thể, quân đội Mỹ đã ứng dụng khả năng xử lý dữ liệu khổng lồ của Claude để đánh giá tình báo, xác định mục tiêu và mô phỏng các kịch bản chiến đấu. Trước thời điểm diễn ra cuộc tấn công, mô hình này được cho là đã phân tích dữ liệu công khai để dự báo chính xác về một khoảng thời gian rủi ro cao cho hành động quân sự vào đầu tháng 3 năm 2026. Nguyên nhân khiến quân đội Mỹ không thể lập tức tuân thủ sắc lệnh của Tổng thống được các chuyên gia giải thích là do "quán tính hoạt động" và sự phức tạp của các hệ thống máy tính nhúng. Claude đã được tích hợp quá sâu vào các mạng lưới phân tích dữ liệu cốt lõi của Lầu Năm Góc, khiến việc gỡ bỏ hệ thống này ngay trước giờ G của một chiến dịch quân sự khẩn cấp là điều bất khả thi về mặt hậu cần và kỹ thuật.
Xung đột giữa an ninh quốc gia và đạo đức trí tuệ nhân tạo
Sự hiện diện của Claude trong một chiến dịch quân sự mang tính sát thương cao đi ngược lại hoàn toàn với triết lý phát triển của chính Anthropic. Được thành lập vào năm 2021 bởi các cựu lãnh đạo OpenAI, Anthropic định vị Claude là một công cụ AI "hữu ích, trung thực và vô hại", tuân thủ nghiêm ngặt phương pháp đào tạo "Trí tuệ nhân tạo Hiến pháp" (Constitutional AI). Chính sự kiên định với các rào cản đạo đức này đã dẫn đến sự đổ vỡ trong quan hệ hợp tác với Lầu Năm Góc. Vào tháng 2 năm 2026, Anthropic đã kiên quyết từ chối yêu cầu của quân đội Mỹ về việc nới lỏng các hạn chế, từ chối cho phép công nghệ của hãng được sử dụng trong các hệ thống vũ khí tự động hoàn toàn hoặc các hoạt động giám sát đại trà.
Phản ứng trước sự từ chối này, ngày 27/2/2026, Tổng thống Trump đã trực tiếp chỉ thị tất cả các cơ quan liên bang chấm dứt ngay lập tức việc sử dụng sản phẩm của Anthropic, đi kèm tuyên bố cứng rắn rằng chính phủ Mỹ sẽ không bao giờ hợp tác với công ty này nữa. Do sự tích hợp quá sâu rộng vào hạ tầng mạng lưới tình báo mật, Lầu Năm Góc được cấp một khoảng thời gian loại bỏ dần kéo dài sáu tháng. Mặc dù vậy, việc hệ thống AI này vẫn gián tiếp hỗ trợ quy trình ra quyết định trong cuộc không kích trụ sở của ông Khamenei ở Tehran đã phơi bày sự phụ thuộc sâu sắc của bộ máy an ninh quốc gia Mỹ vào các công nghệ AI thương mại.
#AnthropicxungđộtChínhphủMỹ