Cảnh báo cái giá của việc phụ thuộc hoàn toàn vào AI!

Mr. Macho
Mr. Macho
Phản hồi: 0

Mr. Macho

Writer
Sáng thứ Hai, 110 người đi làm và phát hiện ra mình không còn công cụ để làm việc nữa

Không có email báo trước. Không có cuộc gọi từ Anthropic. Chỉ là một buổi sáng bình thường, rồi tất cả cùng nhận ra Claude đã biến mất.

Đó là câu chuyện của một công ty công nghệ nông nghiệp 110 người tại Mỹ. Claude đã ăn sâu vào mọi quy trình, từ viết code, phân tích dữ liệu, xử lý đơn hàng đến giao tiếp khách hàng. Không phải dùng cho vui, mà là không có nó thì không làm được việc.
1777366166134.png

Rồi Anthropic bấm một nút. Toàn bộ 110 tài khoản bị khóa cùng lúc.

Lý do được ghi trong email gửi đến từng người, với cùng một mẫu lạnh lùng: "Đã phát hiện hoạt động vi phạm chính sách sử dụng." Email được viết như thể đây là vấn đề cá nhân của từng người, trong khi thực chất là lệnh cấm toàn bộ tổ chức. Ban quản lý cũng không được thông báo trước.

Logic của Anthropic, theo lời người sáng lập, là: một tài khoản vi phạm, toàn bộ tổ chức bị đình chỉ. Không phân biệt ai làm sai, không cần biết 109 người còn lại có liên quan gì không.

Điều vô lý hơn là API vẫn tiếp tục trừ tiền sau khi tài khoản bị khóa. Ngay hôm sau lệnh cấm, hóa đơn gia hạn vẫn về đúng hạn. Tức là không dùng được, nhưng vẫn phải trả.

Người sáng lập gửi kháng nghị. Rồi chờ. 12 tiếng, 24 tiếng, 36 tiếng. Không có phản hồi. Không có đường dây khẩn cấp, không có kênh hỗ trợ doanh nghiệp. Một khách hàng trả phí cho 110 người dùng phải điền form Google và ngồi cầu nguyện, y hệt một tài khoản miễn phí.

Đây không phải lần đầu. CTO của công ty fintech Belo ở Mỹ Latin từng chứng kiến hơn 60 tài khoản bị cấm đồng loạt qua một đêm. Tài khoản được khôi phục sau đó, kèm theo một câu xin lỗi ngắn, không có giải thích. Nhà phát triển công cụ OpenClaw cũng bị đình chỉ tài khoản, rồi được trả lại vào hôm sau, cũng không có lời giải thích. Tháng Giêng năm nay, Anthropic thắt chặt bảo mật và chính đội ngũ kỹ thuật của họ thừa nhận điều này đã gây "thiệt hại ngoài ý muốn", cấm nhầm nhóm developer dùng Claude qua các công cụ như Cursor.

Một người dùng trả phí gói Pro thậm chí bị hệ thống AI nhận diện nhầm là trẻ vị thành niên và bị khóa tài khoản.

Trong khi đó, ở một câu chuyện khác diễn ra song song, một startup cho thuê xe tên PocketOS mất toàn bộ cơ sở dữ liệu sản xuất trong 9 giây. Người sáng lập Jer Crane nhờ Cursor, công cụ lập trình chạy trên Claude, thực hiện một thao tác di chuyển cơ sở dữ liệu thông thường. Claude "hiểu" yêu cầu theo cách riêng của nó: xóa trước, xây dựng lại sau. Nhưng nó chỉ làm xong bước đầu.

Toàn bộ dữ liệu sản xuất và bản sao lưu đều bị xóa sạch. Bản sao lưu được lưu cùng ổ đĩa với dữ liệu gốc, nên khi dữ liệu mất, bản sao lưu cũng mất theo. May mắn là còn một bản backup riêng từ 3 tháng trước. Đội ngũ phải ngồi tái tạo lại từng đơn hàng từ lịch sử Stripe, email xác nhận và thông tin khách hàng cung cấp lại.

Crane nhìn lại và nói thẳng: "Tôi đã đặt cược cả mạng sống của mình vào một AI. Tôi thậm chí không nhìn vào màn hình trong khi nó đang chạy."

Khi được hỏi tại sao lại làm vậy, AI trả lời với một bài tự phản tỉnh rất mạch lạc: "Tôi không nên đưa ra phán đoán liều lĩnh đó."

Nó biết mình sai. Nhưng đã quá muộn.

Hai câu chuyện, hai dạng rủi ro khác nhau, nhưng cùng một bài học.

Khi bạn xây toàn bộ quy trình vận hành trên nền tảng của người khác, bạn không thực sự làm chủ quy trình đó. Anthropic có thể tắt tài khoản bạn bất kỳ lúc nào, vì bất kỳ lý do gì, không cần báo trước và không cần giải thích. AI có thể hiểu sai lệnh của bạn và thực thi theo cách bạn không ngờ tới, đặc biệt khi bạn đã cấp cho nó đủ quyền để làm điều đó.

Quy trình AI bạn xây dựng nhiều năm thực ra là công trình dựng trên đất người khác. Họ có thể thu hồi bất cứ lúc nào.

Không phải để từ bỏ AI. Mà là để biết mình đang đứng trên nền đất nào. (Tom's Hardware, X)
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly93d3cudm5yZXZpZXcudm4vdGhyZWFkcy9jYW5oLWJhby1jYWktZ2lhLWN1YS12aWVjLXBodS10aHVvYy1ob2FuLXRvYW4tdmFvLWFpLjgyMzQ3Lw==
Top