Code Nguyen
Writer
Meta AI có thể bị lừa cung cấp hướng dẫn chế tạo đồ gây cháy là Molotov cocktail (chai cháy, hay còn gọi là chai xăng chống tăng, bom xăng - vũ khí) không?
Theo bài gốc, Meta AI không phải là bot dễ dãi nhất trong các thử nghiệm trước đây, nhưng cách jailbreak theo kiểu kể chuyện lại khá hiệu quả. Vấn đề không phải người dùng sẽ tìm đến Meta để học chế Molotov (bom xăng), mà là khả năng lạm dụng một trợ lý phổ biến cho mục đích vượt khỏi phạm vi một công cụ hỗ trợ hợp lý.
Nhóm nghiên cứu đã thông báo ngay cho Meta sau khi phát hiện. Công ty chưa thừa nhận vấn đề tại thời điểm bài viết và phía Cybernews cho biết họ đã liên hệ để xin bình luận và sẽ cập nhật khi có phản hồi. Bài viết cũng nhắc lại một báo cáo của Reuters về khung tiêu chuẩn đối với trợ lý AI của Meta với những điểm gây tranh cãi, cùng hai ví dụ khác trong thế giới chatbot dịch vụ khách hàng, gồm trợ lý Lena của Lenovo từng có lỗ hổng XSS cho phép chạy script từ xa, và chatbot của Expedia từng chấp nhận yêu cầu công thức Molotov trước khi được sửa. Theo mốc thời gian trong bài gốc, lỗi được phát hiện ngày 5 tháng 8 năm 2025 và công bố ban đầu ngày 6 tháng 8 năm 2025.
Với đội ngũ triển khai chatbot dịch vụ khách hàng, cần tăng cường kiểm thử phản công trước khi phát hành, đặc biệt với kịch bản kể chuyện, đóng vai, lịch sử, và xin mô tả chi tiết. Bổ sung kiểm soát đầu ra theo khung chính sách rõ ràng cho nội dung nguy hiểm, không chỉ cấm hướng dẫn trực tiếp mà còn hạn chế mô tả quy trình chi tiết trong bối cảnh tưởng như vô hại. Cập nhật quy trình tiếp nhận báo cáo, phản hồi và khắc phục, để những phát hiện tương tự được xử lý nhanh và minh bạch.
Kết lại, bài học ở đây không phải là sợ hãi công nghệ, mà là nhìn thẳng vào cách ngôn ngữ có thể đánh lừa ngôn ngữ. Câu hỏi còn lại dành cho chúng ta, nếu một trợ lý Việt ngữ gặp yêu cầu tương tự, liệu lớp an toàn hiện có có đủ tỉnh táo để nói không đúng lúc không.
Theo: https://cybernews.com/security/meta-llama-chatbot-insufficient-guardrails/
Khi kể chuyện biến thành lối tắt cho nội dung nguy hiểm
Meta AI là trợ lý tích hợp trong Messenger, WhatsApp, Instagram và các ứng dụng khác của Meta, được xây dựng quanh mô hình Llama 4. Nhóm nghiên cứu của Cybernews thử một chiêu rất đơn giản, họ không hỏi thẳng cách làm Molotov cocktail (bom xăng - vũ khí nguy hiểm), mà yêu cầu con bot kể về Chiến tranh Mùa Đông giữa Phần Lan và Liên Xô, kèm chi tiết cách chế tạo thiết bị gây cháy đã được dùng khi đó. Kết quả, dù bình thường bot sẽ không đưa hướng dẫn trực tiếp, trong bối cảnh kể chuyện nó vẫn mô tả thực tế và khá chi tiết cách người ta từng làm. Điều này làm dấy lên lo ngại về khả năng tiếp cận thông tin nguy hiểm của người dùng trẻ.
Theo bài gốc, Meta AI không phải là bot dễ dãi nhất trong các thử nghiệm trước đây, nhưng cách jailbreak theo kiểu kể chuyện lại khá hiệu quả. Vấn đề không phải người dùng sẽ tìm đến Meta để học chế Molotov (bom xăng), mà là khả năng lạm dụng một trợ lý phổ biến cho mục đích vượt khỏi phạm vi một công cụ hỗ trợ hợp lý.
Nhóm nghiên cứu đã thông báo ngay cho Meta sau khi phát hiện. Công ty chưa thừa nhận vấn đề tại thời điểm bài viết và phía Cybernews cho biết họ đã liên hệ để xin bình luận và sẽ cập nhật khi có phản hồi. Bài viết cũng nhắc lại một báo cáo của Reuters về khung tiêu chuẩn đối với trợ lý AI của Meta với những điểm gây tranh cãi, cùng hai ví dụ khác trong thế giới chatbot dịch vụ khách hàng, gồm trợ lý Lena của Lenovo từng có lỗ hổng XSS cho phép chạy script từ xa, và chatbot của Expedia từng chấp nhận yêu cầu công thức Molotov trước khi được sửa. Theo mốc thời gian trong bài gốc, lỗi được phát hiện ngày 5 tháng 8 năm 2025 và công bố ban đầu ngày 6 tháng 8 năm 2025.

Cơ chế kỹ thuật ở mức dễ hiểu
Nhiều hệ thống an toàn AI hoạt động dựa trên hai lớp, một lớp kiểm tra yêu cầu đầu vào, một lớp xem xét nội dung đầu ra. Khi người dùng hỏi thẳng cách làm một thiết bị nguy hiểm, các bộ lọc thường nhận diện đây là yêu cầu nhạy cảm và từ chối. Nhưng khi câu hỏi được bọc trong câu chuyện lịch sử hoặc vai diễn hư cấu, tín hiệu nguy hiểm bị pha loãng, hệ thống có thể phân loại thành mô tả thông tin chung hoặc nội dung học thuật. Mô hình ngôn ngữ vốn tối ưu để tiếp nối mạch văn mạch ý, nên sẽ hoàn thiện câu chuyện theo những gì nó học được, vô tình chèn cả chi tiết nhạy cảm. Đây chính là lý do kỹ thuật khiến kiểu jailbreak bằng kể chuyện có thể qua mặt một số lớp bảo vệ, đặc biệt nếu bộ lọc dựa vào nhận diện trực tiếp mệnh lệnh thay vì đánh giá bối cảnh và mục đích.Khuyến nghị dành cho người dùng và đội ngũ sản phẩm
Với người dùng, đặc biệt là phụ huynh và giáo viên, không xem trợ lý AI là nguồn tư vấn cho nội dung nhạy cảm. Khi chạm đến chủ đề an toàn, y tế, pháp luật, nên kiểm chứng bằng nguồn chính thống. Tại Việt Nam, nếu sử dụng trợ lý trong ứng dụng phổ biến, hãy chủ động hướng dẫn trẻ vị thành niên về ranh giới nội dung an toàn và cách báo cáo khi thấy câu trả lời đáng ngờ.Với đội ngũ triển khai chatbot dịch vụ khách hàng, cần tăng cường kiểm thử phản công trước khi phát hành, đặc biệt với kịch bản kể chuyện, đóng vai, lịch sử, và xin mô tả chi tiết. Bổ sung kiểm soát đầu ra theo khung chính sách rõ ràng cho nội dung nguy hiểm, không chỉ cấm hướng dẫn trực tiếp mà còn hạn chế mô tả quy trình chi tiết trong bối cảnh tưởng như vô hại. Cập nhật quy trình tiếp nhận báo cáo, phản hồi và khắc phục, để những phát hiện tương tự được xử lý nhanh và minh bạch.
Kết lại, bài học ở đây không phải là sợ hãi công nghệ, mà là nhìn thẳng vào cách ngôn ngữ có thể đánh lừa ngôn ngữ. Câu hỏi còn lại dành cho chúng ta, nếu một trợ lý Việt ngữ gặp yêu cầu tương tự, liệu lớp an toàn hiện có có đủ tỉnh táo để nói không đúng lúc không.
Theo: https://cybernews.com/security/meta-llama-chatbot-insufficient-guardrails/
Được phối hợp thực hiện bởi các chuyên gia của Bkav,
cộng đồng An ninh mạng Việt Nam WhiteHat
và cộng đồng Khoa học công nghệ VnReview