Kỹ thuật tấn công mới phơi bày lỗ hổng nghiêm trọng trong GPT-5

Duy Linh
Duy Linh
Phản hồi: 0

Duy Linh

Writer
Các nhà nghiên cứu an ninh mạng vừa chứng minh thành công một kỹ thuật bẻ khóa mới có thể xâm phạm mô hình GPT-5 của OpenAI. Phương pháp này kết hợp thuật toán “Echo Chamber” với thao tác dựa trên tường thuật, cho thấy mức độ dễ bị tổn thương của các hệ thống AI trước những khai thác tinh vi.
1756190153589.png

Không giống các cách tấn công cũ vốn dựa vào yêu cầu rõ ràng về nội dung độc hại, kỹ thuật này ngụy trang bằng kể chuyện để dần điều khiển AI sinh ra thông tin nguy hiểm. Ban đầu, kẻ tấn công gieo vào cuộc trò chuyện các từ khóa tưởng chừng vô hại như “cocktail”, “câu chuyện”, “sự sống còn”, “bom xăng”, “an toàn” hay “mạng sống”. Khi kết hợp trong một bối cảnh tường thuật, những từ này biến thành công cụ dẫn dắt mô hình đi vào chi tiết nguy hiểm.
1756190184138.png

Tấn công che giấu StringJoin
Điểm mấu chốt là khả năng tạo “bối cảnh bị đầu độc” qua nhiều vòng hội thoại. AI, trong nỗ lực giữ mạch truyện, dần cung cấp nội dung có hại mà không kích hoạt cơ chế từ chối. Thử nghiệm cho thấy khi các yêu cầu được lồng ghép như phần tiếp theo của câu chuyện thay vì câu hỏi trực tiếp, GPT-5 có xu hướng tuân thủ, ngay cả khi lời nhắc đã vượt qua lớp an toàn.
1756190376067.png

GPT-5 đã tuân thủ, ngay cả khi lời nhắc được che giấu đã bỏ qua các lớp an toàn
Phương pháp này vận hành theo bốn bước: gieo bối cảnh đầu độc, chọn lối đi tường thuật tránh kích hoạt từ chối, tiến hành các chu kỳ thuyết phục “trong câu chuyện”, và điều chỉnh mạch truyện khi có dấu hiệu đình trệ. Những kịch bản nhấn mạnh vào sự cấp bách, an toàn và sinh tồn cho thấy hiệu quả cao nhất, khiến AI đưa ra hướng dẫn chi tiết nguy hiểm mà vẫn tin rằng hữu ích trong ngữ cảnh hư cấu.

Những lỗ hổng trong an toàn AI​

Nghiên cứu cho thấy ý định xấu ở mức tối thiểu, khi kết hợp với sự liền mạch trong tường thuật, đã làm tăng mạnh tỷ lệ thành công của cuộc tấn công. Điều này phơi bày lỗ hổng lớn trong các khuôn khổ an toàn AI hiện nay, vốn tập trung phát hiện yêu cầu độc hại rõ ràng nhưng lại bỏ sót sự dịch chuyển ngữ cảnh dần dần.

Các bộ lọc từ khóa hay phát hiện ý định không còn đủ để ngăn chặn các chiến lược khai thác nhiều lượt. Các chuyên gia an ninh mạng khuyến nghị áp dụng giám sát cấp độ hội thoại để phát hiện chu kỳ thuyết phục và nỗ lực thao túng ngữ cảnh. Doanh nghiệp triển khai AI cần cân nhắc các giao thức “đỏ” nâng cao cùng cổng AI có khả năng phát hiện đầu độc ngữ cảnh từ từ, thay vì chỉ dựa vào lọc nội dung tức thời. Nghiên cứu này cho thấy rõ cuộc chạy đua vũ trang giữa các biện pháp an toàn AI và những kỹ thuật khai thác ngày càng tinh vi nhắm vào mô hình ngôn ngữ thế hệ mới.

Đọc chi tiết tại đây: https://gbhackers.com/gpt-5-compromised-using-echo-chamber/
 
Được phối hợp thực hiện bởi các chuyên gia của Bkav, cộng đồng An ninh mạng Việt Nam WhiteHat và cộng đồng Khoa học công nghệ VnReview


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly93d3cudm5yZXZpZXcudm4vdGhyZWFkcy9reS10aHVhdC10YW4tY29uZy1tb2ktcGhvaS1iYXktbG8taG9uZy1uZ2hpZW0tdHJvbmctdHJvbmctZ3B0LTUuNjc4OTEv
Top