Duy Linh
Writer
Microsoft vừa công bố loạt biện pháp bảo mật mới nhằm bảo vệ các mô hình AI tạo sinh được triển khai trên Azure AI Foundry, trong bối cảnh doanh nghiệp ngày càng tích hợp AI vào các quy trình quan trọng.
Sự phát triển nhanh của AI tạo sinh, với các mô hình mới liên tục được phát hành, đang làm gia tăng lo ngại về độ tin cậy, bảo mật dữ liệu và rủi ro chuỗi cung ứng. Microsoft nhấn mạnh rằng bảo mật cần phát triển song song với đổi mới, đặc biệt khi AI đã đi sâu vào môi trường sản xuất.
Khi đó, rủi ro không chỉ nằm ở ứng dụng mà còn mở rộng đến chính mô hình AI và hạ tầng vận hành.
Các mô hình AI không có khả năng tự thoát khỏi môi trường thực thi. Thay vào đó, chúng bị giới hạn trong hạ tầng bảo mật của Azure, vốn được thiết kế để chống lại các hành vi xâm nhập.
Cách tiếp cận này giúp đảm bảo rằng ngay cả khi một mô hình hoạt động bất thường, nó cũng không thể ảnh hưởng đến hệ thống tổng thể của Microsoft hoặc các khách hàng khác.
Các dịch vụ như Azure AI Foundry và Azure OpenAI Service đều vận hành trong môi trường do Microsoft kiểm soát hoàn toàn, không có kết nối thời gian thực với nhà cung cấp bên ngoài, kể cả các đối tác như OpenAI.
Hoạt động tinh chỉnh mô hình chỉ diễn ra trong phạm vi tài khoản của khách hàng. Dữ liệu đầu vào, đầu ra và nhật ký được coi là tài sản của khách hàng và được bảo vệ tương tự dữ liệu doanh nghiệp như email hoặc tài liệu.
Ngoài ra, Microsoft triển khai nhiều lớp kiểm tra bảo mật trước khi đưa mô hình vào danh mục sử dụng:
Tuy nhiên, Microsoft cũng thừa nhận không có hệ thống quét nào đảm bảo an toàn tuyệt đối. Doanh nghiệp vẫn cần tự đánh giá mô hình dựa trên độ tin cậy, nguồn gốc và mức độ phù hợp với mục đích sử dụng.
Azure hỗ trợ điều này bằng cách tích hợp với hệ sinh thái bảo mật của Microsoft, cho phép giám sát, phát hiện mối đe dọa và quản trị trên toàn bộ hệ thống AI.
Microsoft khuyến nghị doanh nghiệp xem các mô hình AI như phần mềm bên thứ ba, cần được kiểm tra liên tục, đánh giá rủi ro và tuân thủ chính sách bảo mật nội bộ.
Với các biện pháp như cách ly người dùng, không chia sẻ dữ liệu và giám sát liên tục, Microsoft định vị Azure AI Foundry là nền tảng an toàn cho phát triển AI. Cách tiếp cận này cho thấy xu hướng tích hợp bảo mật trực tiếp vào nền tảng AI, nhằm giảm thiểu rủi ro khi ứng dụng AI ngày càng mở rộng.
Sự phát triển nhanh của AI tạo sinh, với các mô hình mới liên tục được phát hành, đang làm gia tăng lo ngại về độ tin cậy, bảo mật dữ liệu và rủi ro chuỗi cung ứng. Microsoft nhấn mạnh rằng bảo mật cần phát triển song song với đổi mới, đặc biệt khi AI đã đi sâu vào môi trường sản xuất.
Khi đó, rủi ro không chỉ nằm ở ứng dụng mà còn mở rộng đến chính mô hình AI và hạ tầng vận hành.
Kiến trúc zero trust và cách ly mô hình AI
Microsoft cho biết toàn bộ mô hình AI trên Azure AI Foundry hoạt động theo kiến trúc Zero Trust. Các mô hình được coi như phần mềm không đáng tin cậy và chạy trong môi trường Máy ảo Azure (VM) với cơ chế cách ly nghiêm ngặt và xác minh liên tục.Các mô hình AI không có khả năng tự thoát khỏi môi trường thực thi. Thay vào đó, chúng bị giới hạn trong hạ tầng bảo mật của Azure, vốn được thiết kế để chống lại các hành vi xâm nhập.
Cách tiếp cận này giúp đảm bảo rằng ngay cả khi một mô hình hoạt động bất thường, nó cũng không thể ảnh hưởng đến hệ thống tổng thể của Microsoft hoặc các khách hàng khác.
Bảo mật dữ liệu và quản trị mô hình AI
Một trong những lo ngại lớn nhất khi triển khai AI là cách xử lý dữ liệu. Microsoft khẳng định dữ liệu khách hàng không được sử dụng để huấn luyện các mô hình dùng chung và không bị chia sẻ với bên thứ ba.Các dịch vụ như Azure AI Foundry và Azure OpenAI Service đều vận hành trong môi trường do Microsoft kiểm soát hoàn toàn, không có kết nối thời gian thực với nhà cung cấp bên ngoài, kể cả các đối tác như OpenAI.
Hoạt động tinh chỉnh mô hình chỉ diễn ra trong phạm vi tài khoản của khách hàng. Dữ liệu đầu vào, đầu ra và nhật ký được coi là tài sản của khách hàng và được bảo vệ tương tự dữ liệu doanh nghiệp như email hoặc tài liệu.
Ngoài ra, Microsoft triển khai nhiều lớp kiểm tra bảo mật trước khi đưa mô hình vào danh mục sử dụng:
- Phân tích phần mềm độc hại nhằm phát hiện mã độc nhúng
- Đánh giá lỗ hổng dựa trên các CVE đã biết và nguy cơ zero-day
- Phát hiện cửa hậu với các hành vi như thực thi mã trái phép hoặc liên lạc mạng bất thường
- Kiểm tra tính toàn vẹn của mô hình để phát hiện thay đổi trái phép
Tuy nhiên, Microsoft cũng thừa nhận không có hệ thống quét nào đảm bảo an toàn tuyệt đối. Doanh nghiệp vẫn cần tự đánh giá mô hình dựa trên độ tin cậy, nguồn gốc và mức độ phù hợp với mục đích sử dụng.
Azure hỗ trợ điều này bằng cách tích hợp với hệ sinh thái bảo mật của Microsoft, cho phép giám sát, phát hiện mối đe dọa và quản trị trên toàn bộ hệ thống AI.
Microsoft khuyến nghị doanh nghiệp xem các mô hình AI như phần mềm bên thứ ba, cần được kiểm tra liên tục, đánh giá rủi ro và tuân thủ chính sách bảo mật nội bộ.
Với các biện pháp như cách ly người dùng, không chia sẻ dữ liệu và giám sát liên tục, Microsoft định vị Azure AI Foundry là nền tảng an toàn cho phát triển AI. Cách tiếp cận này cho thấy xu hướng tích hợp bảo mật trực tiếp vào nền tảng AI, nhằm giảm thiểu rủi ro khi ứng dụng AI ngày càng mở rộng.
Đọc chi tiết tại đây: gbhackers
Được phối hợp thực hiện bởi các chuyên gia của Bkav,
cộng đồng An ninh mạng Việt Nam WhiteHat
và cộng đồng Khoa học công nghệ VnReview