MinhSec
Writer
Các hệ thống trí tuệ nhân tạo (AI) ngày càng được sử dụng rộng rãi để hỗ trợ công việc và cá nhân hóa trải nghiệm người dùng. Tuy nhiên, theo cảnh báo từ một chuyên gia khoa học dữ liệu, AI cũng đang đặt ra những lo ngại nghiêm trọng về quyền riêng tư và an ninh quốc gia.
Ông Emre Durgut, kỹ sư khoa học dữ liệu cấp cao tại Thổ Nhĩ Kỳ, cho biết nhiều nền tảng AI hiện nay có khả năng phân tích và lập hồ sơ thông tin nhạy cảm của người dùng bao gồm quan điểm chính trị, tín ngưỡng tôn giáo và tình trạng sức khỏe chỉ thông qua các cuộc trò chuyện hoặc tương tác đơn giản. Ông cho rằng khuôn khổ pháp lý hiện nay vẫn còn quá mơ hồ, trong khi nguy cơ bị lạm dụng dữ liệu là rất thực tế.
“Rủi ro lớn nhất là người dùng không biết rằng họ đang bị lập hồ sơ. Nếu việc này diễn ra mà không có sự đồng ý rõ ràng, thì đó là hành vi vi phạm quyền riêng tư,” ông nhấn mạnh.
Các quy định như GDPR của Liên minh châu Âu và KVKK của Thổ Nhĩ Kỳ đều yêu cầu sự đồng ý minh bạch và hạn chế sử dụng dữ liệu nhạy cảm. Nếu AI bí mật tạo ra các hồ sơ dựa trên thông tin cá nhân mà không có sự đồng ý của người dùng, điều này có thể cấu thành hành vi vi phạm pháp luật.
Ông Durgut kết luận: “Trách nhiệm không chỉ thuộc về công nghệ, mà còn là trách nhiệm pháp lý và xã hội. Chúng ta cần một hệ thống quy định rõ ràng hơn để bảo vệ quyền riêng tư của người dùng trong kỷ nguyên AI.”
Ông Emre Durgut, kỹ sư khoa học dữ liệu cấp cao tại Thổ Nhĩ Kỳ, cho biết nhiều nền tảng AI hiện nay có khả năng phân tích và lập hồ sơ thông tin nhạy cảm của người dùng bao gồm quan điểm chính trị, tín ngưỡng tôn giáo và tình trạng sức khỏe chỉ thông qua các cuộc trò chuyện hoặc tương tác đơn giản. Ông cho rằng khuôn khổ pháp lý hiện nay vẫn còn quá mơ hồ, trong khi nguy cơ bị lạm dụng dữ liệu là rất thực tế.

“Rủi ro lớn nhất là người dùng không biết rằng họ đang bị lập hồ sơ. Nếu việc này diễn ra mà không có sự đồng ý rõ ràng, thì đó là hành vi vi phạm quyền riêng tư,” ông nhấn mạnh.
Những lo ngại về pháp lý và đạo đức
Một số cuộc điều tra gần đây cho thấy các công cụ AI như ChatGPT có thể nhận diện các dấu hiệu nhạy cảm thông qua ngôn ngữ người dùng, từ đó cá nhân hóa nội dung trả lời hoặc quảng cáo. Dù các nhà phát triển, bao gồm OpenAI, khẳng định người dùng có quyền từ chối chia sẻ dữ liệu, và các biện pháp bảo vệ kỹ thuật đã được triển khai, nhưng giới chuyên gia vẫn bày tỏ lo ngại.Các quy định như GDPR của Liên minh châu Âu và KVKK của Thổ Nhĩ Kỳ đều yêu cầu sự đồng ý minh bạch và hạn chế sử dụng dữ liệu nhạy cảm. Nếu AI bí mật tạo ra các hồ sơ dựa trên thông tin cá nhân mà không có sự đồng ý của người dùng, điều này có thể cấu thành hành vi vi phạm pháp luật.
Ông Durgut kết luận: “Trách nhiệm không chỉ thuộc về công nghệ, mà còn là trách nhiệm pháp lý và xã hội. Chúng ta cần một hệ thống quy định rõ ràng hơn để bảo vệ quyền riêng tư của người dùng trong kỷ nguyên AI.”
Được phối hợp thực hiện bởi các chuyên gia của Bkav,
cộng đồng An ninh mạng Việt Nam WhiteHat
và cộng đồng Khoa học công nghệ VnReview