Cục Điều tra Liên bang Mỹ (FBI) vừa công bố hai bức ảnh mờ ghi lại hình ảnh đối tượng tình nghi trong vụ xả súng khiến nhà hoạt động chính trị Charlie Kirk - đồng minh của ông Trump - thiệt mạng. Tuy nhiên, ngay sau đó, một hiện tượng đáng lo ngại đã xảy ra: cộng đồng mạng đã sử dụng các công cụ trí tuệ nhân tạo (AI) để "làm nét" và tạo ra hàng loạt các phiên bản ảnh nâng cấp, gây ra nguy cơ nhiễu loạn và cản trở cuộc điều tra.
Ảnh gốc được FPI công bố về nghi phạm ám sát Charlie Kirk - đồng minh của ông Trump
Do các bức ảnh gốc mà FBI công bố khá mờ, nhiều người dùng mạng xã hội đã nhanh chóng sử dụng các công cụ AI tạo sinh như Grok, ChatGPT hay Gemini để "cải thiện" chất lượng hình ảnh với hy vọng có thể giúp nhận diện nghi phạm.
Tuy nhiên, các chuyên gia cảnh báo rằng những hình ảnh này, dù trông có vẻ sắc nét hơn, thực chất chỉ là sản phẩm của sự suy đoán. AI không có khả năng "khám phá" các chi tiết bị ẩn giấu trong một bức ảnh mờ. Thay vào đó, nó sẽ "bịa" ra các chi tiết mới, lấp đầy các khoảng trống dựa trên dữ liệu mà nó đã được học.
Kết quả là hàng loạt các phiên bản ảnh nâng cấp đã được đăng tải, nhưng không có khuôn mặt nào giống nhau. Một số hình ảnh thậm chí còn cho thấy những sai lệch rõ ràng, chẳng hạn như thay đổi màu áo của nghi phạm hoặc tạo ra các đặc điểm khuôn mặt bị cường điệu hóa một cách phi thực tế.
Hàng loạt ảnh "làm nét" bằng AI của nghi phạm trong vụ ám sát Charlie Kirk, nhưng mỗi ảnh lại ra một khuôn mặt khác nhau
Vụ việc này đã làm nổi bật một vấn đề cực kỳ nguy hiểm: việc sử dụng AI một cách thiếu kiểm soát trong các cuộc điều tra hình sự. Thay vì giúp đỡ, việc tung ra hàng loạt các hình ảnh sai lệch có thể sẽ gây nhiễu loạn thông tin, hướng cuộc điều tra đi sai hướng và thậm chí là dẫn đến việc buộc tội oan người vô tội.
Đây không phải là lần đầu tiên công nghệ này gây ra các kết quả sai lệch. Trong quá khứ, đã có trường hợp một bức ảnh mờ của cựu Tổng thống Barack Obama bị AI "nâng cấp" thành hình ảnh của một người đàn ông da trắng.
Bản thân FBI trong thông báo của mình cũng chỉ công bố các bức ảnh gốc và kêu gọi công chúng cung cấp thông tin dựa trên những gì họ thực sự nhìn thấy. Tuy nhiên, làn sóng "tự nâng cấp ảnh" trên mạng xã hội đã cho thấy một sự thiếu hiểu biết về cách thức hoạt động của AI.
Trong bối cảnh AI ngày càng trở nên phổ biến, vụ việc lần này là một lời cảnh báo mạnh mẽ. Các hình ảnh do AI tạo ra, dù trông có thật đến đâu, cũng không đồng nghĩa với việc chúng đáng tin cậy. Đặc biệt là trong các cuộc điều tra nhạy cảm liên quan đến an ninh và tính mạng con người, việc lan truyền các thông tin không chính xác có thể sẽ dẫn đến những hậu quả cực kỳ nghiêm trọng.

Ảnh gốc được FPI công bố về nghi phạm ám sát Charlie Kirk - đồng minh của ông Trump
Những bức ảnh "nâng cấp" sai lệch
Do các bức ảnh gốc mà FBI công bố khá mờ, nhiều người dùng mạng xã hội đã nhanh chóng sử dụng các công cụ AI tạo sinh như Grok, ChatGPT hay Gemini để "cải thiện" chất lượng hình ảnh với hy vọng có thể giúp nhận diện nghi phạm.
Tuy nhiên, các chuyên gia cảnh báo rằng những hình ảnh này, dù trông có vẻ sắc nét hơn, thực chất chỉ là sản phẩm của sự suy đoán. AI không có khả năng "khám phá" các chi tiết bị ẩn giấu trong một bức ảnh mờ. Thay vào đó, nó sẽ "bịa" ra các chi tiết mới, lấp đầy các khoảng trống dựa trên dữ liệu mà nó đã được học.
Kết quả là hàng loạt các phiên bản ảnh nâng cấp đã được đăng tải, nhưng không có khuôn mặt nào giống nhau. Một số hình ảnh thậm chí còn cho thấy những sai lệch rõ ràng, chẳng hạn như thay đổi màu áo của nghi phạm hoặc tạo ra các đặc điểm khuôn mặt bị cường điệu hóa một cách phi thực tế.

Hàng loạt ảnh "làm nét" bằng AI của nghi phạm trong vụ ám sát Charlie Kirk, nhưng mỗi ảnh lại ra một khuôn mặt khác nhau
Khi AI trở thành công cụ "phá hoại"
Vụ việc này đã làm nổi bật một vấn đề cực kỳ nguy hiểm: việc sử dụng AI một cách thiếu kiểm soát trong các cuộc điều tra hình sự. Thay vì giúp đỡ, việc tung ra hàng loạt các hình ảnh sai lệch có thể sẽ gây nhiễu loạn thông tin, hướng cuộc điều tra đi sai hướng và thậm chí là dẫn đến việc buộc tội oan người vô tội.
Đây không phải là lần đầu tiên công nghệ này gây ra các kết quả sai lệch. Trong quá khứ, đã có trường hợp một bức ảnh mờ của cựu Tổng thống Barack Obama bị AI "nâng cấp" thành hình ảnh của một người đàn ông da trắng.
Lời cảnh báo từ chuyên gia
Bản thân FBI trong thông báo của mình cũng chỉ công bố các bức ảnh gốc và kêu gọi công chúng cung cấp thông tin dựa trên những gì họ thực sự nhìn thấy. Tuy nhiên, làn sóng "tự nâng cấp ảnh" trên mạng xã hội đã cho thấy một sự thiếu hiểu biết về cách thức hoạt động của AI.
Trong bối cảnh AI ngày càng trở nên phổ biến, vụ việc lần này là một lời cảnh báo mạnh mẽ. Các hình ảnh do AI tạo ra, dù trông có thật đến đâu, cũng không đồng nghĩa với việc chúng đáng tin cậy. Đặc biệt là trong các cuộc điều tra nhạy cảm liên quan đến an ninh và tính mạng con người, việc lan truyền các thông tin không chính xác có thể sẽ dẫn đến những hậu quả cực kỳ nghiêm trọng.