ChatGPT trở thành kho bằng chứng trong các vụ án hình sự

Kiều My
Kiều My
Phản hồi: 0

Kiều My

Thợ săn tin nóng
Thành viên BQT
Các báo cáo từ cơ quan chức năng cho thấy lịch sử trò chuyện trên ChatGPT đang trở thành một nguồn dữ liệu quan trọng trong các cuộc điều tra hình sự tại Mỹ và Canada. Việc các nghi phạm vô tình hoặc cố ý tiết lộ ý định phạm tội thông qua chatbot đã giúp lực lượng hành pháp củng cố hồ sơ vụ án. Xu hướng này không chỉ phản ánh sự thay đổi trong kỹ thuật điều tra số mà còn dấy lên những tranh luận gay gắt về quyền riêng tư và các giới hạn pháp lý đối với trí tuệ nhân tạo.

1777954803772.png

ChatGPT đang được trở thành một trong những nguồn bằng chứng quan trọng trong các vụ án hình sự. (Ảnh: CNN)

Những câu hỏi vạch trần hành vi phạm tội​

Một trong những vụ án điển hình nhất liên quan đến việc sử dụng dữ liệu từ ChatGPT xảy ra tại bang Florida, Mỹ vào tháng 4. Hisham Abugharbieh, một nghi phạm bị cáo buộc giết hại hai bạn cùng phòng là nghiên cứu sinh tại Đại học South Florida, đã để lại dấu vết kỹ thuật số rõ ràng trên chatbot này.

Theo bản khai của công tố viên, chỉ vài ngày trước khi các nạn nhân mất tích, Abugharbieh đã đặt những câu hỏi mang tính chất gợi ý về hành vi phi tang thi thể. Nghi phạm đã hỏi ChatGPT về hậu quả của việc bỏ một người vào túi rác màu đen rồi ném vào thùng rác. Khi hệ thống đưa ra cảnh báo về tình huống nguy hiểm, người này vẫn tiếp tục truy vấn về cách thức để tránh bị phát hiện. Ngoài ra, lịch sử tìm kiếm còn ghi nhận các câu hỏi về việc sở hữu súng không giấy phép và cách thay đổi số VIN của xe hơi.

Sau khi các nạn nhân mất tích, các tương tác của Abugharbieh với AI trở nên trực diện hơn. Nghi phạm đã hỏi liệu có ai sống sót khi bị bắn vào đầu hay không, tiếng súng có thể bị hàng xóm nghe thấy không và nhiệt độ nước nào có thể gây bỏng ngay lập tức. Những dữ liệu này sau đó đã được sử dụng làm bằng chứng then chốt để buộc tội Abugharbieh với hai tội danh giết người cấp độ một. Hiện nghi phạm đang bị tạm giam mà không được bảo lãnh trong khi lực lượng chức năng tiếp tục xác định danh tính các bộ hài cốt tìm thấy trong túi rác.

Mở rộng quy mô sử dụng AI trong điều tra số​

Việc sử dụng ChatGPT làm chứng cứ không phải là trường hợp cá biệt. Trước đó, dữ liệu từ chatbot này đã được trích xuất để phục vụ điều tra một vụ phóng hỏa gây cháy rừng tại Palisades, Los Angeles. Thậm chí, nghi phạm trong vụ án này còn yêu cầu ChatGPT tạo ra những hình ảnh mô phỏng người dân đang tháo chạy khỏi đám cháy.

Tại bang Virginia, một vụ án giết người vào năm 2024 cũng đã sử dụng dữ liệu từ công cụ AI tích hợp trên Snapchat để làm bằng chứng quan trọng trước tòa. Giới chuyên gia an ninh mạng nhận định rằng, nhiều nghi phạm tin tưởng một cách sai lầm rằng các cuộc hội thoại với AI là hoàn toàn bí mật, dẫn đến việc họ thường đặt những câu hỏi rất trực tiếp về kế hoạch hoặc hành vi phạm tội của mình. Chuyên gia Ilia Kolochenko tại Washington DC nhấn mạnh rằng bất kỳ hình thức giao tiếp nào với chatbot AI cũng có thể được coi là một 'kho tàng dữ liệu' cho các cơ quan thực thi pháp luật.

1777954832119.png

Hình ảnh người dân chạy trốn khỏi đám cháy được nghi phạm vụ cháy rừng Palisades yêu cầu ChatGPT tạo ra. (Ảnh: Getty Images)

OpenAI và những rắc rối pháp lý liên đới​

Không chỉ dừng lại ở việc cung cấp dữ liệu người dùng, OpenAI – công ty đứng sau ChatGPT – cũng đang đối mặt với các áp lực pháp lý trực tiếp. Tổng chưởng lý Florida đã mở một cuộc điều tra hình sự nhắm vào OpenAI với cáo buộc rằng chatbot này đã đưa ra 'lời khuyên đáng kể' cho một nghi phạm xả súng tại Đại học Bang Florida. Tại Canada, một gia đình nạn nhân trong vụ xả súng trường học cũng đã đệ đơn kiện OpenAI và Giám đốc điều hành Sam Altman, cho rằng chatbot có liên quan đến các hành vi của thủ phạm. Những sự việc này đặt ra câu hỏi về trách nhiệm của các công ty công nghệ khi sản phẩm của họ được sử dụng vào mục đích xấu, đồng thời cho thấy sự chú ý ngày càng tăng của cơ quan tư pháp đối với nội dung phản hồi từ AI chứ không chỉ là nội dung đầu vào của người dùng.

Tranh cãi về quyền riêng tư và đặc quyền pháp lý​

Sự gia tăng của việc sử dụng dữ liệu AI tại tòa án diễn ra trong bối cảnh người dùng có xu hướng chia sẻ những vấn đề cá nhân nhạy cảm với chatbot, từ tư vấn tâm lý đến lời khuyên pháp lý và y tế. Tuy nhiên, các chuyên gia cảnh báo rằng những cuộc trao đổi này không được bảo vệ bởi bất kỳ đặc quyền pháp lý nào như đối với bác sĩ hay luật sư.

Chính Sam Altman cũng thừa nhận đây là một vấn đề lớn khi OpenAI có thể bị yêu cầu cung cấp dữ liệu nếu có kiện tụng xảy ra. Luật sư Virginia Hammerle tại Texas khẳng định mọi thứ được nhập vào ChatGPT đều có khả năng trở thành chứng cứ chống lại chính người dùng. Hiện tại, luật pháp ở Mỹ và nhiều quốc gia vẫn coi dữ liệu từ AI tương đương với các loại bằng chứng điện tử thông thường như lịch sử tìm kiếm Google hay các cuộc gọi điện thoại, không có sự bảo vệ đặc biệt nào cho người dùng trong các tương tác này.

Kết luận​

Dữ liệu từ ChatGPT đang trở thành một công cụ sắc bén trong tay các cơ quan thực thi pháp luật để giải mã động cơ và hành vi tội phạm. Tuy nhiên, thực tế này cũng là một lời cảnh báo nghiêm khắc về giới hạn của quyền riêng tư trong kỷ nguyên số. Người dùng cần hiểu rõ rằng ChatGPT không phải là một người bạn, một bác sĩ hay một luật sư có nghĩa vụ bảo mật thông tin. Trong khi hệ thống pháp luật đang nỗ lực bắt kịp với tốc độ phát triển của công nghệ, nguyên tắc quan trọng nhất vẫn là sự thận trọng: bất kỳ thông tin nào được chia sẻ với AI đều có thể được sử dụng làm bằng chứng pháp lý trước tòa.
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly93d3cudm5yZXZpZXcudm4vdGhyZWFkcy9jaGF0Z3B0LXRyby10aGFuaC1raG8tYmFuZy1jaHVuZy10cm9uZy1jYWMtdnUtYW4taGluaC1zdS44MjU0NS8=
Top