Giỏ hàng

Khi chatbot bị dùng để lên kế hoạch bạo lực: Có tồn tại “nghĩa vụ cảnh báo”?

Tháng 1/2025, Matthew Livelsberger đã kích nổ vật liệu nổ trong chiếc Tesla Cybertruck trước khách sạn Trump International ở Las Vegas. Anh ta đã tham khảo ý kiến ​​về kế hoạch này với ChatGPT. Ảnh: Sở Cảnh sát Đô thị Las Vegas

Ngày đầu năm ngoái, một người đàn ông lái chiếc Tesla Cybertruck đỗ trước khách sạn Trump International tại Las Vegas. Bên trong xe là vật liệu dễ cháy và thuốc nổ tự chế. Trước 9h sáng, người lái tự bắn vào mình; phát súng kích hoạt đám cháy từ nhiên liệu và pháo hoa trong xe. Tài xế thiệt mạng, bảy người xung quanh bị thương.
 
Khi xác định danh tính người lái là Matthew Livelsberger, binh sĩ từ Colorado, các nhà điều tra phát hiện ông đã sử dụng Chat GPT để tìm hiểu về chất nổ Tannerite, số lượng có thể mua hợp pháp, loại súng cần thiết để kích hoạt và nơi mua dọc tuyến đường di chuyển. Ông cũng hỏi “loại điện thoại nào không cần thông tin cá nhân để kích hoạt”. Theo cảnh sát Las Vegas, đây là lần đầu tiên Chat GPT được sử dụng để hỗ trợ chế tạo bom trên lãnh thổ Mỹ.
 
Vụ việc đặt ra câu hỏi nhức nhối: Khi người dùng tiết lộ ý định gây bạo lực cho chatbot, công ty công nghệ có nghĩa vụ cảnh báo nhà chức trách hay không?
 
Quyền riêng tư và giới hạn pháp lý
 
Theo luật Mỹ được ban hành từ thời kỳ đầu của email, người dùng có quyền riêng tư trước chính phủ. Các công ty công nghệ thường không được phép tiết lộ nội dung trao đổi nhạy cảm cho bên thứ ba trừ khi có lệnh của tòa án hoặc trong trường hợp khẩn cấp đe dọa tính mạng, như liên quan đến lạm dụng trẻ em hoặc nguy cơ gây thương tích nghiêm trọng.
 
Tuy nhiên, ranh giới giữa bảo vệ quyền riêng tư và bảo đảm an toàn công cộng vốn đã gây tranh cãi từ lâu. Sự phổ biến nhanh chóng của chatbot AI khiến vấn đề trở nên phức tạp hơn, bởi chúng không chỉ trả lời truy vấn mà còn tham gia đối thoại, khơi gợi tâm sự cá nhân và có thể ảnh hưởng đến hành vi.
 
Sau vụ nổ ở Las Vegas, OpenAI thiết lập một kênh nội bộ có tên AutoInvestigator để phát hiện hoạt động đáng ngờ từ khoảng 800 triệu người dùng/tuần. Hệ thống giám sát tự động sẽ tạo cảnh báo khi nhận thấy người dùng có dấu hiệu tiến vào “lãnh thổ nguy hiểm”.
 
Tháng 6/2025, hệ thống này phát hiện một tài khoản tại Canada thảo luận về bạo lực súng đạn. OpenAI cân nhắc báo cáo nhưng kết luận chưa có kế hoạch gây hại “cấp bách và đáng tin cậy”, rồi khóa tài khoản vì vi phạm chính sách. Vài tháng sau, người dùng đó – Jesse Van Rootselaar, 18 tuổi – gây ra vụ xả súng khiến tám người thiệt mạng tại British Columbia. Sau thảm kịch, OpenAI mới chủ động cung cấp thông tin cho giới chức.
 
Các nhà điều tra Canada hiện chất vấn vì sao công ty không cảnh báo sớm hơn.
 
Ai nên quyết định “mối đe dọa đáng tin cậy”?
 
Tim Marple, từng làm việc trong nhóm điều tra của OpenAI, cho rằng việc đánh giá mức độ đe dọa nên do cơ quan thực thi pháp luật đảm nhiệm, không phải nhân viên công ty.
 
Theo Sean Zadig, Giám đốc an ninh thông tin của Yahoo, xác định tính khẩn cấp đòi hỏi phân tích sâu: nơi cư trú của người dùng, lịch sử đăng tải trên các nền tảng khác, khả năng tiếp cận phương tiện gây hại. Những chuyên gia an ninh mạng có nền tảng thực thi pháp luật được đào tạo để nhận diện tín hiệu đáng tin cậy.
 
Ông Zadig nói: “Chúng ta có nghĩa vụ đạo đức phải hành động khi nhận thấy nội dung đáng lo ngại, dù không hẳn là nghĩa vụ pháp lý.” Ngay cả khi nguy cơ sau đó không thành hiện thực, công ty không thể biết điều gì đang xảy ra phía sau bàn phím.
 
Song, một số chuyên gia lo ngại việc buộc công ty báo cáo mọi nghi vấn có thể biến họ thành “cánh tay nối dài” của chính phủ, gây xung đột với quyền hiến định về bảo vệ khỏi khám xét vô lý.
 
Chatbot có giống nhà trị liệu?
 
Một khía cạnh mới của vấn đề là mức độ thân mật trong tương tác. Chatbot không chỉ cung cấp thông tin mà còn trò chuyện như con người. Sam Altman – CEO OpenAI từng nhận xét nhiều người dùng coi ChatGPT như nhà trị liệu, đặt câu hỏi liệu những trao đổi này có nên được hưởng quyền bảo mật tương tự mối quan hệ bác sĩ – bệnh nhân.
 
Trong lĩnh vực trị liệu tâm lý, tồn tại nguyên tắc “nghĩa vụ cảnh báo”: Nếu bệnh nhân có kế hoạch gây hại cụ thể cho người khác, chuyên gia phải thông báo cho đối tượng bị đe dọa hoặc nhà chức trách. Ryan Calo, Giáo sư luật tại Đại học Washington, đặt vấn đề: Nếu chatbot thực sự thay thế vai trò nhà trị liệu trong mắt người dùng, liệu nghĩa vụ tương tự có nên áp dụng?
 
OpenAI cho biết họ thận trọng trong việc báo cáo vì một cuộc thẩm vấn có thể gây tổn hại lớn cho người dùng vô tội. Tuy nhiên, theo Marple, công ty cũng lo ngại việc tự nguyện chia sẻ dữ liệu có thể phản ánh tiêu cực về công nghệ của mình – đặc biệt nếu chatbot vô tình cung cấp thông tin chiến lược trong thảo luận về bạo lực.
 
Lợi ích và rủi ro của giám sát
 
So với công cụ tìm kiếm truyền thống, hội thoại chatbot cung cấp bối cảnh phong phú hơn. Một truy vấn “cách chế tạo bom” trên Google có thể mơ hồ, trong khi cuộc trò chuyện dài với chatbot có thể tiết lộ động cơ và ý định rõ ràng hơn. Tuy nhiên, cũng tồn tại nhiều “báo động giả”: Người viết tiểu thuyết, người nghiên cứu thử nghiệm phản ứng của AI, hoặc người tham gia thảo luận giả tưởng.
 
Trong thời gian làm việc tại OpenAI, Marple cho biết nhóm điều tra chủ yếu báo cáo nội dung lạm dụng trẻ em theo yêu cầu pháp luật liên bang. Ông hiện đề xuất ban hành quy định buộc các công ty chatbot nộp báo cáo hoạt động đáng ngờ tương tự như ngân hàng phải báo cáo giao dịch khả nghi.
 
Ngược lại, một số chuyên gia cảnh báo việc tăng nghĩa vụ báo cáo có thể làm quá tải cơ quan thực thi pháp luật. Nếu thông tin không kịp thời, không cụ thể và không thể hành động, cảnh sát khó có thể ngăn chặn nguy cơ.
 
Cân bằng mong manh
 
Vấn đề cốt lõi là sự cân bằng giữa quyền riêng tư và an toàn cộng đồng trong thời đại AI Chatbot ngày càng trở thành nơi người dùng bộc lộ suy nghĩ sâu kín – từ trầm cảm đến ý định bạo lực. Công nghệ có khả năng phát hiện tín hiệu nguy hiểm sớm hơn con người, nhưng cũng có thể xâm phạm quyền cá nhân nếu giám sát quá mức.
 
Cho đến nay, chưa có khuôn khổ pháp lý rõ ràng quy định khi nào chatbot phải cảnh báo nhà chức trách. Các công ty tự xây dựng chính sách nội bộ, nhưng mỗi quyết định đều tiềm ẩn hệ quả đạo đức và pháp lý.
 
Khi AI tiếp tục len lỏi vào đời sống, câu hỏi “nghĩa vụ cảnh báo” có thể không còn là giả định học thuật, mà trở thành một trong những thách thức quan trọng nhất của quản trị công nghệ hiện đại.
 
shared via nytimes,
 

Bình luận

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.
Bình luận của bạn sẽ được duyệt trước khi đăng lên