Giỏ hàng

Công cụ “bắt bài” hàng giả AI có đáng tin?

                                                                  Ảnh: Chat GPT
Trí tệ nhân tạo xây dựng nội dung giống thật đến mức đôi lúc khiến người dùng không biết một bức ảnh hay đoạn video lướt qua mạng xã hội là thật hay giả, mở đường cho Al detector, lớp công cụ mới, các phần mềm tuyên bố có thể nhận diện nội dung do Al tạo.
 
Hiện có hơn mười công cụ trực tuyến quảng bá có thể phân biệt được nội dung do Al tạo bằng cách truy tìm watermark ẩn, lỗi bố cục và các dấu vết kỹ thuật số khác, nhưng thực tế phức tạp hơn. Theo loạt thử nghiệm của The New York Times, nhiều công cụ phát hiện tốt một số dạng nội dung Al, song chưa đủ chính xác để người dùng đặt trọn niềm tin.
 
Kết quả gợi ý detector hữu ích để củng cố nghi ngờ, nhưng khó đưa ra phán quyết dứt khoát. Trong những tháng gần đây, điều này tạo thêm thách thức cho người dùng internet và giới kiểm chứng tin tức khi “hàng giả Al” ngập tràn mạng xã hội. Mọi kết luận từ detector nên được hỗ trợ bằng những đối chiếu khác, như chi tiết trong ảnh chính thức hoặc các bản tin.
 
Dẫu vậy, nhiều tổ chức vẫn xem công cụ dò là trọng tài đáng giá trong thời điểm nội dung Al lan nhanh và đánh lừa người dùng. Các công cụ này được ngân hàng và công ty bảo hiểm sử dụng để nhận diện gian lận do Al hỗ trợ, giáo viên dùng để dò đạo văn, người dùng mạng xã hội dùng để kiểm tra ảnh và video lan truyền. Nhiều công cụ giờ đây soi cả hình ảnh, video và âm thanh.
 
Không có “100%”
 
Mike Perkins, giảng viên tại British University Vietnam, người nghiên cứu detector và nhận thấy detector cung cấp văn bản thiếu tin cậy, nhận xét sẽ không bao giờ có công cụ phát hiện 100% việc Al được dùng trong văn bản, hình ảnh hay video. Khi các công cụ tạo Al cải thiện, detector sẽ khó bắt kịp và hình thành “cuộc chạy đua vũ trang”.
 
Trong thử nghiệm, The Times rà soát hơn mười detector và chatbot có khả năng nhận diện video, âm thanh, nhạc và hình ảnh, tổng cộng thực hiện hơn 1.000 lượt quét. Kết quả cho thấy detector có điểm mạnh rõ rệt, đồng thời lộ nhiều điểm yếu.
 
Dò tốt hàng giả “dễ làm”
 
Hiện nay, phần lớn hàng giả Al trên mạng không đòi hỏi nhiều công sức. Người dùng chỉ cần gõ câu lệnh đơn giản để nhận về ảnh hoặc video trông như thật. Kiểu nội dung này từng ngập internet không lâu sau khi Nicolás Maduro, “tổng thống Venezuela bị phế truất” bị bắt vào tháng 1.
 
Để kiểm tra dạng giả phổ biến, nhóm thử nghiệm yêu cầu ChatGPT của OpenAI tạo ảnh “hai người đang cười”. Ảnh trông rất thật, nhưng vẫn có vài dấu hiệu quen thuộc của Al, Ánh sáng, bố cục và đường nét có phần “hoàn hảo” quá mức hay bàn tay gợn bất thường. Nhiều detector nhanh chóng kết luận ảnh do Al tạo, dù vẫn có ngoại lệ đáng chú ý. ChatGPT không phát hiện được bức ảnh giả mà chính nó tạo ra ít phút trước đó.
 
Các detector thường được huấn luyện trên kho lớn các sản phẩm do Al tạo để học cách nhận diện tín hiệu kỹ thuật số. The Times chia sẻ kết quả thử nghiệm với các công ty detector. Nhiều bên thừa nhận không công cụ nào đúng hoàn toàn mọi lúc. Một số công ty nói họ sắp tung ra cập nhật lớn cho mô hình để cải thiện hiệu năng.
 
Anatoly Kvitnitsky, CEO AI or Not, viết trong email, “Đây sẽ là một cuộc chiến liên tục để xác định ‘đây có phải Al hay không?’ trong tương lai gần.” Công ty cho biết khi thử lại các hình mà mô hình công khai bỏ sót, mô hình mới nhất đã nhận diện đúng ảnh Al.
 
Ảnh phức tạp khiến detector hụt hơi
 
Detector thường khó hơn khi gặp ảnh phức tạp và ít dấu vết. Thử nghiệm nêu ví dụ cảnh hư cấu về cảng biển trông khá tự nhiên. Chỉ khi nhìn kỹ mới thấy vài chi tiết phi lý, như thuyền nối vào cầu cảng dẫn tới khoảng không.
 
Khả năng một số detector được huấn luyện chủ yếu để nhận diện khuôn mặt vì phục vụ mục tiêu an ninh và chống gian lận. Khi chuyển sang cảnh quan hoặc bố cục không có gương mặt, hiệu quả có thể suy giảm.
 
Video tăng nhanh, nhưng ít công cụ xử lý
 
Video Al trở thành mối đe doạ kế tiếp đối với mạng xã hội. OpenAl ra mắt Sora dẫn tới làn sóng video giả tăng mạnh, trong khi các nền tảng ít gắn nhãn cảnh báo.
 
Số ít detector có thể phân tích video và âm thanh, và kết quả cũng không đồng đều. Với doanh nghiệp, đây là rủi ro gắn với vận hành. Hãy hình dung cuộc gọi từ CEO nhưng thực chất là bản sao giọng nói do Al dựng. Hoặc cuộc họp video với nhân vật Al trông như thật. Các công ty phát hiện đã đầu tư lớn để dò giả mạo và thậm chí phân tích được luồng họp trực tiếp. Một số công cụ chỉ ra đoạn nào là giả và đoạn nào là thật.
 
Trong thử nghiệm, một video Al về tòa nhà sụp đổ có thể đánh lừa người dùng mạng xã hội, nhưng đa số detector nhận ra nó không thật. Ngược lại, một video người mẫu lại làm nhiều detector lúng túng.
 
Điểm sáng âm thanh
 
Nếu video còn nhiều khoảng mờ, detector thường làm tốt hơn với âm thanh. Audio do Al tạo nhanh chóng trở nên đặc biệt giống thật.
 
Các công cụ như ElevenLabs tạo giọng nói rất sống động, có cả hơi thở, khoảng ngừng và ngữ điệu biến thiên. Xuất hiện trong video lan truyền và meme, đồng thời được dùng để lừa đảo qua điện thoại và mạo danh.
 
Trong thử nghiệm, có bảy detector và chatbot có thể kiểm tra audio giả. Sensity và Resemble.Al cho kết quả tốt nhất. Ngay cả khi audio bị chỉnh sửa mạnh, các công cụ vẫn kết luận với độ tự tin cao, giọng nói hoặc nhạc là do Al tạo ra. Chúng cũng nhận ra đúng các đoạn giọng thật.
 
Một clip do ElevenLabs tạo từ kịch bản của chatbot Gemini của Google được đa số detector phát hiện là giả. Nhóm thử nghiệm phải chỉnh clip đáng kể, tăng tốc và thêm nhạc, trước khi detector bắt đầu đoán sai.
 
Nghịch lý: Nhận diện hàng thật tốt hơn hàng giả
 
Rủi ro đáng kể của detector là gán nhầm giả cho thật, có thể gây hỗn loạn tin nóng hoặc làm lung lay niềm tin vào ảnh thật. Trường hợp tin tức trong xung đột Israel và Hamas, hình ảnh rùng rợn về thi thể cháy đen lan truyền và có người cho rằng đó là ảnh Al, nhiều chuyên gia cho biết ảnh có thể là thật, nhưng nghi ngờ đã lan rộng.
 
Tổng thể thử nghiệm, detector làm tốt hơn khi nhận diện ảnh thật so với ảnh giả. Tất cả công cụ đều xác nhận ảnh cây dracaena sọc là thật, trường hợp hiếm khi mọi detector đồng thuận. Đồng thời phân tích tốt video thật như clip quay từ iPhone hoặc tin tức tải từ internet. Dù audio Al đánh lừa một số detector, tất cả vẫn gắn nhãn đúng một clip phóng viên đọc văn bản do Al tạo ra là giọng thật.
 
Khó nhất là ảnh thật bị Al chỉnh sửa
 
Lớp giả mạo tinh vi hơn thường trộn thật và giả. Dùng ảnh thật rồi thêm chi tiết do Al tạo khiến câu chuyện thuyết phục hơn. Vào tháng trướcNhà Trắng từng đăng bức ảnh bị chỉnh sửa của một phụ nữ bị bắt ở Minneapolis, phần lớn detector nghĩ đó là ảnh thật.
 
Trong thử nghiệm, đa số detector bỏ lỡ kiểu chỉnh sửa này. Bức ảnh được thêm khói ở hậu cảnh gợi cảm giác có vụ nổ, chỉ một vài công cụ nhận ra ảnh bị can thiệp. Copyleaks thử một loạt ảnh bằng mô hình sắp ra mắt và phát hiện chính xác phần chỉnh sửa. Công cụ khoanh vùng khói do Al tạo, đồng thời báo phần còn lại của ảnh là thật.
 
shared via nytimes, 

Bình luận

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.
Bình luận của bạn sẽ được duyệt trước khi đăng lên