Giỏ hàng

Google đặt AI ở vị trí nổi bật nhất – đúng, nhưng chưa đủ

Ảnh: Cole Kan/Mashable Composite

Trong nhiều năm, Google chỉ đóng vai người gác cổng của internet: dẫn người dùng tới các nguồn thông tin rồi để họ tự đọc, tự so sánh, tự kết luận. Nhưng với AI Overviews, Google bước sang một vai trò khác tham vọng hơn nhiều: không chỉ dẫn đường, mà trực tiếp trả lời. Điều đó làm công cụ tìm kiếm lớn nhất thế giới giống một nhà xuất bản hơn là người sắp xếp liên kết. Vấn đề bắt đầu ở đó. Một hệ thống đúng khoảng 9 trên 10 lần nghe có vẻ ấn tượng. Nhưng với hơn 5.000 tỷ lượt tìm kiếm mỗi năm, mức chính xác ấy đồng nghĩa với hàng chục triệu câu trả lời sai mỗi giờ.
 
Độ chính xác “khá cao” vẫn có thể tạo ra sai sót ở quy mô khổng lồ
 
Câu chuyện bắt đầu từ một chi tiết tưởng rất nhỏ. Cuối năm ngoái, Stephen Punwasi ở Toronto đọc thấy tin vợ của đô vật Hulk Hogan có thể kiện tụng sau cái chết của ông. Không biết Hogan đã qua đời khi nào, anh hỏi Google. AI Overview trả lời dứt khoát rằng không có báo cáo đáng tin cậy nào nói Hogan đã chết. Ngay bên dưới, một bài báo từ Daily Mail lại nói điều ngược lại: “Bí ẩn gia tăng quanh cái chết của Hulk Hogan.” Một công cụ trông đầy thẩm quyền đã tự tin phủ nhận điều mà chính các liên kết dưới nó ngầm xác nhận.
 
Sự việc này không chỉ là một lỗi cá biệt. Theo phân tích của startup Oumi, AI Overviews chính xác khoảng 85% khi dùng Gemini 2 và khoảng 91% khi dùng Gemini 3. Đó là tỷ lệ đủ tốt để khiến nhiều người an tâm, nhưng lại không đủ tốt với một hệ thống được đẩy lên vị trí nổi bật nhất của trang kết quả tìm kiếm. Một công cụ sai 9% số lần ở quy mô tìm kiếm của Google không phải một công cụ “thi thoảng nhầm”. Nó là cỗ máy tạo sai sót ở quy mô công nghiệp.
 
Ngay cả khi đúng, nó vẫn thường không chỉ ra được vì sao đúng
 
Hơn một nửa số câu trả lời đúng trong phân tích của Oumi bị xem là “ungrounded”, tức liên kết mà Google dẫn ra không thực sự hỗ trợ đầy đủ cho kết luận mà AI đưa ra. Đây là điểm tinh vi nhất, và cũng đáng lo nhất, của câu chuyện. Một hệ thống có thể nói đúng mà vẫn làm suy giảm khả năng kiểm chứng của người dùng. Khi đó, vấn đề không còn là độ chính xác. Nó trở thành vấn đề về tính minh bạch.
 
Lấy ví dụ về Bảo tàng Bob Marley. Khi được hỏi nhà của Marley được chuyển thành bảo tàng vào năm nào, AI Overview nói là năm 1987. Thực tế, bảo tàng mở cửa từ ngày 11-5-1986, đúng dịp kỷ niệm năm năm ngày ông qua đời. Google dẫn ba nguồn. Nguồn đầu là một trang Facebook của con gái Marley, hoàn toàn không cho biết ngày mở cửa. Nguồn thứ hai là một blog du lịch với thông tin không chính xác. Nguồn thứ ba là Wikipedia, nơi tự mâu thuẫn giữa năm 1986 và 1987. AI không bịa ra thông số. Nhưng nó tổng hợp từ một hỗn hợp nguồn yếu, rồi trình bày kết luận như thể đó là chân lý đã kiểm chứng.
 
Facebook và Reddit góp phần viết “sự thật” cho Google
 
Điều đó dẫn tới câu hỏi: AI Overviews thực sự dựa vào những nguồn nào? Phân tích của Oumi trên hơn 5.300 nguồn được Google trích dẫn cho thấy Facebook và Reddit là các nguồn xuất hiện rất thường xuyên, lần lượt đứng thứ hai và thứ tư. Khi AI Overview đúng, nó dẫn Facebook 5% số lần. Khi nó sai, tỷ lệ này tăng lên 7%. Đó không phải khác biệt quá lớn, nhưng cũng đủ để thấy Google đang đặt một phần thẩm quyền lên những nền tảng vốn không được thiết kế để làm tài liệu tham khảo có kiểm chứng.
 
Sự thay đổi này rất quan trọng. Google từng nổi lên nhờ xếp hạng và lọc web. AI Overviews khiến họ phải làm thêm một việc khác: chọn, suy diễn và kết luận. Trong vai trò mới đó, khoảng cách giữa “tìm thấy nguồn” và “hiểu đúng nguồn” không hề nhỏ. Đôi khi Google trích đúng trang, nhưng suy luận sai. Khi được hỏi con sông nào nằm dọc phía tây Goldsboro, bang North Carolina, AI Overview trả lời là sông Neuse, trong khi con sông thực sự chạy dọc phía tây là Little River. Nó đã đọc một trang du lịch nói Neuse chảy qua thành phố và suy diễn nhầm rằng con sông đó là ranh giới phía tây.
 
Một câu trả lời có thể đúng ở phần đầu, sai ở phần sau
 
Ngay cả khi AI Overview trả lời đúng trọng tâm câu hỏi, nó vẫn có xu hướng phá hỏng mọi thứ bằng các thông tin phụ thêm vào. Đây là thói quen quen thuộc của AI tạo sinh: không chỉ trả lời, mà còn “giúp” bằng cách mở rộng câu chuyện. Nhưng chính phần mở rộng ấy thường là nơi sai sót chui vào. Khi được hỏi tay ném Dick Drago bao nhiêu tuổi lúc qua đời, Google cho đúng số tuổi, rồi lại liên tiếp nêu sai ngày ông mất trong phần giải thích thêm. Tức cùng một câu trả lời có thể đúng và sai đồng thời, tùy người dùng dừng đọc ở đâu.
 
Điều này làm AI Overviews đặc biệt nguy hiểm theo một cách rất hiện đại. Nó không luôn nói sai trắng trợn. Nó thường nói đúng đủ nhiều để nghe đáng tin, rồi chen vào vài chỗ sai đủ nhỏ để người dùng không nhận ra. Đó là dạng sai lệch khó chịu nhất, bởi nó làm mòn khả năng cảnh giác.
 
Thao túng hệ thống 
 
Vấn đề chưa dừng ở đó. AI Overviews còn có thể bị thao túng. Nếu ai đó muốn được biết đến như “chuyên gia hàng đầu thế giới” về một lĩnh vực nào đó, đôi khi chỉ cần tự viết blog tuyên bố điều ấy. Một nhà báo BBC đã thử nghiệm bằng cách đăng bài giả về cuộc thi ăn xúc xích, rồi một ngày sau Google đã xếp anh vào nhóm các nhà báo công nghệ nổi tiếng vì “khả năng ăn xúc xích cạnh tranh”. Google lặp lại điều bịa đặt ấy như thể đó là sự thật hiển nhiên.
 
Ở đây, AI không chỉ phản chiếu web. Nó hợp pháp hóa web. Một lời nói dối từng nằm lẻ loi trên blog giờ có thể được Google đóng dấu bằng giọng điệu đầy thẩm quyền. Khi đó, AI Overviews không đơn giản là một công cụ tóm tắt. Nó trở thành máy khuếch đại cho cả sự thật lẫn rác.
 
Google đúng khi nói công nghệ đã tiến bộ, nhưng chưa phải lời biện hộ đủ mạnh
 
Google phản bác rằng phân tích của Oumi có vấn đề, một phần vì dùng bộ kiểm tra do OpenAI xây dựng và không phản ánh những gì người dùng thực sự tìm kiếm. Công ty cũng nhấn mạnh AI Overviews chính xác hơn Gemini, nhờ được bồi thêm dữ liệu từ hệ thống tìm kiếm. Tất cả điều đó có thể đều đúng. Và đúng là công nghệ đã được cải thiện: tỷ lệ sai giảm từ 15% xuống 9%.
 
Nhưng cải thiện không đồng nghĩa với đủ tốt, nhất là khi sản phẩm được đặt lên đỉnh tháp chú ý của internet. Google có thể lập luận rằng mọi hệ thống AI đều có sai số và người dùng nên đối chiếu nhiều nguồn. Họ thậm chí đã ghi chú nhỏ rằng “AI có thể mắc lỗi, hãy kiểm tra lại”. Song chính cách thiết kế sản phẩm lại gửi đi thông điệp ngược lại. Khi một câu trả lời được đặt ở vị trí số một, gói trong giọng văn bình thản và có vẻ đầy thẩm quyền, phần lớn người dùng sẽ mặc nhiên xem đó là kết luận đáng tin nhất trên trang. Dòng chữ cảnh báo bé xíu không đủ để chống lại hiệu ứng tâm lý ấy.
 
Câu hỏi lớn hơn không phải Google sai bao nhiêu, mà là internet đáng tin đến mức nào
 
Rốt cuộc, tranh cãi quanh AI Overviews chạm vào một câu hỏi lớn hơn nhiều so với Google. Trong kỷ nguyên AI, vấn đề không chỉ là tìm thông tin. Nó là biết mình có thể tin vào thông tin nào, và tin tới mức nào. Một công cụ đúng gần hết thời gian nhưng lại khó kiểm chứng khi đúng, thỉnh thoảng sai ở quy mô rất lớn, và có thể bị thao túng khá dễ, không chỉ là một sản phẩm chưa hoàn thiện. Nó là phép thử về chính hạ tầng nhận thức của internet.
 
Google đang cố biến công cụ tìm kiếm thành công cụ trả lời. Về mặt thương mại, đó là nước đi logic. Về mặt xã hội, nó đòi hỏi mức độ tin cậy cao hơn. Và ở thời điểm này, AI Overviews dường như vẫn chưa đạt tới ngưỡng khiến người ta có thể an tâm giao cho nó vai trò ấy.
 
shared via nytimes,

Bình luận

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.
Bình luận của bạn sẽ được duyệt trước khi đăng lên