“Làm cho AI trở nên hữu ích cho mọi người”
Đó là khẩu hiệu của Google cho hội nghị Google I/O gần đây, nhưng có vẻ như mọi thứ đã trở nên tồi tệ hơn.
Mối quan tâm về độ chính xác với Tổng quan về AI
Trong lĩnh vực Trí tuệ nhân tạo (AI) ngày càng phát triển, một cuộc cạnh tranh khốc liệt đã xuất hiện giữa những gã khổng lồ công nghệ như Google, Microsoft, OpenAI và xAI.
Cuộc đua tập trung vào AI tổng quát, một công nghệ có khả năng tạo ra văn bản, bản dịch, hình ảnh và mã chất lượng như con người.
Google, một người chơi nổi bật trong cuộc đua này, đã giới thiệu tính năng Tổng quan về AI vào tháng 5 năm 2024, nhằm mục đích cung cấp cho người dùng bản tóm tắt nhanh chóng về các truy vấn tìm kiếm ở đầu kết quả Tìm kiếm.
Tính năng cải tiến này, được thiết kế để cạnh tranh với ChatGPT, hứa hẹn sẽ hợp lý hóa quy trình thu thập thông tin.
Tuy nhiên, ngay sau khi ra mắt, Google AI đã bị chỉ trích vì cung cấp thông tin không chính xác và sai lệch thông qua Tổng quan về AI. Người dùng mạng xã hội đã ghi lại nhiều trường hợp công cụ này đưa ra các câu trả lời không chính xác hoặc gây tranh cãi, làm dấy lên mối lo ngại nghiêm trọng về độ tin cậy của nó.
Các trường hợp thông tin không chính xác từ Tổng quan về AI
Một số ví dụ nêu bật những thiếu sót của Tổng quan về AI.
Truy vấn của một người dùng liên quan đến số lượng tổng thống Hồi giáo ở Hoa Kỳ đã dẫn đến tuyên bố sai lầm rõ ràng rằng Barack Obama là tổng thống Hồi giáo đầu tiên của quốc gia.
Lỗi này xuất phát từ việc công cụ hiểu sai văn bản nguồn đề cập đến một thuyết âm mưu đã bị vạch trần.
Tính năng Tổng quan về AI dường như gặp khó khăn trong việc phân biệt giữa thực tế và hư cấu, cũng như sự hài hước hoặc châm biếm sáng suốt. Nó thiếu khả năng nắm bắt bối cảnh xung quanh một số câu hỏi nhất định.
Một ví dụ liên quan đến câu hỏi về cách ngăn pho mát trượt khỏi bánh pizza. AI Tổng quan, trong một khuyến nghị kỳ lạ, đã đề xuất thêm "khoảng 1/8 cốc keo không độc hại vào nước sốt."
Đề xuất này, bắt nguồn từ một bài đăng hài hước trên Reddit, cho thấy công cụ này không có khả năng phân biệt giữa thông tin thực tế và thông tin đùa.
Một trường hợp khác, một người dùng Reddit đã đặt ra câu hỏi: "Lượng đá khuyến nghị hàng ngày là bao nhiêu?" khiến Tổng quan về AI phải phản hồi, "Các nhà địa chất tại UC Berkeley khuyên bạn nên tiêu thụ ít nhất một tảng đá nhỏ mỗi ngày." Nó tuyên bố rằng nguồn này bắt nguồn từ một bài báo trên trang tin tức châm biếm Onion.com.
Có lẽ điều đáng quan tâm nhất là Tổng quan về AI' giải đáp các thắc mắc liên quan đến sức khỏe.
Trong một trường hợp, một người dùng đang tìm kiếm lời khuyên về việc tiếp xúc với ánh nắng mặt trời đã gặp phải gợi ý nguy hiểm rằng nhìn thẳng vào mặt trời trong 5-15 phút (hoặc tối đa 30 phút đối với làn da sẫm màu hơn) là an toàn và có lợi.
Thông tin sai lệch này được cho là sai của WebMD, một trang web chăm sóc sức khỏe có uy tín.
Những sự cố này, được gọi là "ảo giác AI", cho thấy những mối nguy hiểm tiềm ẩn của các mô hình AI tổng hợp trình bày thông tin bịa đặt là sự thật.
Nguyên nhân cơ bản của ảo giác AI
Các lỗi trong phần Tổng quan về AI có thể do một số yếu tố.
Một thủ phạm là dữ liệu đào tạo được sử dụng để phát triển công cụ. Nếu dữ liệu huấn luyện có nhiều điểm không chính xác hoặc sai lệch, mô hình AI thu được có thể sẽ gây ra những vấn đề này.
Ngoài ra, sự không nhất quán về thuật toán trong chính mô hình có thể dẫn đến việc hiểu sai thông tin và tạo ra các phản hồi vô nghĩa.
Một yếu tố quan trọng khác là thách thức trong việc hiểu bối cảnh.
Tổng quan về AI dường như gặp khó khăn trong việc xác định mục đích châm biếm hoặc hài hước đằng sau một số nguồn nhất định, khiến nó trích xuất thông tin từ các bài đăng nhại hoặc trang web đùa và trình bày nó là sự thật.
Điều này nhấn mạnh cuộc đấu tranh đang diễn ra trong việc phát triển các mô hình AI có thể phân biệt hiệu quả dữ liệu đáng tin cậy với nội dung sai lệch.
Phản hồi của Google đối với những lời chỉ trích
Trước sự phản đối kịch liệt của công chúng, Google thừa nhận có sự thiếu chính xác trong Tổng quan về AI.
Tuy nhiên, công ty khẳng định rằng hầu hết các trường hợp đều cung cấp thông tin chính xác kèm theo các liên kết để khám phá thêm.
Google cũng chỉ ra rằng nhiều ví dụ có vấn đề liên quan đến các truy vấn không phổ biến hoặc các tình huống có thể bịa đặt.
Công ty cam kết thực hiện hành động nhanh chóng, giải quyết các vấn đề đã xác định và thực hiện các thay đổi phù hợp với chính sách nội dung của mình.
Điều này bao gồm việc loại bỏ phần Tổng quan về AI đối với các truy vấn có xu hướng tạo ra kết quả không chính xác và thực hiện các cải tiến rộng hơn để nâng cao độ tin cậy tổng thể của hệ thống.
Mục đích là để ngăn chặn những vấn đề tương tự phát sinh trong tương lai.
Trải nghiệm tạo tìm kiếm (SGE) của Google và vấn đề đề xuất độc hại
Năm ngoái, Google đã giới thiệu một tính năng mới có tên Search Generative Experience (SGE) sử dụng trí tuệ nhân tạo để cung cấp cho người dùng bản tóm tắt kết quả tìm kiếm của họ.
Điều này bao gồm giải thích về nội dung, video và hình ảnh tích hợp cũng như các liên kết được đề xuất có liên quan đến truy vấn.
Tuy nhiên, các nhà nghiên cứu bảo mật đã xác định được một lỗ hổng trong hệ thống cho phép AI khuyến nghị các trang web độc hại.
Vấn đề nằm ở chỗ các tác nhân xấu có thể thao túng thuật toán SGE thông qua các kỹ thuật tối ưu hóa công cụ tìm kiếm (SEO).
Bằng cách sử dụng các từ khóa có liên quan một cách chiến lược, các trang web độc hại này có thể lừa AI hiển thị chúng trong kết quả tìm kiếm.
Đây chính xác là điều mà chuyên gia SEO Lily Ray đã phát hiện ra khi thử nghiệm tính năng SGE. Việc Ray tìm kiếm những chú chó pitbull dẫn đến việc AI đề xuất một số trang web spam.
Cuộc điều tra sâu hơn của BleepingComputer đã tiết lộ một loạt kết quả độc hại liên quan đến các trang web spam này.
Một số hoạt động liên quan được xác định bao gồm các nỗ lực lừa người dùng kích hoạt các thông báo trình duyệt xâm nhập nhằm tấn công họ bằng thư rác.
Trong các trường hợp khác, các trang web spam có thể dẫn đến lừa đảo hoặc cài đặt các tiện ích mở rộng trình duyệt không mong muốn.
Mối nguy hiểm nằm ở chỗ người dùng cho rằng các đề xuất do AI tạo ra là an toàn, điều này rõ ràng không phải như vậy.
Yêu cầu bắt buộc phải thử nghiệm nghiêm ngặt và triển khai có đạo đức
Ảo giác về AI vẫn tồn tại như một thách thức lâu dài, với các phản ứng của Google AI đôi khi đi vào lĩnh vực vô lý.
Việc phân biệt giữa kết quả đầu ra chính xác và sai sót, đặc biệt là giữa một biển thông tin, đặt ra một thách thức đáng kể.
Người dùng thường chuyển sang sử dụng các công cụ tìm kiếm một cách chính xác vì họ thiếu câu trả lời dứt khoát và dựa vào AI để thu hẹp khoảng cách đó.
Cách tiếp cận chủ động của Google trong việc giải quyết những vấn đề này nhấn mạnh cam kết cải tiến.
Tuy nhiên, tranh cãi xung quanh Tổng quan về AI nhấn mạnh sự cần thiết phải thử nghiệm kỹ lưỡng và cân nhắc về mặt đạo đức trong việc triển khai các công nghệ AI tổng quát.
Khi nhiệm vụ giành quyền tối cao của AI ngày càng tăng, việc đảm bảo tính chính xác và sự phát triển có đạo đức của những công cụ mạnh mẽ này vẫn là điều tối quan trọng.
Nhiệm vụ của chúng ta là phải luôn cảnh giác, đánh giá và xác nhận một cách nghiêm túc các phản hồi của AI thay vì chấp nhận chúng một cách thụ động.
Bằng cách đó, chúng ta có thể điều hướng bối cảnh phát triển của AI một cách tự tin và chính trực hơn.