AI của Meta bước vào đấu trường đa phương thức với Chameleon
Meta, công ty mẹ của Facebook, đang đưa đối thủ của riêng mình vào cuộc đua giành mô hình AI đa phương thức tiên tiến nhất.
Mặc dù các mô hình ngôn ngữ lớn rất ấn tượng nhưng chúng vẫn bị giới hạn trong việc xử lý văn bản. AI đa phương thức tiến thêm một bước nữa bằng cách có thể hiểu và tạo ra không chỉ văn bản mà còn cả hình ảnh, bản ghi âm và thậm chí cả video.
Câu trả lời của Meta cho thách thức này là Chameleon, một mô hình đa phương thức sử dụng phương pháp "kết hợp sớm" tiếp cận. Điều này có nghĩa là không giống như "kết hợp muộn" kỹ thuật xử lý các dạng dữ liệu khác nhau một cách riêng biệt, Chameleon xử lý tất cả dữ liệu – văn bản, hình ảnh và thậm chí cả mã – dưới dạng một thực thể duy nhất.
Để đạt được điều này, nhóm Chameleon đã phát triển một hệ thống chuyển đổi tất cả dữ liệu thành một bộ mã thông báo chung, tương tự như cách xử lý các từ trong các mô hình ngôn ngữ lớn.
Điều này cho phép áp dụng các kỹ thuật tính toán mạnh mẽ cho dữ liệu kết hợp này, dẫn đến sự hiểu biết toàn diện hơn về thông tin phức tạp.
Một trong những ưu điểm chính của Chameleon là nó là mô hình toàn diện. Điều này có nghĩa là nó xử lý toàn bộ quá trình hiểu và tạo dữ liệu đa phương thức, từ đầu đến cuối.
Các nhà nghiên cứu đằng sau Chameleon cũng triển khai các kỹ thuật đào tạo đặc biệt để cho phép mô hình hoạt động với nhiều loại mã thông báo đa dạng này.
Điều này bao gồm một quá trình học tập gồm hai giai đoạn và một bộ dữ liệu khổng lồ được thiết kế đặc biệt cho việc học tập đa phương thức. Hệ thống sau đó được tinh chỉnh trên GPU tốc độ cao trong thời gian đáng kinh ngạc là 5 triệu giờ.
Thử nghiệm đã chỉ ra rằng Chameleon là một cường quốc đa phương thức. Nó đạt được hiệu suất tiên tiến trong các tác vụ như chú thích hình ảnh, thậm chí vượt qua các mẫu chỉ có văn bản trước đây của Meta.
Trong một số trường hợp, Chameleon thậm chí còn có thể sánh ngang hoặc vượt trội hơn đáng kể so với các mô hình lớn hơn đáng kể như GPT-4 của OpenAI và Gemini Pro của Meta, thể hiện tính linh hoạt ấn tượng của nó trong một khuôn khổ thống nhất duy nhất.
Cuộc gặp gỡ của một nhà báo Singapore với Meta AI
Gần đây, Osmond Chia, nhà báo của The Straits Times ở Singapore, đã có trải nghiệm đáng lo ngại với Meta AI, một chatbot mới được thiết kế để cạnh tranh với ChatGPT và Gemini của Google.
Bị hấp dẫn bởi khả năng của các mô hình ngôn ngữ lớn này, Chia quyết định thử nghiệm Meta AI bằng một câu hỏi đơn giản: "Osmond Chia là ai?"
Câu trả lời mà anh nhận được không có gì đáng ngạc nhiên.
Meta AI đã bịa ra một câu chuyện hậu trường phức tạp, miêu tả Chia là một nhiếp ảnh gia người Singapore, người đã bị bỏ tù vì tấn công tình dục từ năm 2016 đến năm 2020.
Câu chuyện bịa đặt bao gồm các chi tiết về một phiên tòa kéo dài, nhiều nạn nhân và sự phẫn nộ rộng rãi của công chúng.
Đào sâu hơn tiết lộ sự tích hợp dữ liệu thiếu sót
Bối rối trước thông tin sai lệch, Chia đã nhấn Meta AI để biết thêm chi tiết. Chatbot này vẫn duy trì câu chuyện bịa đặt của mình, thậm chí còn trích dẫn The Straits Times làm nguồn.
Chi tiết này khiến Chia tin rằng Meta AI có thể đã hiểu sai dòng chữ của anh ấy trên các bài báo về các vụ án tại tòa án.
Mặc dù đã báo cáo lỗi và chỉ ra rằng thông tin đó rõ ràng là sai, Meta AI vẫn tiếp tục trả về phản hồi không chính xác tương tự. Điều này làm dấy lên mối lo ngại về các thuật toán cơ bản và phương pháp tích hợp dữ liệu của chatbot.
Vấn đề về thế hệ tăng cường truy xuất (RAG)
Các chuyên gia tin rằng sự cố của Meta AI bắt nguồn từ công nghệ có tên Retrieval-Augmented Generation (RAG). RAG cho phép chatbot truy cập và xử lý lượng thông tin khổng lồ từ internet để cung cấp phản hồi phù hợp hơn.
Tuy nhiên, trong trường hợp của Chia, RAG dường như đã phản tác dụng.
Thay vì phân tích chính xác dòng tên của Chia và nội dung các bài viết của anh ấy, Meta AI có thể đã hiểu sai các tiêu đề hoặc từ khóa, dẫn đến câu chuyện bịa đặt.
Sự cố này nêu bật những cạm bẫy tiềm ẩn của RAG khi không được triển khai với các biện pháp bảo vệ thích hợp và cơ chế kiểm tra thực tế.
Chatbots và sự lan truyền thông tin sai lệch
Trải nghiệm của Chia không phải là một trường hợp cá biệt.
Vào tháng 4 năm 2023, ChatGPT bị cáo buộc vu cáo một giáo sư luật về hành vi quấy rối tình dục. Tương tự, một chatbot của Air Canada đã cung cấp thông tin không chính xác, dẫn đến hãng hàng không thua kiện.
Những trường hợp này minh họa sự nguy hiểm của chatbot như những vectơ tiềm ẩn cho thông tin sai lệch. Khó khăn trong việc buộc các hệ thống AI này phải chịu trách nhiệm càng làm vấn đề trở nên phức tạp hơn.
Không giống như các nền tảng truyền thông truyền thống, không có cách nào để theo dõi phạm vi tiếp cận của phản hồi không chính xác của chatbot, khiến việc chứng minh hành vi phỉ báng hoặc buộc các công ty phải chịu trách nhiệm trở nên khó khăn.
Người dùng hãy cẩn thận hay trách nhiệm của AI?
Các công ty như Meta thường tự bảo vệ mình bằng các tuyên bố từ chối trách nhiệm về điều khoản sử dụng, đặt trách nhiệm xác minh thông tin cho người dùng.
Tuy nhiên, điều này tạo ra một câu hỏi hóc búa.
Chatbots được quảng cáo là nguồn thông tin đáng tin cậy, tuy nhiên người dùng phải xác minh độc lập mọi câu trả lời. Sự không nhất quán này đặt ra câu hỏi về mục đích thực sự của các hệ thống này.
Do các cuộc chiến pháp lý phải trả giá đắt, hầu hết người dùng có thể sẽ sử dụng cách báo cáo thông tin sai lệch cho chính nền tảng. Nhưng hiệu quả của phương pháp này vẫn còn phải chờ xem.
Giám đốc AI của Meta đặt ra nghi ngờ về các mô hình ngôn ngữ lớn đạt được trí thông minh ở cấp độ con người
Yann LeCun, nhà khoa học trí tuệ nhân tạo hàng đầu tại Meta, đã dội một gáo nước lạnh vào ý tưởng rằng các mô hình ngôn ngữ lớn (LLM) như ChatGPT sẽ đạt được trí thông minh thực sự giống con người.
Trong một cuộc phỏng vấn với Financial Times, LeCun lập luận rằng những mô hình này có một số hạn chế nghiêm trọng khiến chúng không thể đạt được sự hiểu biết và lý luận ở cấp độ con người.
Theo LeCun, LLM thiếu hiểu biết cơ bản về thế giới vật chất. Chúng không có trí nhớ dai dẳng, nghĩa là chúng không thể học hỏi và xây dựng dựa trên những kinh nghiệm trong quá khứ theo cách con người làm.
Hơn nữa, LeCun lập luận rằng LLM không có khả năng suy luận thực sự hoặc lập kế hoạch phân cấp.
Ông nhấn mạnh rằng những mô hình này phụ thuộc rất nhiều vào dữ liệu đào tạo cụ thể mà chúng được cung cấp và phản hồi của chúng bị giới hạn bởi các tham số của dữ liệu đó.
Theo LeCun, điều này khiến chúng "về bản chất không an toàn". vì chúng có thể dễ dàng bị thao túng để tạo ra kết quả sai lệch hoặc không chính xác.
Đây có phải là trường hợp sản phẩm của chính Meta gặp phải vấn đề tương tự không? Có phải LeCun đang vô tình nêu bật chính những vấn đề mà sản phẩm của anh gặp phải?
LLaMa và Thử thách kiếm tiền
Cách tiếp cận của Meta xoay quanh các dự án AI nguồn mở như LLaMa, dự án đã thu hút được sự chú ý đáng kể trong cộng đồng AI. Tuy nhiên, những dự án này vẫn chưa chuyển thành nguồn doanh thu trực tiếp.
Hy vọng nằm ở cơ sở hạ tầng AI rộng lớn của Meta, điều mà công ty tin rằng sẽ mở đường cho sự dẫn đầu toàn cầu trong lĩnh vực này.
Đáng chú ý là các khoản chi tiêu vốn đáng kể trước đây bị chế giễu đối với "metaverse" Dự án hiện đang được xem xét thuận lợi do vai trò tiềm năng của chúng trong việc phát triển AI.
Một điểm khác biệt chính giữa Meta và các đối thủ cạnh tranh là chiến lược kiếm tiền từ AI của công ty. Meta đã bắt đầu tính phí truy cập vào các mô hình AI lớn hơn, nhưng một phần đáng kể của công nghệ vẫn được cung cấp miễn phí.
Cách tiếp cận này nhằm mục đích tận dụng quy mô của các nền tảng truyền thông xã hội – Facebook, Instagram, Threads và WhatsApp – để gián tiếp tạo ra doanh thu.
Về cơ bản, bằng cách biến AI trở thành một mặt hàng sẵn có, Meta hy vọng sẽ thu hút nhiều người dùng và tương tác hơn trong hệ sinh thái của mình, cuối cùng dẫn đến một nền tảng quảng cáo có giá trị hơn.
Gary Marcus và chủ nghĩa hoài nghi LLM
Tuy nhiên, quan điểm lạc quan này bị thách thức bởi sự hoài nghi từ những nhân vật nổi tiếng như Gary Marcus. Marcus lập luận rằng LLM được đánh giá quá cao và dễ mắc lỗi.
Anh ấy tin rằng sự nhiệt tình hiện tại xung quanh họ thể hiện sự "đình chỉ sự hoài nghi". và các phương pháp tiếp cận thay thế như AI mang tính biểu tượng thần kinh có nhiều hứa hẹn hơn.
AI biểu tượng thần kinh cố gắng bắt chước chức năng của não người, một khái niệm mà Marcus tin rằng đã bị các nhà nghiên cứu từ bỏ sớm.
Nói một cách đơn giản hơn, Marcus gợi ý rằng mặc dù LLM có thể xử lý các tương tác dịch vụ khách hàng cơ bản nhưng họ lại thiếu khả năng xử lý các tình huống phức tạp.
Khi phải đối mặt với những khách hàng khó tính, các công ty vẫn sẽ cần đến sự can thiệp của con người. Nếu sự hoài nghi này trở thành xu hướng phổ biến, các nhà đầu tư của Meta có thể phải đối mặt với những tổn thất đáng kể.
Tầm nhìn của LeCun: Chuyển trọng tâm từ LLM sang AI mô hình hóa thế giới
Quan điểm của LeCun trái ngược với làn sóng đầu tư vào công nghệ LLM hiện nay.
Nhiều công ty đang đổ nguồn lực vào việc phát triển LLM ngày càng tinh vi hơn với hy vọng đạt được trí tuệ nhân tạo tổng quát (AGI) – một mức độ trí tuệ máy móc vượt qua khả năng của con người.
Tuy nhiên, LeCun đề xuất một cách tiếp cận khác. Anh và nhóm của mình tại phòng thí nghiệm nghiên cứu AI của Meta đang nghiên cứu một thế hệ hệ thống AI mới dựa trên "mô hình hóa thế giới".
Cách tiếp cận này nhằm mục đích tạo ra AI có thể xây dựng sự hiểu biết về thế giới xung quanh nó, tương tự như cách con người học hỏi và tương tác với môi trường của họ.
Mặc dù cách tiếp cận này hứa hẹn cho tương lai của AI, nhưng LeCun thừa nhận đó là một tầm nhìn dài hạn, có thể phải mất 10 năm hoặc hơn mới có kết quả.
Nhà quảng cáo mạnh mẽ của Meta
Bất chấp những bất ổn xung quanh AI, Meta sở hữu một lợi thế mạnh mẽ: sự thống trị của nó trong bối cảnh quảng cáo kỹ thuật số.
Doanh thu quảng cáo của công ty tiếp tục tăng nhờ khả năng vô song trong việc nhắm mục tiêu người dùng trên nhiều nền tảng khác nhau.
Khả năng này cho phép Meta hiển thị các quảng cáo có mức độ phù hợp cao với chi phí thấp hơn so với quảng cáo dựa trên nội dung truyền thống.
Về cơ bản, Meta đã tự khẳng định mình là mạng liên lạc miễn phí của thế giới. Cơ sở hạ tầng rộng lớn của nó tạo điều kiện thuận lợi cho các cuộc gọi và nhắn tin miễn phí, được tài trợ hoàn toàn bằng doanh thu quảng cáo.
Mô hình này phát triển mạnh về khả năng kết nối khách hàng tiềm năng dựa trên các cuộc trò chuyện và tương tác trực tuyến của họ. Không giống như phương tiện truyền thông truyền thống, Meta không phát sinh chi phí tạo nội dung, điều này giúp tăng thêm lợi nhuận của nó (hiện ở mức lợi nhuận ròng 33%).
Tuy nhiên, việc không ngừng theo đuổi lợi nhuận này làm nảy sinh những lo ngại về đạo đức. Nền tảng quảng cáo dựa trên thuật toán của Meta đã bị chỉ trích vì cho phép quảng cáo nội dung quảng cáo có hại trên nền tảng của họ.
Bất chấp những lời hứa sẽ giải quyết những vấn đề này, các nhà phê bình cho rằng Meta có thể ưu tiên doanh thu hơn các nguyên tắc, có khả năng cho phép nội dung bất lợi tồn tại.
Sự chấp thuận của Meta đối với các quảng cáo chính trị do AI thao túng trong cuộc bầu cử ở Ấn Độ
Không phải lần đầu tiên Meta phải đối mặt với sự giám sát chặt chẽ về việc phê duyệt các quảng cáo phi đạo đức.
Lần này, công ty mẹ của Facebook và Instagram phải đối mặt với những chỉ trích nặng nề về việc không ngăn chặn được sự lan truyền của các quảng cáo chính trị do AI thao túng trong cuộc bầu cử gần đây ở Ấn Độ.
Theo một báo cáo được chia sẻ độc quyền với The Guardian, Meta đã phê duyệt một loạt quảng cáo có chứa lời nói căm thù, thông tin sai lệch và kích động bạo lực tôn giáo nhắm vào các nhóm tôn giáo và các nhà lãnh đạo chính trị, bao gồm cả những lời nói xấu đã biết đối với người theo chủ nghĩa tối cao Hồi giáo và Ấn Độ giáo.
Bất chấp các cơ chế được cho là của Meta để phát hiện và chặn nội dung có hại, những quảng cáo này do India Civil Watch International và Ekō gửi đã được phê duyệt, nâng cao khả năng của nền tảng trong việc khuếch đại các câu chuyện có hại hiện có.
Thủ tướng Ấn Độ, Narendra Modi, cùng với Giám đốc điều hành Facebook, Mark Zuckerberg (Nguồn: The Guardian)
Không phát hiện được nội dung gây kích động
Điều đáng báo động là hệ thống của Meta không nhận ra rằng các quảng cáo được phê duyệt có hình ảnh do AI thao túng, bất chấp cam kết công khai của công ty là ngăn chặn sự lan truyền của nội dung do AI tạo ra hoặc bị thao túng trong cuộc bầu cử ở Ấn Độ.
Mặc dù một số quảng cáo bị từ chối vì vi phạm tiêu chuẩn cộng đồng, nhưng những quảng cáo nhắm mục tiêu đến người Hồi giáo lại được chấp thuận, vi phạm chính sách của Meta về lời nói căm thù, thông tin sai lệch và kích động bạo lực.
Hơn nữa, Meta không thừa nhận những quảng cáo này là liên quan đến chính trị hoặc bầu cử, cho phép chúng lách luật bầu cử của Ấn Độ, cấm quảng cáo chính trị trong thời gian bỏ phiếu.
Thất bại này nêu bật sự bất cập của nền tảng trong việc chống lại lời nói căm thù và thông tin sai lệch, đồng thời đặt ra câu hỏi về độ tin cậy của nền tảng này trong việc quản lý các cuộc bầu cử trên toàn thế giới.
Phản ứng của Meta và những thách thức liên tục
Đáp lại những tiết lộ này, Meta nhấn mạnh yêu cầu nhà quảng cáo phải tuân thủ tất cả các luật hiện hành và cam kết xóa nội dung vi phạm.
Tuy nhiên, những phát hiện này đã bộc lộ những lỗ hổng đáng kể trong cơ chế của Meta để giải quyết lời nói căm thù và thông tin sai lệch. Bất chấp tuyên bố về sự chuẩn bị rộng rãi cho cuộc bầu cử ở Ấn Độ, việc Meta không có khả năng phát hiện và ngăn chặn việc phổ biến nội dung có hại khiến người ta đặt câu hỏi về tính hiệu quả của nó trong việc bảo vệ các quy trình dân chủ.
Khi công ty phải vật lộn với những thách thức liên tục trong việc kiểm duyệt nội dung, bao gồm cả sự lan truyền của các thuyết âm mưu và lời nói căm thù Hồi giáo, ngày càng có nhiều lo ngại về khả năng giải quyết các vấn đề tương tự trong các cuộc bầu cử trên toàn cầu, làm dấy lên nghi ngờ về độ tin cậy của nó như một nền tảng cho các cuộc thảo luận chính trị.
Nơi ươm mầm cho những trò lừa đảo
Các nền tảng của Meta, bao gồm Facebook, Instagram và WhatsApp, đã trở thành điểm nóng cho các vụ lừa đảo trên toàn cầu. Từ lừa đảo lừa đảo đến phân phối phần mềm độc hại, sự giám sát lỏng lẻo và các biện pháp an toàn không đầy đủ của Meta làm dấy lên lo ngại về bảo mật người dùng.
Các phản ứng của công ty đối với tin tức bịa đặt nhấn mạnh thêm tính dễ bị khai thác của nó, đặt ra câu hỏi về khả năng chống lừa đảo một cách hiệu quả.
Suy đoán nảy sinh liệu Meta có nhắm mắt làm ngơ trước những lo ngại này để ủng hộ việc phân bổ vốn cho nỗ lực phát triển AI của mình hay không.
Meta: Một ngôi nhà bị chia cắt?
Khi các công nghệ này tiếp tục phát triển, các cơ chế xác minh tính xác thực mạnh mẽ và kỳ vọng rõ ràng hơn của người dùng là rất quan trọng để ngăn chặn sự lan truyền thông tin sai lệch và bảo vệ các cá nhân khỏi bị tổn hại về danh tiếng.
Meta thể hiện mình là công ty dẫn đầu về AI vượt qua các ranh giới của công nghệ, tuy nhiên các nền tảng truyền thông xã hội của nó lại gặp phải nhiều vấn đề về an toàn.
Mặc dù công ty đầu tư rất nhiều vào các tiến bộ AI như Chameleon, nhưng khả năng giảm thiểu các vấn đề trong thế giới thực như thông tin sai lệch và thao túng chính trị vẫn còn nhiều nghi vấn. Sự mâu thuẫn này đặt ra một câu hỏi quan trọng: Liệu Meta có thực sự trở thành nhà vô địch về AI nếu nó không thể giải quyết các mối lo ngại về an toàn đang gây khó khăn cho các sản phẩm hiện có của mình?
Câu trả lời có thể nằm ở chỗ Meta thu hẹp khoảng cách giữa các mục tiêu AI đầy tham vọng và nhu cầu cấp thiết để bảo vệ người dùng một cách hiệu quả như thế nào.
Tuần này bổ nhiệm cố vấn bên ngoài gợi ý một sự thay đổi tiềm năng hướng tới một cách tiếp cận toàn diện hơn, nhưng chỉ có thời gian mới biết liệu Meta có thể dung hòa tầm nhìn tương lai của mình với những thiếu sót ngày nay hay không.