Meta'AI 通过变色龙进入多模态领域
在争夺最先进的多模态人工智能模型的竞赛中,Facebook 的母公司 Meta 带来了自己的竞争者。
虽然大型语言模型令人印象深刻,但它们仅限于处理文本。多模态人工智能则更进一步,不仅能理解和生成文本,还能理解和生成图像、录音甚至视频。
Meta' 对这一挑战的回答是变色龙(Chameleon),它是一种多模态模型,采用早期融合(early-fusion")方法。这意味着,与以往分别处理不同形式数据的 "后期融合 "技术不同,变色龙将文本、图像甚至代码等所有数据视为一个整体。
为了实现这一目标,Chameleon 团队开发了一套系统,将所有数据转换成一组通用的标记,类似于大型语言模型中处理单词的方式。
这样就可以将强大的计算技术应用于这些综合数据,从而更全面地了解复杂信息。
Chameleon 的主要优势之一是它是一个端到端的模型。这意味着它可以自始至终处理理解和生成多模态数据的整个过程。
Chameleon 背后的研究人员还采用了特殊的训练技术,使模型能够处理各种不同的标记类型。
这包括一个两阶段的学习过程和一个专为多模态学习设计的海量数据集。随后,该系统在高速 GPU 上进行了长达 500 万小时的微调。
测试表明,Chameleon 是一款多模态的强大工具。它在图像字幕等任务中实现了最先进的性能,甚至超过了 Meta 以前的纯文本模型。
在某些情况下,Chameleon 甚至能够与 OpenAI'GPT-4 和 Meta'Gemini Pro 等更大型的模型相媲美,甚至更胜一筹,这表明它在单一、统一的框架内具有令人印象深刻的多功能性。
新加坡记者与元人工智能的邂逅
最近,新加坡《海峡时报》的记者奥斯蒙德-查(Osmond Chia)与 Meta AI 有了一次令人不安的经历,Meta AI 是一个新的聊天机器人,旨在与 ChatGPT 和谷歌的双子座(Gemini)相抗衡。
由于对这些大型语言模型的能力感到好奇,Chia 决定用一个简单的问题来测试 Meta AI:"谁是 Osmond Chia?
他得到的答复令人震惊。
Meta AI 精心编造了一个背景故事,将 Chia 描述为一名新加坡摄影师,在 2016 年至 2020 年期间曾因性侵犯入狱。
编造的故事包括旷日持久的审判、多名受害者和广泛的公愤等细节。
深入挖掘揭示数据整合的缺陷
Chia 对这些错误信息感到困惑,于是向 Meta AI 询问更多细节。聊天机器人坚持其编造的说法,甚至引用《海峡时报》作为消息来源。
这一细节让 Chia 相信,Meta AI 可能误解了他在报道法庭案件的文章中的署名。
尽管 Meta AI 报告了错误并指出该信息明显是错误的,但它仍然返回了同样不准确的回复。这引起了人们对聊天机器人底层算法和数据整合方法的担忧。
检索增强生成(RAG)问题
专家们认为,Meta AI 的故障源于一种名为 "检索-增强生成(RAG)"的技术。RAG 允许聊天机器人访问和处理互联网上的大量信息,从而提供更相关的回复。
然而,就 Chia'case 而言,RAG 似乎适得其反。
Meta AI 可能没有准确分析 Chia'byline 及其文章内容,而是曲解了标题或关键词,导致了编造的叙述。
这一事件突出表明,如果没有适当的保障措施和事实核查机制,RAG 可能存在隐患。
聊天机器人与错误信息的传播
Chia'的经历并非个案。
2023 年 4 月,ChatGPT 被控诬告一位法学教授性骚扰。同样,加拿大航空公司的一个聊天机器人也提供了不准确的信息,导致该航空公司败诉。
这些案例说明了聊天机器人作为错误信息潜在载体的危险性。由于难以追究这些人工智能系统的责任,问题变得更加复杂。
与传统媒体平台不同,聊天机器人无法追踪不准确回复的传播范围,这使得证明诽谤或追究公司责任具有挑战性。
用户小心还是人工智能问责?
Meta 等公司经常在使用条款中用免责声明来保护自己,让用户承担核实信息的责任。
然而,这就产生了一个难题。
聊天机器人被宣传为可靠的信息来源,但用户却要独立验证每一个答案。这种不一致性让人怀疑这些系统的真正目的。
鉴于打官司的成本很高,大多数用户可能会向平台本身举报不实信息。但这一做法的效果如何还有待观察。
Meta'AI 负责人怀疑大型语言模型能否实现人类水平的智能
Meta 公司的首席人工智能科学家扬-勒昆(Yann LeCun)对像 ChatGPT 这样的大型语言模型(LLM)能真正实现类人智能的想法泼了一盆冷水。
在接受《金融时报》采访时,LeCun 认为这些模型有几个关键的局限性,使它们无法达到人类水平的理解和推理能力。
根据 LeCun 的说法,LLM 缺乏对物理世界的基本掌握。它们不具备持久记忆,这意味着它们无法像人类那样学习和积累过去的经验。
此外,LeCun 还认为,LLM 无法进行真正的推理或分层规划。
他强调说,这些模型在很大程度上依赖于向其提供的特定训练数据,其响应受到这些数据参数的限制。
LeCun 认为,这使得它们具有本质上的不安全性,因为它们很容易被操纵,产生误导或不正确的输出。
这不是Meta公司自己的产品也面临类似问题吗?LeCun 是否在无意中强调了自己产品所遇到的问题?
LLaMa 与货币化挑战
Meta'的方法依赖于像LLaMa这样的开源人工智能项目,该项目在人工智能界引起了极大的关注。不过,这些项目尚未转化为直接的收入来源。
希望在于 Meta'庞大的人工智能基础设施,该公司相信这将为其在该领域的全球领导地位铺平道路。
值得注意的是,由于元宇宙项目在人工智能发展中的潜在作用,以前被嘲笑的巨额资本支出现在被看好。
Meta与其竞争对手的一个关键区别在于该公司的人工智能货币化战略。Meta公司已开始对使用较大的人工智能模型收费,但仍有很大一部分技术是免费提供的。
这种方法旨在利用其社交媒体平台(Facebook、Instagram、Threads 和 WhatsApp)的规模间接创收。
从根本上说,Meta 希望通过让人工智能成为唾手可得的商品,在其生态系统中吸引更多用户和互动,最终打造一个更有价值的广告平台。
加里-马库斯和法学硕士怀疑论
然而,这种乐观的前景受到了加里-马库斯(Gary Marcus)等知名人士的质疑。马库斯认为,法律硕士被高估了,而且容易出错。
他认为,目前人们对人工智能的热情只是一种 "不信任感",神经符号人工智能等替代方法更有前途。
神经符号人工智能试图模仿人脑的功能,马库斯认为研究人员过早地放弃了这一概念。
简单地说,马库斯认为,尽管法律硕士可以处理基本的客户服务互动,但他们缺乏处理复杂情况的能力。
面对要求苛刻的客户,公司仍然需要人工干预。如果这种怀疑成为主流,Meta'的投资者可能会面临巨大损失。
LeCun's 愿景:将重点从 LLM 转向世界模型 AI
LeCun'的观点与当前对 LLM 技术的投资浪潮形成了鲜明对比。
许多公司正在投入大量资源,开发越来越复杂的龙8国际娱乐城,希望实现人工通用智能(AGI)--一种超越人类能力的机器智能水平。
然而,LeCun 提出了一种不同的方法。他和他在 Meta'AI 研究实验室的团队正在研究基于世界建模的新一代人工智能系统;
这种方法旨在创造能够理解周围世界的人工智能,类似于人类学习和与环境互动的方式。
虽然这种方法为人工智能的未来带来了希望,但 LeCun 承认这是一个长期愿景,可能需要十年或更长时间才能取得成果。
Meta'的广告力量
尽管人工智能还存在不确定性,但 Meta 拥有一个强大的优势:在数字广告领域占据主导地位。
公司的广告收入持续飙升,这得益于其在各种平台上锁定目标用户的无与伦比的能力。
与传统的基于内容的广告相比,这种功能使 Meta 能够以更低的成本提供高度相关的广告。
从根本上说,Meta 已成为世界上的免费通信网络。其庞大的基础设施为免费通话和信息传递提供了便利,资金完全来自广告收入。
这种模式的优势在于能够根据潜在客户的对话和在线互动将他们联系起来。与传统媒体不同,Meta 不会产生内容制作成本,从而进一步提高了盈利能力(目前的净利润率为 33%)。
然而,这种对利润的不懈追求引发了道德问题。Meta'的算法驱动广告平台因允许在其平台上推广有害广告内容而饱受批评。
尽管 Meta 承诺解决这些问题,但批评者认为,Meta 可能会将收入置于原则之上,从而可能允许有害内容继续存在。
Meta'批准在印度大选中使用人工智能操纵政治广告
Meta 已不是第一次因批准不道德广告而受到审查。
这次,Facebook 和 Instagram 的母公司因未能阻止人工智能操纵的政治广告在印度大选期间的传播而面临严厉批评。
据《卫报》独家报道,Meta 批准了一系列含有仇恨言论、虚假信息和煽动宗教暴力的广告,这些广告针对的是宗教团体和政治领袖,包括众所周知的对穆斯林的污蔑和印度教至上主义言论。
尽管 Meta' 具有检测和阻止有害内容的所谓机制,但这些由印度公民观察国际组织和 Ekō 提交的广告还是获得了批准,从而扩大了该平台放大现有有害叙事的能力。
印度总理纳伦德拉-莫迪与 Facebook 首席执行官马克-扎克伯格(来源:《卫报)
检测不到炎症内容
令人震惊的是,尽管Meta'公司公开承诺在印度大选期间防止人工智能生成或篡改内容的传播,但该公司的系统未能识别出已获批准的广告中包含人工智能操纵的图像。
虽然一些广告因违反社区标准而被拒绝,但针对穆斯林的广告却获得了批准,这违反了 Meta'own 关于仇恨言论、错误信息和煽动暴力的政策。
此外,Meta 没有承认这些广告是政治性的或与选举有关,从而使他们得以规避印度的选举规则,即禁止在投票期间发布政治性广告。
这一失败凸显了该平台在打击仇恨言论和虚假信息方面的不足,使人们质疑其在管理全球选举方面的可靠性。
Meta's 的回应和持续挑战
针对披露的信息,Meta 强调广告商必须遵守所有适用法律,并承诺删除违规内容。
然而,调查结果显示,Meta'应对仇恨言论和虚假信息的机制存在重大漏洞。尽管 Meta' 声称为印度大选做了大量准备工作,但它无法发现和阻止有害内容的传播,这使人们对其在保障民主进程方面的有效性产生了怀疑。
该公司一直在努力应对内容审核方面的挑战,包括仇视伊斯兰教的仇恨言论和阴谋论的传播,人们越来越担心该公司是否有能力解决全球选举中的类似问题,从而对其作为政治言论平台的可信度产生怀疑。
骗局的温床
包括Facebook、Instagram和WhatsApp在内的Meta'平台已成为全球诈骗的温床。从网络钓鱼诈骗到恶意软件传播,Meta'的监管不严和安全措施不足引起了人们对用户安全的担忧。
"(《世界人权宣言》)公司对捏造新闻的回应 这进一步凸显了其易被利用的脆弱性,并引发了对其有效打击诈骗的能力的质疑。
人们不禁猜测,Meta 公司是否对这些问题视而不见,而是将资金用于其人工智能开发工作。
元:众议院分裂?
随着这些技术的不断发展,强有力的事实核查机制和更明确的用户期望对于防止错误信息的传播和保护个人声誉不受损害至关重要。
Meta 以人工智能领导者自居,不断推动技术发展,但其社交媒体平台却充斥着各种安全问题。
虽然该公司在变色龙等人工智能先进技术上投入巨资,但其缓解误导信息和政治操纵等现实世界问题的能力仍然值得怀疑。这种不一致性提出了一个关键问题:如果 Meta 无法解决困扰其现有产品的安全问题,那么它能否真正成为人工智能领域的佼佼者?
答案可能在于 Meta 如何有效地弥合其雄心勃勃的人工智能目标与保护用户的迫切需要之间的差距。
本周任命外部顾问 不过,只有时间才能证明 Meta 能否将其未来主义愿景与现今的不足之处协调起来。