"让人工智能为每个人带来帮助"
这是谷歌在最近举行的谷歌I/O大会上打出的标语,但事情似乎有了转机。
人工智能概述的准确性问题
在不断发展的人工智能(AI)领域,谷歌、微软、OpenAI 和 xAI 等科技巨头之间出现了激烈的竞争。
比赛的核心是生成式人工智能,这是一种能够生成人类质量的文本、翻译、图像和代码的技术。
谷歌是这场竞赛中的佼佼者,它于 2024 年 5 月推出了人工智能概述功能,目的是在搜索结果的顶部为用户提供搜索查询的快速摘要。
这一创新功能旨在与 ChatGPT 竞争,承诺简化信息收集过程。
然而,谷歌人工智能推出后不久,就因通过人工智能概述提供不准确和误导性信息而遭到抨击。社交媒体用户记录了许多该工具提供错误或有争议答案的事例,引起了人们对其可靠性的严重担忧。
人工智能概述中的不准确信息案例
有几个例子凸显了人工智能概述的不足之处。
一位用户询问美国有多少位穆斯林总统,结果得到一个明显错误的说法:巴拉克-奥巴马是美国第一位穆斯林总统。
这一错误源于该工具对引用已被揭穿的阴谋论的源文本的误读。
人工智能概述功能似乎很难区分事实和虚构,也很难辨别幽默或讽刺。它缺乏掌握某些查询的相关背景的能力。
其中一个例子涉及如何防止奶酪从披萨上滑落的问题。AI Overviews 提出了一个奇怪的建议,建议在酱汁中加入约 1/8 杯无毒胶水;
这一建议源自 Reddit 上的一个幽默帖子,暴露了该工具无法区分事实信息和笑话。
另一个例子是,一位 Reddit 用户提出了一个问题:"每天建议摄入的岩石量是多少?"促使 AI Overview 回答说:"加州大学伯克利分校的地质学家建议每天至少食用一块小石头。"该网站声称,这一信息来源于讽刺新闻网站 Onion.com 上的一篇文章。
也许最令人担忧的是人工智能概述'对健康相关问题的回答。
在一个案例中,一位用户在寻求有关日光照射的建议时,得到了一个危险的建议,即直接盯着太阳看 5-15 分钟(深色皮肤可长达 30 分钟)是安全和有益的。
这一错误信息被错误地归咎于 WebMD(一家著名的医疗保健网站)。
这些事件被称为 "人工智能幻觉"(AI hallucinations),展示了人工智能生成模型把捏造的信息当作事实的潜在危险。
人工智能幻觉的根本原因
人工智能概述》中的错误可归因于几个因素。
罪魁祸首之一就是用于开发工具的训练数据。如果训练数据充斥着不准确或偏差,生成的人工智能模型很可能会延续这些问题。
此外,模型本身在算法上的不一致也会导致对信息的误读,并产生不合理的反应。
另一个重要因素是理解背景的挑战。
人工智能概述似乎很难识别某些来源背后的讽刺或幽默意图,导致它从模仿帖子或笑话网站中提取信息,并将其作为事实呈现。
这凸显了在开发能有效辨别可靠数据和误导内容的人工智能模型方面一直存在的困难。
谷歌对批评的回应
面对公众的强烈抗议,谷歌承认人工智能概述中存在不准确之处。
不过,该公司坚持认为,大多数情况下都提供了准确的信息,并附有供进一步探索的链接。
谷歌还指出,许多有问题的例子涉及不常见的查询或可能是捏造的场景。
该公司承诺迅速采取行动,解决已发现的问题,并根据其内容政策实施修改。
这包括删除容易产生不准确结果的查询的人工智能概述,并进行更广泛的改进,以提高系统的整体可靠性。
目的是防止今后出现类似问题。
谷歌搜索生成体验(SGE)与恶意推荐问题
去年,谷歌推出了一项名为 "搜索生成体验"(SGE)的新功能,利用人工智能为用户提供搜索结果摘要。
这包括内容解释、集成视频和图片,以及与查询相关的建议链接。
然而,安全研究人员发现了系统中的一个漏洞,它允许人工智能推荐恶意网站。
问题在于坏人有可能通过搜索引擎优化(SEO)技术操纵 SGE 算法。
通过战略性地使用相关关键词,这些恶意网站可以欺骗人工智能,让它们出现在搜索结果中。
这正是搜索引擎优化专家莉莉-雷在测试 SGE 功能时发现的。雷在搜索比特犬时,人工智能推荐了几个垃圾网站。
BleepingComputer 的进一步调查发现了与这些垃圾邮件网站相关的一系列恶意结果。
发现的一些令人担忧的活动包括试图诱骗用户启用干扰性浏览器通知,向他们发送垃圾邮件。
在其他情况下,垃圾邮件网站可能会导致钓鱼欺诈或安装不需要的浏览器扩展。
危险在于用户认为人工智能生成的建议是安全的,而事实显然并非如此。
必须进行严格测试和合乎道德的部署
人工智能的幻觉是一项长期存在的挑战,谷歌人工智能的反应有时会陷入荒谬的境地。
尤其是在海量信息中,如何区分准确和错误的输出结果是一个相当大的挑战。
用户通常正是因为缺乏明确的答案才会求助于搜索引擎,而人工智能则可以弥补这一缺陷。
谷歌积极主动地解决这些问题,彰显了对改进的承诺。
然而,围绕人工智能概述的争议强调了在部署人工智能生成技术时进行全面测试和伦理考虑的必要性。
随着对人工智能至高无上地位的追求不断加强,确保这些强大工具的精确性和道德开发仍然至关重要。
我们有责任保持警惕,批判性地评估和验证人工智能的反应,而不是被动地接受它们。
通过这样做,我们可以更自信、更诚信地驾驭不断发展的人工智能。