文章来源
加密货币和人工智能在过去几年都取得了显着进步。
加密货币庆祝成功,例如去中心化金融 , 以及最近德西 .
AI 庆祝成功,例如AlphaFold2 , 以及最近聊天GPT。
时间回到 2018 年,彼得泰尔尖 为了解决加密货币的去中心化力量与人工智能的集中力量之间的紧张关系,创造了“加密货币是自由意志主义者,人工智能是共产主义者”这个词。在这里我想说的是,我们可以通过将两者结合起来学习一些东西。
为什么?因为安全和加密社区磨练的技能和方法有可能解锁 AI 的有用应用程序并降低 AI 风险。
我们都会死吗?
AI 安全领域的杰出人物 Eliezer Yudkowsky 最近出人意料地出现在无银行播客 ,一个明显的 Web3 播客。
令人惊讶的有两个原因:
首先,Eliezer 认为我们正在快速开发通用人工智能 (AGI),它几乎可以执行人类的所有任务,而且这样的 AGI 很可能会杀死我们所有人。
其次,当被问及是否可以做些什么来增加我们生存的微小机会时,他鼓励具有强烈安全心态的安全和密码学导向的人参与 AI 调整。
让我们打开包装。首先,我们将讨论为什么我们应该担心 AGI,然后再深入探讨加密(这里主要指密码学)和安全社区为减轻 AGI 的一些危险所做的承诺。
人工智能安全:比你想象的更难?
正如最近瞥见新闻的任何人都可以证明的那样,没有一周人工智能的进展没有显着加速。如果您错过了它,这里只是三个重要的发展:
首先,推动人工智能更加集中化,例如微软投资 OpenAI,谷歌投资 OpenAI 的竞争对手 Anthropic,以及 DeepMind 和谷歌大脑合并为一个组织。
其次,一直在推动更通用的人工智能。最近的论文“GPT4:通用人工智能的火花 ”展示了 GPT-4 如何已经展示了心智理论的第一个实例,这是一种通常用于评估人类智力的措施。
第三,在 AI 系统中推动了更多的代理,AutoGPT 通过重新提示自己完成更复杂的任务而变得更具代理性。
早在十二月,元积分 ,一个预测平台,预测 AGI 大约在 2039 年到来。现在,在 5 月,日期是 2031 年——换句话说,八年的时间线下降到 AI 进步的五个月内。
如果我们将这些发展视为我们正在走向通用人工智能的标志,那么下一个问题是为什么 AGI 安全性被认为如此困难?
可以说,我们可以将 AGI 安全问题分解为三个子问题:
一致性:我们如何使人工智能与人类价值观保持一致?
AI 一致性是一个简单的问题,即我们如何让 AI 与我们的价值观保持一致。但很容易忘记,我们甚至不同意我们的价值观是什么。自文明诞生以来,哲学家和凡人就伦理问题争论不休,各方都有令人信服的观点。这就是为什么我们当前的文明主要达到了价值多元主义(具有相互冲突的价值观的人类和平共存的想法)。这适用于人类价值观的多样性,但很难在一个人工智能代理中实施。
让我们想象一下,我们粗略地知道应该为 AGI 配备什么样的道德价值观。接下来,我们需要将这些人类价值观传达给一个不共享人类进化、思维架构或环境的基于硅的实体。当人类与其他人协调时,我们可以依赖大量共享的隐含背景知识,因为我们共享我们物种的生物学、进化历史,甚至通常还有一些文化背景。有了人工智能,我们就不能依赖这样一个共同的背景。
另一个问题是,为了追求任何目标,活着和获得更多资源通常对工具有用。这意味着,设定为追求特定目标的 AI 可以抵抗被关闭并寻求越来越多的资源。考虑到 AI 可以实现包括人身伤害、忽视、欺骗等目标的无数种可能性,并且考虑到以可靠的方式提前预测和指定所有这些约束有多么困难,技术调整的工作是艰巨的.
电脑 安全
即使人类同意一组价值观,并弄清楚如何在技术上使 AGI 与它们保持一致,我们仍然不能指望它在没有证据证明底层软件和硬件本身可靠的情况下可靠地运行。鉴于 AGI 为其创造者带来的巨大优势,恶意黑客可能会破坏或重新编程 AGI。
更进一步,一个无意的错误可能会干扰 AGI 的目标执行,或者 AGI 本身可能会利用自己代码中的漏洞,例如通过以危险的方式重新编程。
不幸的是,我们在不安全的网络基础上构建了当今价值数万亿美元的整个生态系统。我们的大部分物理基础设施都基于可入侵的系统,例如电网、我们的核武器技术。在未来,即使是不安全的自动驾驶汽车和无人驾驶飞机也可能被黑客攻击变成杀手机器人。越来越多的网络攻击(例如 Sputnick 或 Solarwinds)很严重,但与未来可能的 AG 攻击相比可能是良性的。我们对这些攻击缺乏有意义的回应表明我们无法胜任 AGI 安全的任务,这可能需要重建我们许多不安全的基础设施。
“通过利用安全和密码学社区的技术和技能,我们或许能够追求多极超级智能场景。”
协调
在 AGI 的一致性和安全性方面取得进展可能需要时间,这使得构建 AGI 的参与者在整个过程中进行协调非常重要。不幸的是,激励主要的 AI 参与者(这可能是合作或民族国家)合作并避免刺激军备竞赛动态以首先实现 AGI 并不是那么简单。灾难只需要一个参与者背叛协议,这意味着即使其他人都合作,如果一个人领先,他们也会获得决定性的优势。这种先发优势一直持续到 AGI 建成并赋予 AGI 系统的单一部署可能传达给其所有者的权力,并且所有者很难放弃。
安全多极人工智能
到目前为止,您可能已经点了点头:是的,当然,AI 安全真的很难。但是加密与它有什么关系呢?
鉴于 AI 的快速进步,以及确保其安全的困难,传统的担忧是我们正在向 AGI 单例场景竞速,在这种场景中,AGI 取代人类文明成为与智能相关的整体框架并主宰世界,一路上可能会杀死人类。
通过利用安全和密码学社区的技术和技能,我们或许能够改变方向,转而追求多极超级智能场景,在这种场景中,人类和人工智能网络安全地合作,将他们的本地知识融入文明的集体超级智能中。
这是一个宏大而抽象的主张,所以让我们来解开加密和安全社区究竟如何通过解锁新应用来帮助控制人工智能风险并释放人工智能之美。
安全和密码学如何控制人工智能风险?
红队
著名的 AI 安全研究员 Paul Christiano,表明 人工智能迫切需要更多的红队,这通常是计算机安全中用来指代模拟网络攻击的术语。例如,AI 环境中的红队可用于搜索在机器学习系统中导致灾难性行为的输入。
红队也是加密社区的经验。比特币和以太坊都在不断受到敌对攻击的环境中发展,因为不安全的项目相当于数百万美元的加密货币“漏洞赏金”。
非防弹系统被淘汰,生态系统中只剩下更多的防弹系统。加密项目经过了一定程度的对抗性测试,这对于能够抵御破坏传统软件的网络攻击的系统来说是一个很好的启发。
反串通
AI 的第二个问题是,多个新兴的 AI 最终可能会串通起来推翻人类。例如, ”通过辩论的人工智能安全 ”,这是一种流行的对齐策略,它依赖于两个 AI 相互辩论话题,并由一名在循环中的人类法官来决定谁获胜。然而,人类法官可能无法排除的一件事是,两个人工智能都在串通反对她,没有一个促进真实的结果。
同样,加密在避免串通问题方面有经验,例如女巫攻击 ,它使用单个节点来操作许多活跃的假身份,以暗中获得网络中的大部分影响力。为了避免这种情况,加密货币中出现了大量关于机制设计的工作,其中一些也可能对 AI 合谋有有用的经验教训。
制衡
OpenAI 竞争对手 Anthropic 目前探索的另一种有前途的安全方法是“宪法人工智能 ”,其中一个人工智能使用人类给出的规则和原则监督另一个人工智能。这是受美国宪法设计的启发,在制衡制度中设置了利益冲突和有限手段。
同样,安全和密码学社区对类似宪法的制衡安排有着丰富的经验。例如,安全原则 POLA(最小权限原则)要求一个实体只能访问完成其工作所需的最少信息和资源。在构建更高级的 AI 系统时也要考虑的一个有用原则。
这些只是众多例子中的三个,让我们领略安全和加密社区中突出的安全心态类型如何帮助应对 AI 对齐挑战。
加密和安全如何释放人工智能的魅力?
除了您可以尝试解决的 AI 安全问题之外,让我们看一些案例,在这些案例中,加密安全创新不仅可以帮助驯服 AI,还可以释放它的美丽,例如通过启用新颖的有益应用程序。
保护隐私的人工智能
有几个领域是传统人工智能无法真正触及的,特别是解决需要敏感数据的问题,例如个人健康信息或财务数据,这些数据具有很强的隐私约束。
幸运的是,正如所指出的 由密码学研究员 Georgios Kaissis 提出,这些领域是密码学和辅助方法(如联邦学习、差分隐私、同态加密等)大放异彩的领域。这些新兴的计算方法可以在保护隐私的同时处理大型敏感数据集,因此与集中式人工智能相比具有相对优势。
利用当地知识
传统人工智能难以解决的另一个领域是获取本地知识,这些知识通常是解决机器学习 (ML) 中大数据无法理解的边缘案例所必需的。
加密生态系统可以通过建立市场来帮助提供本地数据,在该市场中,开发人员可以使用激励措施为他们的算法吸引更好的本地数据。例如,Coinbase 联合创始人 Fred Ehrsam建议 将允许训练敏感数据的私有 ML 与基于区块链的激励机制相结合,将更好的数据吸引到基于区块链的数据和 ML 市场中。虽然开源 ML 模型的实际训练可能不可行或不安全,但数据市场可以向创建者支付其数据贡献的公平份额。
加密人工智能
从长远来看,甚至有可能利用加密方法来构建更安全、更强大的人工智能系统。
例如,密码学研究员 Andrew Trask建议 使用同态加密来完全加密神经网络。如果可能的话,这意味着网络的智能将得到保护以防盗窃,使参与者能够使用他们的模型和数据在特定问题上进行合作,而无需透露输入。
但更重要的是,如果 AI 是同态加密的,那么它就会认为外部世界是加密的。控制密钥的人可以解锁 AI 做出的个人预测,而不是让 AI 自己进入野外。
同样,这些只是潜在的许多例子中的三个,在这些例子中,加密可以解锁人工智能的新用例。
“模因控制模因和机构控制机构的例子也表明人工智能系统可以控制人工智能系统。”
拼凑起来
集中式 AI 存在单点故障。它不仅会将复杂的人类价值多元主义压缩为一个目标函数。它还容易出错、内部损坏和外部攻击。另一方面,由安全和密码学社区构建的安全多极系统有很多希望;他们支持价值多元主义,可以提供红队、制衡,并且是反脆弱的。
密码系统也有很多缺点。例如,密码学需要在去中心化数据存储、功能加密、对抗性测试和计算瓶颈方面取得进展,这使得这些方法仍然非常缓慢和昂贵。此外,分散式系统也不如集中式系统稳定,并且容易受到流氓行为者的影响,这些行为者总是有动机勾结或以其他方式推翻系统以控制它。
然而,考虑到 AI 的快速发展,以及 AI 中相对缺乏安全性和密码学意识的人,现在考虑您是否可以为 AI 做出有意义的贡献并带来这里讨论的一些好处可能还为时过早。
安全多极人工智能的承诺是总结得很好技术先驱埃里克·德雷克斯勒 (Eric Drexler) 于 1986 年写道:“模因控制模因和机构控制机构的例子也表明人工智能系统可以控制人工智能系统。”