就在上周GPT-4o 的推出引起了热烈反响 由于其极具吸引力的 "全方位 "功能,它结合了实时文本、音频和视觉处理,有望对人机交互产生变革性影响,并为人工智能的多功能性和效率设定了新标准。
令人惊讶的是,OpenAI'首席科学家兼联合创始人伊利亚-苏茨克沃(Ilya Sutskever)在X上宣布离职。
同一天,"超盟团队 "的领导人之一扬-雷克也发表了类似的声明。
由这两个人领导的 "超级定位团队 "最近经历了一连串的离职。为了应对这一趋势,公司上周五做出了一项重大决定:解散一年前成立的团队,该团队的明确宗旨是研究与人工智能相关的深层次和长期风险。
OpenAI 辞职引发安全担忧
在与 OpenAI 首席执行官山姆-阿尔特曼(Sam Altman)就产品开发优先于安全措施的问题产生分歧后,Sutskever 宣布离职。
雷克(Leike)是已解散的 "超对齐团队 "的共同领导者,他在社交媒体上也表达了同样的担忧,强调了在获取足够计算资源方面的困难,以及 OpenAI 内部安全文化的边缘化。
Leike的批评特别集中在OpenAI对GPT-4o等强大人工智能模型的追求上,认为该公司没有充分准备好应对与这种进步相关的潜在风险。他强调需要更多的资源和更强大的安全文化,以确保成功实现目标。
这些辞职发生在 OpenAI 的动荡时期。特斯拉首席执行官埃隆-马斯克(Elon Musk)表示,安全并不是他们的首要任务。
此外,OpenAI 还被指控在其聊天机器人商店中充斥垃圾邮件,并违反平台服务条款,从 YouTube 上获取数据。
关键人物离职后,OpenAI 向公众保证将采取安全措施
在两位共同领导公司高级人工智能安全团队的关键人物辞职后,OpenAI在人工智能安全方面的承诺正面临质疑。
针对这些担忧,OpenAI'首席执行官萨姆-阿尔特曼(Sam Altman)和总裁格雷格-布罗克曼(Greg Brockman)共同撰写了一份声明,强调他们对人工智能风险和潜力的认识。
他们指出,他们倡导制定国际人工智能安全标准,并在检查人工智能系统是否存在潜在灾难性威胁方面开展了开创性工作。
Altman 和 Brockman 还强调了目前为确保安全部署日益先进的人工智能系统所做的努力。
他们以大型语言模型 GPT-4 的开发和发布为例,说明在整个过程中实施了安全措施。他们还指出,目前正在努力根据经验教训改进模型行为和滥用监测。
虽然这些人员的离职引起了人们的担忧,但 OpenAI 坚持认为,除了已解散的 "超级对齐小组 "外,它还有更广泛的安全战略。
据报道,该公司在各个团队和专门的安全团队中都配备了人工智能安全专家,包括一个专注于降低人工智能系统潜在灾难性风险的准备小组。
此外,奥特曼还公开表示支持建立一个国际机构来监督人工智能的发展,并承认如果管理不当,可能会对全球造成重大伤害。
OpenAI 任命新首席科学家
Jakub Pachocki 已被任命为 OpenAI 新任首席科学家,接替 Ilya Sutskever。Pachocki 在 GPT-4、OpenAI Five 和其他关键项目的开发过程中发挥了重要作用。
OpenAI首席执行官萨姆-阿尔特曼(Sam Altman)称赞了帕乔奇的领导能力和专业知识,表示相信他有能力指导公司实现安全、有益的人工通用智能(AGI)。
Altman 因缺乏透明度而被暂时免职。
苏茨克沃在奥特曼下台和复出的过程中都发挥了关键作用,这也引发了人们对苏茨克沃可能了解未公开信息的猜测。
在 ChatGPT 插件中发现安全漏洞
早在 2023 年 11 月,研究人员就在 OpenAI 推出的 ChatGPT 的第三方插件中发现了严重的安全漏洞。这些漏洞可让黑客窃取用户数据并控制在线账户。
第一个漏洞影响了安装过程,使黑客能够在用户不知情的情况下安装恶意插件,并从私人信息中窃取密码等敏感信息。
第二个漏洞影响到 PluginLab,这是一个创建自定义 ChatGPT 插件的平台。黑客可以利用这个漏洞控制 GitHub 等第三方平台上的用户账户。
第三个漏洞涉及 OAuth 重定向操作,允许攻击者通过多个插件窃取用户凭据。
这些漏洞是在整个 2023 年发现的。第一个漏洞于 6 月发现,并于 7 月报告给 OpenAI。9 月,在 PluginLab.AI 和 KesemAI 插件中发现了漏洞,并报告给了各自的供应商。此后,所有发现的漏洞都已得到修补。
马斯克起诉 OpenAI,称其违背承诺、背叛人性
特斯拉和 SpaceX 公司直言不讳的首席执行官埃隆-马斯克(Elon Musk)说于 2024 年 3 月对 OpenAI 及其首席执行官 Sam Altman 发起法律诉讼 .
该研究实验室成立之初的宏伟目标是开发人工智能(AI),造福人类。
马斯克是2015年OpenAI的联合创始人之一,他声称自己与阿尔特曼和其他领导人就该组织的非营利结构达成了协议。
根据在旧金山提起的诉讼,该协议是基于公司成立之初的口头承诺。然而,由于缺乏正式的书面合同,法律专家对该协议的可执行性表示怀疑。
争议的关键在于OpenAI'最近向营利模式的转变。
2019 年,他们成立了一个营利部门,并根据与微软签订的独家许可协议发布了迄今为止功能最强大的聊天机器人 ChatGPT-4。
马斯克认为这些行为是对公司创始使命的背叛,是将利润置于人类福祉之上的转变。
诉讼称,OpenAI 已经偏离了其最初的非营利性道路,成为微软事实上的子公司。
马斯克认为,奥特曼和OpenAI总裁格雷格-布罗克曼(Greg Brockman)在公司成立后的几年里通过书面信息交流重申了他们对非营利模式的承诺。
诉讼中包含的一条这样的信息显示,阿尔特曼在 2017 年表达了他对非营利结构的热情。
苹果与 OpenAI 合作,面临安全和隐私问题
苹果公司即将推出的 iOS 18 更新将引入重要的人工智能(AI)功能,而最近与 ChatGPT 的创建者 OpenAI 达成的一项协议引发了有关 iPhone 用户安全和隐私的问题。
有报道称,苹果公司将利用OpenAI'技术实现聊天机器人功能,尽管细节仍在浮出水面,但这引发了有关潜在风险的讨论。
苹果公司人工智能技术的核心是对用户隐私的承诺。他们的座右铭是 "Privacy.That's iPhone,"反映了对设备处理的关注,即数据直接在用户手机上进行分析,而不是发送到外部服务器。
这种方法最大限度地降低了数据泄露和未经授权访问的风险。
然而,设备上的处理存在局限性。训练有效的人工智能模型需要大量数据,而本地手机存储可能会成为瓶颈。这就是与 OpenAI 合作的意义所在。
通过将聊天机器人的开发外包给 OpenAI,苹果有可能绕过数据存储的障碍,同时为用户提供所需的功能。
当考虑在苹果设备和 OpenAI 服务器之间传输数据时,就会出现安全问题。
这种数据交换的具体细节仍不清楚。如果用户数据被发送到OpenAI用于聊天机器人训练,就会引发有关数据处理安全性以及是否符合苹果严格的隐私标准的问题。
这种做法与苹果公司与谷歌公司在搜索功能方面的现有合作关系如出一辙。在这里,数十亿美元的交易确保了数据隐私的基本水平,但一些用户信息无疑会被转移到谷歌的服务器上。
潜在安全风险的程度取决于苹果与 OpenAI 合作的细节。用户数据在到达 OpenAI 之前是否会被匿名化?将保留多长时间?这些都是需要解决的关键问题,以确保用户隐私不受损害。
设备上的处理限制又带来了另一层复杂性。
虽然苹果公司正在为其最新设备开发功能强大的人工智能芯片,但旧款 iPhone 可能无法满足复杂的人工智能任务需求。
这可能会造成这样一种情况:一些用户受益于 iOS 18 上先进的人工智能功能,而另一些用户则因硬件限制而落在后面。
归根结底,苹果在 iOS 18 中的人工智能战略是在用户隐私、安全性和功能性之间走钢丝。虽然设备上的处理过程提供了一个安全的环境,但它可能会限制某些用户的功能。
人工智能安全与调整的复杂性
人工智能的 "不可能三角 "概念认为,效率、安全和效益不可能同时得到完全优化。在 OpenAI' 的最新发展中,安全似乎被放在了次要位置,而最大限度地提高了效率和用户利益。
隐私权倡导者和监管机构批评 OpenAI 的人工智能聊天机器人 ChatGPT 生成了不准确的个人信息。
由马克斯-施雷姆斯(Max Schrems)创办的奥地利一家名为 "Noyb "的非营利性隐私组织对 OpenAI 提起诉讼,指控 ChatGPT 虚构人们的个人信息,违反了《欧盟通用数据保护条例》(GDPR)。
Schrems 本人也遇到过这种情况,当时 ChatGPT 给了他一个不正确的出生日期,而 OpenAI 说他们无法解决这个问题。
去年,波兰对 OpenAI 提出了另一起投诉,意大利数据管理局也警告他们违反了 GDPR。
在美国,联邦贸易委员会正在调查 ChatGPT's 幻觉可能造成的声誉损害。
来自 Meta 人工智能首席科学家的观点
Meta'首席人工智能科学家、OpenAI 的著名竞争者 Yann LeCun 断言,通往人工通用智能(AGI)的旅程不会以单一的开创性事件为标志。
相反,它将以各个领域的不断进步为特征。
他认为,每当人工智能取得重大突破时,一些人可能会过早地宣布已经实现了 AGI,但随后又会完善他们的定义和理解。
LeCun 认为,在解决控制据称比人类聪明得多的人工智能系统的迫切需求之前,首先设计出甚至超过家猫智力的系统至关重要。
他以航空业的发展作类比,认为正如需要数十年的精心设计才能制造出安全的长途喷气式飞机一样,实现和确保高度智能的人工智能系统的安全同样需要多年的逐步改进。
LeCun 强调,目前人工智能的能力,如大型语言模型(LLM)中的能力,不应与真正的智能相混淆。
他预计,人工智能系统将逐步演变,通过长期的迭代改进,变得更加智能和安全。
争夺强大的人工智能是否会给安全踩刹车?
OpenAI 最近发生的动荡凸显了人工智能发展的复杂性。
一方面,GPT-4o'等开创性的先进功能极具诱惑力。
另一方面,始终需要采取强有力的安全措施和道德考虑。
要取得适当的平衡,需要研究人员、政策制定者和公众之间的持续合作。
我们能否在不影响安全和安保的情况下实现人工智能进步带来的好处?
这是决定我们与人工智能未来关系的关键问题。