据 Cointelegraph 报道,ChatGPT 背后的人工智能(AI)研究和部署公司 OpenAI 宣布成立一个新团队,专门负责跟踪、评估、预测和防范人工智能带来的潜在灾难性风险。新部门名为 "Preparedness",将重点关注与化学、生物、放射性和核威胁、个性化说服、网络安全以及自主复制和适应有关的人工智能威胁。在亚历山大-马德里(Aleksander Madry)的领导下,Preparedness 团队将尝试回答一些问题,例如前沿人工智能系统在被滥用时有多危险,以及恶意行为者是否会部署窃取的人工智能模型权重。OpenAI 承认,虽然前沿人工智能模型有造福人类的潜力,但它们也带来了越来越严重的风险。目前,OpenAI 正在为其新成立的防备团队寻找具有各种技术背景的人才,并正在发起一项预防灾难性误用的人工智能防备挑战赛,为前 10 名提交的参赛者提供 25,000 美元的 API 积分。人工智能的相关风险经常被强调,人们担心人工智能会变得比人类更聪明。尽管存在这些风险,OpenAI 等公司仍在继续开发新的人工智能技术,从而引发了更多的担忧。2023 年 5 月,非营利组织 "人工智能安全中心"(Center for AI Safety)发布了一封关于人工智能风险的公开信,敦促社会各界将降低人工智能带来的灭绝风险作为全球优先事项,与大流行病和核战争等其他社会规模的风险并列。