迪士尼投资 10 亿美元支持 OpenAI,允许粉丝使用漫威、皮克斯和星球大战角色创建人工智能视频

关注

迪斯尼向 OpenAI 投资 10 亿美元,将星球大战、皮克斯和漫威角色引入 AI 视频平台
沃特-迪斯尼将向 OpenAI 投资 10 亿美元(12.9 亿新元),同时允许该公司使用其庞大的迪斯尼、皮克斯、漫威和星球大战角色库,用于 OpenAI 的 Sora AI 视频生成器。
双方于 2025 年 12 月 11 日宣布建立为期三年的合作关系,用户将可以使用米老鼠、灰姑娘、木法沙、黑豹、钢铁侠、达斯-维达和尤达等标志性人物创建短视频,粉丝创建的精选内容可在 Disney+ 上播放。
迪士尼和 OpenAI 计划如何使用 AI 角色
根据授权协议,Sora 和 ChatGPT Images 将从一组定义的角色、服装、道具、车辆和标志性环境中生成内容。
该协议明确排除了艺人的肖像或声音。
OpenAI 证实,Sora 生成的视频将于 2026 年初开始推出,为粉丝提供生成、观看和分享人工智能驱动的视频的工具,而迪斯尼将保留对其平台上出现的内容的控制权。
迪斯尼还将成为 OpenAI 的主要客户,在整个公司部署其 API,以开发新产品、增强 Disney+ 体验,并在内部为员工整合 ChatGPT。
将为 Disney+ 精选用户创建的视频,利用短片内容日益增长的吸引力。
迪斯尼强调负责任地使用人工智能
两家公司已同意采取严格的保障措施,以防止非法或有害内容的出现,并确保尊重内容所有者的权利。
迪斯尼首席执行官鲍勃-艾格(Bob Iger)说:
"通过与 OpenAI 的合作,我们将深思熟虑、负责任地通过生成式人工智能扩展我们讲故事的范围,同时尊重和保护创作者及其作品。"
OpenAI 首席执行官 Sam Altman 补充道,
"迪斯尼是全球故事创作的黄金标准,我们很高兴能与 Sora 和 ChatGPT Images 合作,扩大人们创作和体验精彩内容的方式。动画公会主席丹尼-林(Danny Lin)表示,动画师--这些角色背后的创作者--应该得到公平的报酬,他指出:
"我们当然是他们存在的原因,也是他们具有如此收入潜力的原因。"
美国作家协会对用户生成的视频中会使用多少其会员的劳动成果提出了质疑,并警告说这种合作关系 "似乎认可了对我们作品的窃取,并将我们创作的价值让渡给了一家依靠我们建立起业务的科技公司。"
代表演员和娱乐工作者的 SAG-AFTRA 表示,迪斯尼和 OpenAI 已保证该协议将确保以道德和负责任的方式使用人工智能,包括保护图像、肖像、声音和知识产权。ref_src=twsrc%5Etfw">@jolingkent 说,在谈到人工智能技术如何在好莱坞得到应用时,他 "尝试过不知所措",并感到无法控制。
阿斯廷说,人工智能在好莱坞的应用感觉就像一场海啸--但他补充说,他希望将自己的... pic.twitter.com/t3eCJ0Ng6v
— CBS Sunday Morning 🌞 (@CBSSunday) December 12, 2025
分析师罗斯-贝恩斯(Ross Benes)指出,工会的影响力可能有限,他表示,
"他们不太可能阻止人工智能制作媒体的势头。"
酝酿多年的交易
据报道,鲍勃-艾格和萨姆-奥特曼之间的讨论始于几年前,迪斯尼测试了 OpenAI 的 Sora 平台的早期版本。
伊格尔曾在 11 月份的投资者电话会议上暗示了人工智能的整合,并表示人工智能工具将使 Disney+ 用户能够更个性化地创建和参与短片内容。
迪斯尼扩展其知识产权战略
这项交易将迪斯尼定位为第一家大规模授权生成式人工智能知识产权的大型制片厂,同时也是 OpenAI 最大的娱乐相关商业合作伙伴之一。
授权安排涵盖迪斯尼、皮克斯、漫威和卢卡斯影业旗下的 200 多个角色,Sora 和 ChatGPT Images 可在数秒内将用户提示转化为视频和图像。
除授权外,迪斯尼还将获得购买 OpenAI 额外股权的认股权证,以及其 10 亿美元的投资,同时 OpenAI 将继续实施控制措施,以防止迪斯尼的知识产权被滥用。
合作重点在于短篇参与而非长篇内容制作,强调受控访问和定义用例而非开放式内容创建。
人工智能将如何改变 Disney+ 上的粉丝参与
Disney+ 上将提供由粉丝生成的精选视频,为订阅者提供与他们喜爱的角色建立联系的互动方式。
这一合作关系也预示着其他主要电影公司在未来几年中可能会在授权和人工智能驱动的内容方面发生转变,在创新与创作者权利和安全标准之间取得平衡。
迪斯尼与 OpenAI 的交易是在好莱坞法律诉讼浪潮扩大的背景下达成的,迪斯尼最近向谷歌发出了一封终止信,并对人工智能图像生成器 Midjourney 在未经许可的情况下使用电影公司角色的行为提起了诉讼,这凸显了人工智能时代知识产权管理的高风险。