OpenAIのビデオ生成ツール「Sora」がリークされる
最近、OpenAIの動画生成AIツール「Sora」のリークが物議を醸し、クリエイティブ業界に警鐘を鳴らした。
テキストを動画に変換できるこのツールは、新モデルをテストしていたアーティストたちによって、意図せずアクセス可能になってしまった。
この事件は、クリエイティブ業界、特にビジュアル・アーティスト、デザイナー、映画制作者の間で激しい議論を巻き起こした。
ハグ顔流出でアーティストの怒りに火がつく
2024年11月26日、OpenAIのSora用APIにリンクされたプロジェクトが、開発者がAIモデルを共有しテストするためによく使うプラットフォームであるHugging Faceに登場した。
その結果、このビデオ生成ツールは、より多くの人々に知られることになった。
数時間のうちに、アーティストたちはこのAIを使って実験を始め、動画を生成し、その能力を発見した。
しかし、興奮はすぐに不満に変わり、何人かのテスターが自分たちの努力に対する報酬がないことに懸念を示した。
OpenAIがバグテストやモデルへのフィードバックを通じて「無給の労働を提供する何百人ものアーティスト」を搾取していると非難する書簡がプラットフォーム上に公開された。
この書簡で印象的だったのは、"redteaming "という用語が使われていたことだ。"redteaming "とは、新技術を実際のシナリオでテストし、欠陥を特定するためによく使われる手法である。
アーティストたちは、自分たちがソラの開発に関わったのは、クリエイティブな意見を提供する機会として提示されたものであり、むしろ宣伝のための演出のように感じられたと主張した。
手紙にはこうも書かれていた:
「私たちは、芸術のためのツールとしてアル・テクノロジーを使用することに反対しているわけではありません(もしそうであれば、おそらくこのプログラムに招待されることはなかったでしょう)。私たちが賛成できないのは、このアーティスト・プログラムがどのように展開されてきたか、そして一般公開の可能性に先駆けてツールがどのように形作られてきたかということです。私たちは、OpenAlがよりオープンになり、よりアーティストフレンドリーになり、PRスタントを超えて芸術をサポートすることを期待して、このことを世界に伝えています。"
PRパペット」を自称する署名者たちは、さらにOpenAIを「アートウォッシング」と呼んで非難した。
テスターのアクセス制限と最低限の報酬
今年初めのお披露目以来、ソラへのアクセスは厳しく管理されてきた。
OpenAIは、その潜在的な影響に関するフィードバックを収集するために、選ばれたアーティスト、デザイナー、映画制作者の少人数のグループにのみアクセスを許可している。
同社は参加は自発的なものだと主張しているが、多くのアーティストはこの条件が不当だと感じている。
初期のテスターたちの報告によれば、彼らの参加に対する報酬は最低限で、中にはSoraを使って制作された映画を公開上映する機会を競うチャンスを与えられただけの者もいたという。
アーティスト集団は、オープンAIがAIモデルの真の発展ではなく、彼らの創造的な作品を自己宣伝の道具として使おうとしていると見なし、不満を表明した。
クリエイティブ・コミュニティからの反発が高まるOpenAI
この事件は、クリエイティブ・コミュニティーのより広い懸念をかき立てた。
俳優のジュリアン・ムーアやケヴィン・ベーコンといった著名人、レディオヘッドのトム・ヨークといったミュージシャンを含む11,000人以上の専門家が、2024年10月に公開書簡に署名し、ジェネレーティブAIは彼らの生活に対する「重大かつ不当な脅威」であると非難した。
OpenAIに対する圧力の高まりは、Soraが映画制作のような分野で最終的に人間のクリエイターに取って代わる可能性があるとの報道によってさらに深刻化し、広範囲に雇用が失われる懸念がさらに深まった。
OpenAIはハリウッドの経営幹部と関わることで、クリエイティブ・セクターを安心させようとしているが、AIが生成するコンテンツが人間のクリエイターを時代遅れにするという懸念を完全に払拭するには至っていない。
サム・アルトマン最高経営責任者(CEO)と彼のチームは、エンターテインメント業界にSoraを宣伝し、クリエイティブ・プロフェッショナルのためのツールとしての可能性を強調してきた。
しかし、今回の流出事件とそれに続く反発は、アーティストたちが同社の保証に納得していないことを示唆している。
OpenAI、批判の中でアーリーアクセスを一時停止
流出とアーティストからの抗議の高まりを受け、OpenAIは2024年11月26日にSoraへのアクセスを停止した。
ハギング・フェイスのページに投稿されたメッセージによると、早期アクセスは停止され、同社はツールの安全性と潜在的なリスクに関する懸念に対処する必要があるとしている。
同社は、Soraはまだプレビュー・モードであり、創造性と広範な使用のための強固な安全対策とのバランスに取り組んでいると述べた;
声明の中でOpenAIは、テストプロセスへの参加は任意であり、フィードバックを提供する義務はないと強調した。
トライアルに参加したアーティストは、開発中のモデルの詳細に関して守秘義務を守ることも求められた。
にもかかわらず、プログラムに関する十分な補償と透明性が欠如しているため、多くの人が搾取されていると感じている。
Soraのリリースが延期、OpenAIが安全性の懸念に対処へ
ソラをめぐる論争が続くなか、OpenAIはモデルの改良に力を注いでいる。
OpenAIのケヴィン・ワイル最高製品責任者(CPO)は最近のRedditのディスカッションで、同社がSoraの幅広いリリースを遅らせたのは、特に安全性の懸念とコンピューティングパワーのスケーラビリティに関して、モデルを完成させるためだと説明した。
同社のSora改善への取り組みは、クリエイティブ産業がAIが雇用にもたらす脅威への警戒を強めている中で行われたもので、Soraのようなジェネレーティブ・ツールが、映画産業やそれ以外の分野でも、いずれは人間の労働者に取って代わるのではないかと多くの人が危惧している。
OpenAIとアーティスティック・コミュニティとの間の緊張関係は、すぐには解消されそうにない。多くのクリエーターは、自分たちの作品が、最終的には自分たちに取って代わる可能性のあるツールの実験場として利用されているに過ぎないと感じている。
今のところ、OpenAIはSoraをより大規模にリリースすることを視野に入れて開発を続けているが、アーティストと業界全体の利益のバランスをどうとるかはまだわからない。