2025
11.15

「Sora」のAI生成動画は何が危険なのか。SNSにあふれる“偽りの現実”の問題とは

国際ニュースまとめ

OpenAIの動画生成AI「Sora 2 」のアイコンOpenAIの動画生成AI「Sora 2 」のアイコン

赤ちゃんを救う犬や、クマに餌をやる女性、逮捕の瞬間を捉えたボディカメラ映像――OpenAIの動画生成アプリ「Sora2」が9月にリリースされてから、本物そっくりのAI動画がSNSにあふれるようになっている。

それはつまり、バズっている動画が本物かどうかを疑わなければならなくなったということでもある。

誰もが簡単にAI動画が作れるようになるのは魅力的なことだが、Soraはどのような問題をはらんでいるのだろうか。

Soraとは?

Soraは短い文章の指示で動画を生成できるAIだ。これまでにないほど簡単に、動画で“偽りの現実”を作り出すことができる。

現在は招待制だが、アプリはダウンロードランキング上位にあり、影響力の大きさを感じられる。

AI動画は珍しくなくなったが、Soraのウォーターマーク(透かし)が入り動画に対しても、「これは本物?」というコメントが書き込まれるようになっている。

例えば、TikTokに投稿されている「クマに肉を与える女性」の動画には、「もう何がAIなのかすらわからなくなってる」というコメントが寄せられている。

AI動画を手軽に作れることの問題点

誰もがAIを手軽に使えるようになったことで、私たちは「オンライン上の情報を信じていいのかわからない」という問題を抱えるようになった。

ピュー・リサーチ・センターが10月に発表した調査では、チャットボットを利用してニュース情報を得た人の約3分の1が「真実かそうでないかを判断するのが難しい」と答えた。

Soraのように無料で簡単に動画を作れるAIの登場は、この問題を悪化させるかもしれない。

ニューヨーク大学ソーシャルメディア・政治センターのソロモン・メッシング准教授は「Soraは、良くも悪くも“オヴァートンの窓”を動かしています。つまり、動画に映っているものは真実という認識が急速に失われつつあります」と語る。

AI動画を見抜く専門家として知られるテクニカルプロデューサー&ディレクターのジェレミー・カラスコ氏の元には、Sora2で作られた動画に関する質問が多数寄せられているという。

「半年前であれば、(SNSの)フィードにAI動画が多く流れてくるようなことはなかったと思いますが、今では1時間に10本、スクロールする頻度によっては1分に1本は目にするのではないでしょうか」と話す。

カラスコ氏は、Googleの動画生成AI「Veo 3」と違い、Soraの全機能が無料で使えることが、AI動画が主流になりつつある要因だと考えている。

「必要なのは招待コードだけ。AI動画生成にお金は必要なくなりました」

カラスコ氏は、Soraのウォーターマークを消すことも可能だと指摘する。

AI動画の危険と偽物を見抜く方法

真実かどうかを見分けるのが難しいAI動画だが「特有の特徴」はあるという。

カラスコ氏によると、Soraで作られた動画の見分け方のひとつは、髪や服の「ぼやけた」感じや「ノイズがかかったような」質感だ。実際のカメラでは生じない特徴だという。

またどんな人物が動画を作ったのかも重要になる。

たとえば、牧師が「私たちが恐れるべき唯一のマイノリティは億万長者だ!」と教会で叫ぶ動画について、カラスコ氏は「保守派と見られる教会で、牧師は(極右陰謀論者の)アレックス・ジョーンズのような話し方なのに、リベラルのような主張をしている。なんだか辻褄が合わないですよね。プロフィールをクリックすると、『このアカウントに投稿されている動画は全部AIだ』とわかります」と話す。

動画の真偽を確かめる時に重要になるのが「誰が投稿したのか?なぜ投稿したのか?なぜバズっているのか?」という自分に対する問いかけだという。

カラスコ氏は、「現在のAI動画の多くは、誰かを騙すことが目的ではありません。多くの場合、バズる動画を作って注目を集め、そのうち何かを売り込みたいという意図で作られています」と話す。

しかし現実に混乱は起きている。カラスコ氏に相談する人は、大きくわけて2種類のグループにわかれるという。

一つは「バズっている動画がAIなのか本物なのかわからない人たち」で、もう一つは「本物の動画までAIだと疑ってしまう人たち」だ。

カラスコ氏は「“真実”が崩れていくのは、本当に一瞬」で、SNSのフィードが「AI動画であふれるのは非常に衝撃的だ」と語る。

カリフォルニア大学バークレー校のコンピューターサイエンス教授、ハニー・ファリード氏は、これまでもAIを使って他人の姿や声を作り上げるディープフェイクはあったとしつつ、Soraの動画は「“嘘つきのわけ前”の問題を助長している」と指摘する。

「嘘つきのわけ前」は2018年に法律学者の論文で生まれた言葉で、ディープフェイクなどが広まり、何が真実で何が嘘かがわからなくなることで、誤情報を広める者が利益を得て、民主主義に悪影響を及ぼすことを意味する。

ファリード氏は「当然ですが、本物と見間違えるような偽の画像や動画が作れるようになれば、本物の動画、例えば警察のボディカメラ、人権侵害の証拠、大統領が違法な発言をしている映像などを『それはディープフェイクだ』と否定できるようになってしまう」と警鐘を鳴らす。

ファリード氏はAI動画がTikTokのようなSNSで簡単に拡散されることで生じる弊害にも懸念を示す。

「私が“AIスロップ(AIで作られた粗悪なコンテンツ)”について心配しているのは、さらに簡単に人を操作できるようになっているという点です」

「ソーシャルメディア企業はこれまでも、エンゲージメントを高められるとわかっているものを広めることで、人々を操作してきました」

自分や他人のディープフェイクを簡単に作れる

著名人の容姿を使用したSoraの動画をめぐり、OpenAIはすでに批判に直面している。

同社は10月、マーティン・ルーサー・キング・ジュニア牧師を不敬な形で描いた動画が作られたため、「カメオ機能」で同牧師を描く映像を禁止すると発表した。

「カメオ」はOpenAIがディープフェイクの代わりに使い始めた言葉だ。この機能を使うことで、実際には言っていないことややっていないことを、やったかのような動画を作ることができる。

カメオ機能を使えば著名人だけではなく、自分自身を含めた一般人のAI動画を簡単に作ることも可能だ。

OpenAIの使用ポリシーには、本人の明確な同意なしに実在の人物の肖像を使った画像や動画を編集してはならないと記されている。

しかし、一度自分の顔や声をアップロードして、他人が自分の肖像をカメオ機能で使うことに同意すれば、想像もしていなかったような動画が作られことは想像に難くない。

これまでに投稿されている動画の中には、YouTuberでプロボクサーのジェイク・ポール氏が化粧をする動画や、元プロバスケットボール選手のシャキール・オニール氏がバレリーナのように踊る動画など“おもしろ映像”として楽しまれているものもある。

しかし、本人が望まない内容の動画を簡単に作って投稿することも可能だ。

人気YouTuberのダレン・ジェイソン・ワトキンス・ジュニア氏は、ライブ配信中に、Soraの「すべての人が自分肖像を使ってカメオを作れる」設定を有効にしたところ、フォロワーとキスしている動画や行ったことのない国を訪れている動画が次々に作られた

ワトキンス氏は自分のカメオ動画に驚いた様子で「なんでこんなに本物のようなの?」と叫び、その後設定を「本人のみ」に変更して、自分以外の人が肖像を利用できないようにした。

非営利団体「電子フロンティア財団」サイバーセキュリティ部門ディレクターのエヴァ・ガルペリン氏は、この出来事について「これは比較的“穏やかな”例にすぎない」と話す。

ガルペリン氏はカメオ機能を使用範囲を定める仕組みは「信頼は時間とともに変化する」という現実を考慮していないと指摘する。

「たとえば、暴力的な元恋人や喧嘩をした元友人が、あなたを中傷するような動画を大量に作る可能性もあります」

「あなたはその動画の存在を知るまで止められません。通知された後に相手のアクセス権を取り消すことはできますが、その時点で動画はすでに拡散されてしまっています」

ハフポストUS版はOpenAIに「本人の同意なしにディープフェイクが作られることをどう防ぐのか」と質問した。

これに対し、同社はSoraの「システムカード(内部システム仕様書)で詐欺や不正行為、スパム、なりすましなどに使われるおそれのあるコンテンツの生成を禁止している」と回答した。

その仕組みについて「性的な内容やテロのプロパガンダ、自傷行為の助長などの危険なコンテンツが生成される前にブロックする“ガードレール”が備えられています。これは、動画フレームと音声文字起こしのプロンプトおよび出力の両方をチェックすることで機能します」と説明している。

「Sora動画」の投稿をよく考えるべき理由

Soraでは、自分の肖像が他人にどう使われるかを決められる。「言ってほしくないこと」や「してほしくないこと」を設定することも可能だ。

しかし「禁止」がどの範囲まで及ぶかは主観的な問題だ。

ガルペリン氏は「暴力的、性的と見なされるかどうかは、誰が動画に登場しているか、誰のための動画か次第で変わります」と語る。

Sora研究者のガブリエル・ピーターソン氏によると、これまでに最もバズったSora動画の一つが、OpenAIのサム・アルトマンCEOが逮捕される映像だ。

これはアルトマン氏の場合は「おもしろ動画」で済んだかもしれないが、同様の内容は、オンライン上で不当に攻撃されやすい女性や非白人には深刻な影響を及ぼす可能性がある。

ガルペリン氏は「サム・アルトマンのように、有名で裕福な白人男性であれば、“お店で万引きしている防犯カメラ映像”のような動画も冗談と受け止められるかもしれません。しかし冗談では済まされない立場の人たちはたくさんいるのです」と指摘する。

一般人にとっても、AI動画は有害な結果を招くものになりうる。「自分はアルトマン氏のように有名ではないので、ディープフェイクが作られることはないだろう」とは思わない方が良いだろう。

ガルペリン氏含め、今回取材した専門家は、オンラインハラスメントの被害を避けるために、自分の姿や声をSoraにアップロードしない方がいいと勧めている。

自身も自転車に乗る猫の動画がバズったメッシング氏は、Soraはクリエイターにとって魅力的で素晴らしいツールだと評価している一方で、「動物のAI動画を作ることと、自分や友人の顔を使ったAI動画は別のものだ」と考えている。

「友人のリアルなAI動画を作ったり、自分の顔や声をアプリで使用したりしたくはありません」と同氏は話す。

カラスコ氏も、動画に出てくる自分がAIか本物かがわからなくなるのを避けるため、自身の肖像を使ったSora動画は作らないと断言した。

同氏は「自分がディープフェイクされることを“普通のこと”にしてはいけません」と強調。動画生成AIで自分の肖像を使うリスクを考慮するよう勧めている。 

ハフポストUS版の記事を翻訳しました。

 【動画】本物か偽物か見分けがつく?Soraで作られたAI動画がこれだ

…クリックして全文を読む

Source: HuffPost