AI-generated Iran war videos surge as creators use new tech to cash in
The US-Israel war with Iran is being monetised by online creators with AI-generated misinformation.
2026年2月28日以降、アメリカとイスラエルによるイランへの軍事攻撃をめぐり、SNS上でAI偽動画が急増しました。BBC VerifyやABC NEWS Verifyは、生成AIで作られたミサイル攻撃映像や偽衛星画像が拡散した事実を報じています。
なぜAI偽動画はここまで広がったのでしょうか。生成AIとSNSの仕組みを整理し、AI偽動画を見抜く方法を考えます。
AI偽動画が急増した背景
BBC Verifyは、テルアビブにミサイルが着弾したように見えるAI偽動画が300件以上投稿され、数千万回再生されたと報じました。生成AIを使えば、短時間で高精細な映像を制作できます。AI偽動画は、戦争という強い関心を集めるテーマと結びつき、拡散しやすい構造を持っていました。
さらに、動画ゲーム「ARMA」シリーズの映像を空爆映像と偽る投稿や、過去の事故映像を別の攻撃として再利用する事例も確認されています。AI偽動画だけでなく、既存映像の文脈変更も広がりました。
生成AIとAI偽動画の技術的特徴
生成AI(テキストや画像を自動生成するAI)は、入力した指示文から映像や画像を作り出します。生成AIは、爆発や煙の表現をリアルに描写できますが、光の反射や建物の細部に不自然さが残る場合があります。
XのAIチャットボット「Grok」は、AI偽動画を本物と回答した事例がBBC Verifyで報告されました。Grokは映像の内部データを直接検査するディープフェイク検出ツールではなく、投稿文や周辺情報をもとに判断します。AI偽動画が多数投稿されている状況では、生成AIによる誤判断が起きました。
AI偽動画が拡散する経済的要因
Rolling StoneやBBCは、AI偽動画を投稿したクリエイターが広告収益や再生数を目的に活動している実態を報じています。Xにはクリエイター向け収益分配プログラムがあり、閲覧数やエンゲージメントが報酬に直結します。
刺激的なAI偽動画は、短時間で注目を集めやすい特性があります。研究者は、生成AIと収益モデルの組み合わせが偽情報拡散を加速させると指摘しています。
2026年3月、XはAI生成コンテンツを明示せず投稿したアカウントに対し、収益分配の90日停止措置を科す方針を示しました。プラットフォームごとの対応差も報じられています。

AI偽動画を見抜く基本手順
NorthJersey.comやPolitiFactは、AI偽動画を見抜く具体的手順を紹介しています。
- 逆画像検索(Google画像検索やTinEye)で過去使用歴を確認する
- 動画を静止画にして検索し、撮影日時や場所を検証する
- 旗や標識、建物の細部に不自然な繰り返しがないか観察する
- 投稿アカウントの過去投稿やプロフィールを確認する
Al Jazeera Englishは、Image WhispererやNewsGuardなどの検証ツールも紹介しています。生成AIが進化しても、基本的な確認作業は有効です。
まとめ
- 2026年のイラン情勢ではAI偽動画が大量拡散した
- 生成AIは高精細な映像制作を可能にした
- 収益分配モデルがAI偽動画拡散を後押しした
- 逆画像検索などの基本手順で多くのAI偽動画を見抜ける
生成AIとSNSの組み合わせによって、戦争や災害の「映像」が、これまでになく速いスピードで世界中に広がるようになりました。同時に、AI生成動画や偽衛星画像が、現地の人々の体験やジャーナリストの検証より先に、私たちの印象を決めてしまう危険も現実のものになっています。
ここで紹介した逆画像検索やツール、アカウントのチェック方法は、専門家だけでなく、誰でも今日から使える「情報のセーフティーネット」です。技術に興味を持つかどうかに関わらず、生成AIやメディアリテラシーの知識は、これからの学びや仕事、生き方にもつながる重要なテーマになりつつあります。
あなたなら、次にバズっている戦争動画やショッキングな映像を見かけたとき、「すぐに信じる」「完全に疑う」どちらでもなく、どんな手順で“自分の頭で確かめる”習慣をつくりますか。

【解説記事】#009 [Latest AI #03] 新AIは“検索”をどう変えるのか|調べるという行動の未来New!!