まるで本人が…相次ぐ「AIフェイク」あなたは見抜けますか?

ニュースでアナウンサーに投資を呼びかけられたら…。
岸田総理大臣がいきなりテレビで卑わいな話をし始めたら…。

そんな本人が話していない内容を、実際に話しているように見せる偽物の動画がSNSで広まりました。

こうした偽動画、いまでは生成AIによって簡単に作れるようになっています。

果たして見抜くことはできるのか。そして、だまされないための4つのポイントとは。

(デジタルでだまされない取材班 / ネットワーク報道部 籏智広太)

まるで本人が話しているかのような…

X(旧ツイッター)で最近、民放のニュース番組を装いアナウンサーが投資を呼びかける偽動画や、岸田総理大臣が卑わいな内容を話している偽動画が相次いで投稿され広がりました。

こうした動画は、本物と見分けがつかないほど巧妙な偽の動画を作成する「ディープフェイク」と呼ばれる技術で作られたもの。

数年前から出てきていましたが、生成AIを使うと特別な知識や技術がなくても簡単に作れるようになってきています。

生成AIに特定の人物の声を学習させると、まるで本人が話しているかのような動画を作ることが可能に。

特に、話す言葉と口の動きを合わせる「リップシンク」という技術も進化し違和感がなくなり、偽物だと見極めるのが難しくなっています。

3000万回見られた“ディープフェイク”も

生成AIを使って、著名人や政治家などが話していない内容を話したかのように見せる悪質な偽動画が国内外で出てきています。

イスラエルとパレスチナの軍事衝突に関連するディープフェイクも増えています。

10月下旬には、アメリカのバイデン大統領が「大統領の権限で、徴兵法を発動する」と述べて、徴兵への協力を呼びかけるという偽動画が動画投稿アプリ「TikTok」や「YouTube」で拡散。

X(旧ツイッター)ではパレスチナ出身の父を持つ女性のモデルが「イスラエルを支持する」とスピーチしている偽動画が投稿され、3000万回以上閲覧されました。

公開されている過去の動画を元にAIを使って作られたとみられ、表情や口の動きにも不自然な部分が少なかったこともあり、大きく拡散されました。

バイデン大統領が日本語で演説?

生成AIを使って、海外の政治家などの人物が自然に日本語を話しているかのように見せる動画も出てきています。

10月には、バイデン大統領が「学生ローンの問題を解決すると約束しました」と日本語で話す動画が投稿され、200万回以上再生されました。

動画では、バイデン大統領が実際に英語で演説した内容を、そのまま自然な日本語で話していました。

作成したのはIT運用コンサルタントの男性。アメリカのスタートアップ企業が提供するAIのサービスを使ったといいます。

男性は、ホワイトハウスが公開している演説動画をもとに、本人の声のまま自動的に翻訳して再現したということです。

動画を作った意図について取材すると、男性は「生成AIの進化について注意を促すためだった」と説明しました。

今回の動画には、一部、誤訳も含まれていました。

生成AIの技術は便利に使える反面、誤った情報や偽の情報が言語の壁を越えて広がるリスクもはらんでいます。

動画を作った男性
「生成AIは善意ある人が使えばよいことに使われ、悪意ある人が使えば悪事に使われる。生成AIの悪意ある利用をなくすのは難しいでしょう」

子どもでも簡単にフェイクが…懸念されるリスクは

国立情報学研究所 越前功教授

急速に進化する生成AIの技術について、情報セキュリティーが専門の国立情報学研究所・越前功教授は、「悪用されるリスクがある」と警鐘を鳴らしています。

越前功教授
「生成AIが悪用されるリスクが高まっていて、他人をおとしめるようなコンテンツもゼロから生成できてしまう。子どもでも簡単にディープフェイクが作れてしまうようになっている」

現時点では、こうしたディープフェイクの動画には不完全なものも多く、以下のような特徴があります。

▽イントネーションがおかしい
▽漢字や数字の読み方などを間違えている
▽顔全体の動きが合っていない
▽画質が荒い

越前教授は今後の技術の進歩を踏まえると、一般の人がディープフェイクの動画を見抜くのは難しくなるとして、SNSで見たものが本物なのか疑うことも必要だという認識を示しました。

越前功教授
「われわれのような研究者でも半年、1年先にどうなっているかわからない。質が上がるのは時間の問題だ。見たものをそのまま真実だと思っていいのか、本当なのか、フェイクなのかそれぞれが判断する必要が出てくる」

“だまされない”ためにできる4つのこと

ディープフェイク動画にだまされないために、私たちはどうすればいいのでしょうか?

ポイントは4つあります。

▽SNSなどで広がる動画を安易に信じない
▽動画を広めたアカウントのほかの投稿を見る
▽投稿へのコメント欄などで指摘されていないか見る
▽動画に出てくる人物が実際に発言したのか、信頼できるメディアの記事や行政機関の情報などで調べてみる

少しでもおかしなところがあったら…。

まず、偽物かもしれないと疑ってみることが、大事です。

(11月15日「首都圏ネットワーク」で放送)