はじめに
イギリスで行われた実験により、人々がディープフェイク動画と本物の動画を区別することがほとんどできないことが明らかになりました。今回の記事では、アンドリュー・ルイス氏、パトリック・ヴー氏、レイモンド・M・デュック氏、アリーク・チャウドリー氏によって執筆され、Royal Society Open Scienceに掲載された論文『Deepfake detection with and without content warnings』をもとに、最新のディープフェイク研究の動向と、効果的な対策について考察していきます。
ディープフェイクとは?
ディープフェイクとは、深層学習(ディープラーニング)技術を用いて作成された、本物そっくりの偽動画を指します。AIを使って顔を合成したり、声を模倣したりすることで、非常にリアルでクリエイティブな映像を作り出すことができます。近年では、AI技術の発展により本物と偽物の区別がますます難しくなり、悪用されるケースが増加しているため、社会的な問題として注目を集めています。
【衝撃】
— チャエン | 重要AIニュースを毎日発信⚡️ (@masahirochaen) April 29, 2023
この動画見て欲しい
実はAIで作られた偽物のイーロンマスク
ここまで自然に動いて喋られたら見分けるのはほぼ不可能
ディープフェイクの技術がもうここまで来た
自身のAIアバターが勝手にオンライン会議をしてくれそう
自分の人格を完全に読み込ませてAI同士が仕事する日も近い
↓解説 pic.twitter.com/5JenviA57r
【目を疑う、ディープフェイクの進化】
— 木内翔大@SHIFT AI代表「日本をAI先進国に」𝕏 (@shota7180) March 29, 2024
ディープフェイク技術は、想像する以上に進化しています
本物と見分けがつかない動画を作れるようになりました
驚異的な技術力を示す、最新の動画を5点紹介します↓pic.twitter.com/etWaEWC3Yb
近年注目を集めているディープフェイク動画の問題点は?
ディープフェイク動画は、AI技術を使って本物そっくりの偽映像を作り出すため、誤情報の拡散や名誉毀損、プライバシー侵害といった問題を引き起こすリスクがあります。特に、政治家や有名人の発言を偽造して世論を操作したり、リベンジポルノやなりすまし詐欺に悪用されるケースが増加しており、社会全体の情報信頼性を低下させる恐れがあるため、規制や検出技術の強化が急務となっています。
1.誤情報や偽情報の拡散
ディープフェイクを使って著名人や政治家などが実際には言っていないことを話しているように見せかけることで、世論を操作したり、社会的な混乱を引き起こすことができます。
2.名誉毀損やプライバシー侵害
特定の人物の顔を合成した不適切な動画(リベンジポルノなど)を作成し、名誉を傷つけたりプライバシーを侵害するケースが増えています。
3.詐欺や犯罪行為の助長
ディープフェイク技術を利用して、他人になりすます(なりすまし詐欺)や、企業の重要な会議に偽の出席者を参加させるといった悪質な詐欺行為に利用されることもあります。
4.動画や画像の信頼性低下
ディープフェイクの存在が広く知られるようになったことで、人々はオンライン上の動画や画像の信憑性を疑うようになり、結果として本物の映像や画像も信用されにくくなるリスクがあります。これにより、社会全体の情報信頼性が低下する懸念があります。
映像の証拠能力がなくなった時代になってしまったのが実感できてすごい pic.twitter.com/WVVLrQgadA
— すきえんてぃあ@書け (@cicada3301_kig) August 22, 2024
TWICEら、強硬な法的対応へ 韓国でディープフェイク性犯罪蔓延が社会問題化
— モデルプレス (@modelpress) August 31, 2024
🔻記事詳細はこちらhttps://t.co/MHGU8yhlnB#TWICE #JYP #テレグラム #ディープフェイク
人は事前に警告を受けてもディープフェイクを見抜けない事実が判明!
ディープフェイクは、誤情報を拡散する新たな手段であるだけでなく、本物と偽物の動画を肉眼で区別することが困難であるため、動画メディア全体の信頼性を低下させる恐れがあり近年、問題となっています。
この技術は、リベンジポルノ、個人情報詐欺、テロ、選挙操作など、さまざまな不正行為に悪用される危険性があり、FBIやEuropol(欧州刑事警察機構)からも警告が出されています。Europolはディープフェイクを「AI技術の中で最も即座に被害を及ぼすもの」として位置付けています。
研究の目的と内容
この研究は、ディープフェイクが一般の人々にどのように受け取られるか、そして警告がどの程度その検出能力を高めるかを調査しました。参加者には、警告なし、警告ありの2つの異なる条件下でディープフェイク動画を視聴してもらい、その認識能力を測定しました。
1.警告なしでのディープフェイク検出
参加者には「警告を与えずに」、ディープフェイクと本物の動画を視聴してもらいました。結果、ディープフェイクを含む動画を見ても、参加者の多くは異常を感じることが出来ず、ディープフェイク動画に気づきませんでした。
2.警告ありでのディープフェイク検出
参加者に「少なくとも1本の動画がディープフェイクである」と警告し、同じ動画セットを視聴してもらいましたが、正しくディープフェイクを特定できたのは21.6%に過ぎませんでした。多くの参加者は複数の本物の動画をディープフェイクと誤認していました。
実験方法
1,093名のイギリス在住者を対象に、Lucid Marketplaceを通じてオンライン実験を実施しました。参加者は以下の3つのグループに分けられました。
<グループ1>
警告なし・ディープフェイクなし
本物の動画のみ5本を視聴。
<グループ2>
警告なし・ディープフェイクあり
本物の動画4本とディープフェイク1本を視聴。事前にディープフェイクの存在を伝えずに視聴。
<グループ3>
警告あり・ディープフェイクあり
本物の動画4本とディープフェイク1本を視聴。事前に「少なくとも1本の動画がディープフェイクである」と警告。
ディープフェイク動画には、俳優トム・クルーズの映像を使用し、他の本物の動画はYouTubeから取得しました。すべての参加者はトム・クルーズの外見と話し方を把握するため、まずインタビュー動画を視聴しました。
結果と分析
- 警告なしの場合:本物の動画のみを見たグループでは34.1%の参加者が「何かおかしい」と感じたのに対し、ディープフェイクを含むグループでは32.9%の参加者が同様の感想を持ちました。つまり、どちらも「何かおかしい」と感じる確率がほぼ同じだったのです。これはディープフェイクを見ても、特に違和感を覚えなかったことを示しています。
- 警告ありの場合:事前に警告を受けても、参加者の78.4%はディープフェイクを見抜けませんでした。5本の動画の中からディープフェイクを選ぶよう求められた際、正しく選べた参加者はわずか21.6%にとどまりました。さらに、複数の本物の動画をディープフェイクと誤認する参加者も多く、逆に警告が裏目となり全体的な疑念を引き起こすだけの結果となったのです。


実験結果から分かること
本研究は、自然な視聴環境下において人々がディープフェイクを見抜くことが非常に困難であることを示しています。さらに、事前に警告を与えたとしても、その効果は限定的で、多くの人々が本物の動画を偽物と誤認してしまうという結果が得られました。
この結果は、個人の認識能力を向上させるだけではディープフェイクの問題に対処しきれないことを示唆しており、信頼できる外部認証システム(特に自動化されたディープフェイク検出システム)への依存が重要であることを意味しています。
また、ディープフェイクの認知度が高まるにつれて、動画全体に対する不信感が増し、結果としてオンライン動画の信頼性が低下するリスクもあります。今後の研究では、こうした不信感の高まりが社会にどのような影響を与えるか、さらにコンテンツ管理や規制がどのような効果を発揮するかについても、詳細な検討が求められるでしょう。
ディープフェイクへの対策
実験の結論と示唆
「通常の視聴環境では、人々がディープフェイクを見ても特に異常を感じないことが分かりました。これは、過去の研究と同様に、高品質なディープフェイクの認識が困難であることを示しています」と研究者らは述べています。また、コンテンツ警告の効果についても「動画が改ざんされていることを伝えた場合でも、大多数の人々はディープフェイクを見抜けませんでした。したがって、ソーシャルメディアプラットフォームが特定の動画をフェイクと表示してコンテンツ管理を行う場合、人々が自力で動画の不自然さを見抜く能力を高めるのではなく、外部の信頼できる情報源(特にディープフェイク検出の自動システム)を信頼させることが重要です」と結論づけました。
この研究は、一般の人々がディープフェイクを見抜く能力に限界があることを示しており、ディープフェイクがさらに普及すれば、人々がそれらを見分けるスキルを磨く可能性もあることを示唆しています。
どのような対策が考えられるか?
ディープフェイクの検出が難しいことが分かった以上、個々人の認識力に頼るだけでは不十分です。そこで、以下のような対策を講じることが重要です。
1. 自動化された検出システムの導入を強化する
人間の目では見破れないディープフェイクを検出するためには、テクノロジーに頼ることが必要です。ディープフェイク専用のAI検出システムやアルゴリズムを導入し、プラットフォーム上で自動的に偽動画を識別する仕組みを整えることが求められます。例えば、Meta(旧Facebook)やGoogleが取り組んでいる「モデルパース技術」など、最新の技術を活用することが効果的です。
2. コンテンツ認証の信頼性を高める
ディープフェイクが普及すると、コンテンツの信憑性を個々人が判断するのが困難になるため、信頼できる第三者機関やプラットフォームによるコンテンツ認証の仕組みを確立することが重要です。動画の出所や改ざんの有無を示す「コンテンツ認証マーク」などを導入し、ユーザーが簡単にコンテンツの信頼性を確認できるようにすることが有効です。
3. 教育と啓発活動の強化
ディープフェイクがどのような技術で作られているか、その特徴や見分け方を広く教育し、認知度を高めることも必要です。学校教育や企業研修などでディープフェイクの危険性を周知し、被害を未然に防ぐための知識を提供することで、ユーザーのリテラシーを向上させましょう。
4. コンテンツ管理のルール整備と法的規制の導入
ディープフェイクの悪用を防ぐために、プラットフォームごとにディープフェイクの検出と削除をルール化し、適切に運用することが求められます。また、政府や関係機関はディープフェイク技術の悪用に対して法的な規制を整備し、悪意のあるディープフェイク作成者に対して罰則を設けることも考えられます。
5. ユーザー自身のリテラシー向上と慎重な対応
ユーザーは、インターネット上の情報がすべて真実であるとは限らないことを常に意識し、動画や画像を鵜呑みにせず、疑問を持つ習慣を身に付けることが重要です。また、真偽が不確かな情報を拡散しないよう注意し、公式のソースや第三者の検証を確認する姿勢を持つことが必要です。
各国はどのようにして対策してる?
ウクライナ外務省が声明を発表するAIアバターを発表。
— KAJI | 梶谷健人 / 著書「生成AI時代を勝ち抜く事業・組織のつくり方」 (@kajikent) May 2, 2024
この類の取り組みの最大の懸念であるディープフェイクについては、公式動画内には必ずQRコードが付記されて、そこのリンクに飛べば真偽確認できるという仕掛け。
この設計は上手いので今後の一つの型になりそう。
pic.twitter.com/o46md7oL6A
【可決】性的なディープフェイク画像、見ても所持しても処罰 韓国で法改正https://t.co/JiRjkEyoGZ
— ライブドアニュース (@livedoornews) September 26, 2024
改正法案は「ディープフェイク性犯罪防止法」と呼ばれ、ディープフェイクと知りながら性的な偽画像を所持や購入、保存したり、見たりした場合、3年以下の懲役か、約327万円以下の罰金が科せられる。 pic.twitter.com/0B5ymkmA64
さいごに
ディープフェイクの悪用を防ぐために、テクノロジー企業や研究機関は自動化されたディープフェイク検出アルゴリズムの開発を進めています。また、各国の法規制やガイドラインの整備も進行中であり、ディープフェイクの作成や配布に対する罰則を設ける動きも見られます。
ただし、技術が進化するスピードも早いため、検出技術と悪用技術の「いたちごっこ」が続いているのが現状です。今後は、個々人の情報リテラシーを向上させることや、信頼できる情報源を確認する姿勢を持つことが、ディープフェイクに惑わされないための重要なポイントとなるでしょう。



コメント