にもかかわらず、11月に実施される中間選挙にもやはりフェイクニュースが世間をにぎわすことが予想される。
なかでも、本人が発言したようなフェイク動画を生成する「DeepFake」による政治的スキャンダルが懸念され、AIの社会的影響を調べる研究者たちも警鐘を鳴らしている。
・本人との見分けのつかない動画を生成
AIが有名人を素材とした動画を生成するDeepFakeは、昨年12月にポルノ動画に有名人を出演させたことで注目を集めた。
DeepFakeでは、口元や音声などが巧妙に合成でき、今では真偽の判別が難しいほどのフェイク動画がネット上に流れている。
当然、政治家を取り扱ったものも多く出てきており、創作したセリフをオバマ大統領にしゃべらせる動画などを目にして驚いた方も多いだろう。
ソースを調べていけば真実が明らかになる可能性の高いフェイクニュースに比べ、本人が言葉を発しているフェイク動画では、それ自体がソースとして扱われかねない危険をはらむ。
・急速に進展するAIによる動画生成技術
技術的には、「敵対的生成ネットワーク」(GAN)という画像、動画の生成で一般的な機械学習がDeepFakeのベースとなっている。
GANでは2つのネットワークを用いて競い合わせることで、相乗的に精度を向上させていく。
その仕組みを簡単に説明すると、一方のネットワークでは有名人の画像を生成。もう一方のネットワークでその真偽を判断させることを繰り返し、いずれのネットワークも賢くなっていくというものだ。
GANは、その派生アプローチも含め、画像、動画の生成では最も熱心に研究されている技術で、最近では顔だけでなく、外観全体が模倣できる技術も開発されている。
・現時点では脅威となる可能性は低いとの見方も
ただし、現時点では専門家も欺けるような精巧さのフェイク動画を作るには、相当なマシンパワーと技術が必要で、今回の中間選挙での脅威になることはないとする専門家も多いようだ。
フェイク動画を検知する方法の開発も進められており、米国防高等研究計画局(DARPA)もDeepFakeによる動画の自動検出を目的としたプロジェクトに資金供給している。
中間選挙までには技術の成熟が難しいと考える専門科も、DeepFakeが脅威になるのは時間の問題と考えている点は同じで、検出技術の開発や法整備が急がれる。
参照元:Experts Bet on First Deepfakes Political Scandal/IEEE Spectrum