研究チームによると、それら2つの区別をつけるのは難しく、「ディープフェイク」を防ぐためのセーフガードの必要性を訴えています。
ディープフェイクを見抜くのは至難の業
私たちの生活にとって身近な存在となりつつある便利なAIですが、悪意を持った者が使うことで、恐ろしい事例が起きていることも事実。たとえば、AIが合成したテキスト・音声・画像・映像は、詐欺やプロパガンダ、またいわゆる「リベンジポルノ」などでも利用されています。
なかでも、とくに悪用される可能性が高いというディープフェイクについて、イギリスのランカスター大学とカリフォルニア大学バークレー校の共同研究チームが実験を行いました。ディープフェイクとは、「深層学習(ディープラーニング)」と「偽物(フェイク)」を組み合わせた混成語で、AIが生成する人物画像合成テクノロジーのことを指します。
今回の実験では「StyleGAN2」と呼ばれる最新のAIが使用されたとのこと。まず第一回目の実験では、315人の参加者が800人の顔から128人の顔を「本物か、合成の顔か」に分類しました。その結果、正解率は48%にとどまったとのこと。本物か偽物かを区別できた確率が「半分(約50%)」だったということは、315人の参加者は実質的にはAIと本物を区別できていないことになるでしょう。
合成の顔のほうが信頼されている結果に
次に二回目の実験では、219人の新しい実験参加者に顔の分類方法(見分け方)をトレーニングし、フィードバックを実施。しかし、事前にトレーニング三を行ったにもかかわらず、AIと本物の区別の精度は59%にしか向上しなかったようです。そして三回目の実験です。今回は223人の参加者に、同じ800人の顔から選んだ128人の顔の信頼度を、1(非常に信頼できない)から7(非常に信頼できる)の尺度で評価してもらいました。その結果、驚くことにAIによる合成顔の平均評価値は、本物の顔の平均評価値よりも7.7%信頼度が高かったといいます。
つまり、本物の顔と比較してもAIによる合成顔のほうが実験参加者に与える「信頼度」が高いことがわかりました。この結果について研究チームは、AIにより合成された顔は、いわゆる「平均的な顔」に似ているため、より信頼性が高いと判断されるのではないか、と考えているようです。
研究チームは今後ディープフェイクへの対策として、「画像や映像の合成ネットワークに電子透かしを組み込み、ユーザーのもとに届く段階で、確実に識別できるようにする」などのセーフガードを検討すべきとしています。
AI-synthesized faces are indistinguishable from real faces and more trustworthy
(文・Takeuchi)