そんななかメイン大学の研究者は、AIによる予測をユーザーが理解できるようなかたちにしようと取り組んでいるようだ。研究者の開発する機械学習アーキテクチャ「ProtoPNet(Prototypical Part Network)」は、画像とデータから予測を導き出すと同時に、その理由を説明することができる。
鳥の画像認識で予測の理由を説明してくれる
研究者は、説明可能なAIを示すために、まずは画像分類のベンチマークとして一般的な鳥の画像認識をテーマとして選んだ。ProtoPNetは、画像中の鳥の種類を予測し、その理由を説明する。ProtoPNetをトレーニングし、鳥の種類を特定するための特徴を学習した。学習した特徴と、画像中の鳥のさまざまなパーツを比較して、その種類を予測する。
例えば、画像中の鳥の頭を認識して、さまざまな種類の鳥の特徴と比較する。予測を導き出した際には、頭がシジュウカラのものに似ているから…などとその理由が説明できるだろう。
乳がんの画像診断にも適用
鳥の画像認識はわかりやすい例だったが、これ以外にも研究者は、ProtoPNetを乳がんの画像診断に適用しようとしている。マンモグラフィーによる画像から乳がんの兆候を発見するためには、医師はトレーニングを積む必要があるとのこと。ProtoPNetは乳がんの兆候を特定するための重要な部分とパターンを学習し、診断後に理由として示すことを目指す。
この説明可能なAIは、さまざまなアプリケーションに適用できて、推論プロセスの透明性を高めてくれそうだ。
参照元:UMaine computer scientist researches interpretable machine learning, develops AI to explain its discoveries/ UMaine News