このとき性別や肌の色といった属性も利用されることになるが、こうしたセンシティブな属性の提供を許可しないユーザーも多い。センシティブな属性の利用が限られた状態ではレコメンドの公平性と正確性が低下する。
ペンシルベニア州立大学の研究者は、「FairGNN」と呼ばれるグラフニューラルネットワーク(GNN)を作成。利用できる属性が限られた状況でも、機械学習モデルのバイアス軽減とパフォーマンス維持を可能にした。
提供されている属性が歯抜けの状態でも機能
バイアスを排除することを目的とした従来の機械学習モデルでは、公平性と正確性を維持するためセンシティブな属性もデータセットに含める必要があるという。FairGNNでは、提供されている属性データが歯抜けの状態でも機能する。研究者はスロバキアの人気SNS「Pokec」のユーザーと、約400人のNBA選手のデータセットを用いてモデルをトレーニングした。
Pokecのデータセットでは、出身地域をセンシティブな属性とした分類タスクで、ユーザーの職業を予測。一方、NBA選手のデータセットでは、在住地域をセンシティブな属性とした分類タスクで、各プレーヤーの収入が中央値を超えているかどうかを予測した。
金融ローンの申請や犯罪者の検出で有用
次に同じデータセットを用いて公平性と正確性の観点でFairGNNを評価。モデルをさらに強化した後、センシティブな属性がまちまちなデータセットを用いて、FairGNNが有効かどうかのテストを実施している。テスト結果からは、モデルの公平性と正確性が維持されていることが示されたという。
同技術は金融ローンの申請や犯罪者の検出といった、公平で正確な分類が必須の領域で役立てられる可能性がある。
参照元:New machine learning model could remove bias from social network connections/ Penn State News