GPT-2は、複雑な文章を生成できる一方、目的の文章に応じてアーキテクチャの変更、すなわち膨大なデータセットによる再トレーニングやパラメーターの調整が必要になるようだ。
Uber AIがオープンソース化したプラグアンドプレイ言語モデル(PPLM)は、GPT-2などTransformerベースの言語モデルでの生成文章を、シンプルなパラメーターで制御できるという。
・属性モデルにて生成される文章を制御
PPLMでは、事前学習済みの言語モデルに、単一の学習レイヤーのシンプルな分類器をプラグインできる。言語モデルの再トレーニングが不要となれば、大規模なデータセットや高価なGPU、数日かかることもあるトレーニング時間などの制約から解放されるだろう。感情やトピックに関する言語モデルの出力評価のために「属性モデル」を使用。出力したいテキストの性質に合わせて、ポジティブな感情、政治関連のトピック……といった属性を設定できる。
・トピックの正確性はGPT-2よりも高評価
Transformerベースの言語モデルは、それまでに生成された単語を、次の単語を生成するための入力にするが、属性モデルを介することで生成される一連の単語に、高い確率で設定した属性が出現するようになる。研究にて実施された人間の評価にて、トピックにもとづく文章の整合性や流暢さがGPT-2よりも優秀なことが示されたようだ。
PPLMのソースコードはGitHubにて確認できる。また、デモに関してもGoogle Colabノートブックに公開されていて、PPLMの導入から文章の生成までが確認できる。
参照元:Plug and Play Language Models: A Simple Approach to Controlled Text Generation/ arXiv