プロンプトを用いた言語モデルのFew-shot学習は過大評価されている

プロンプトを用いた言語モデルのFew-shot学習は過大評価されている

タイトル: True Few-Shot Learning with Language Models
著者: Ethan Perez, Douwe Kiela, Kyunghyun Cho
会議・出版: NeurIPS
年: 2021

💡 概要

  • 大規模データで事前学習された言語モデルを用いて少数の例のみを用いた学習が注目されている
  • 一方で,既存研究ではモデルの選択時に大規模データを使っていたり不明瞭だったりと問題があるため,cross-validationとminimum description lengthを用いてTrue few-shot learning設定で有効であるかどうかを検証した
  • True few-shot学習の設定だとモデル選択はかなり困難であることを明らかにし,先行研究では言語モデルのfew-shot学習を大幅に過大評価していることを問題提起している
続きを読む
言語モデルの感情バイアスの評価と除去

言語モデルの感情バイアスの評価と除去

タイトル: Reducing Sentiment Bias in Language Models via Counterfactual Evaluation
著者: Po-Sen Huang, Huan Zhang, Ray Jiang, Robert Stanforth, Johannes Welbl, Jack Rae, Vishal Maini, Dani Yogatama, Pushmeet Kohli
会議・出版: EMNLP Findings
年: 2020

💡 概要

  • 言語モデルによって生成されたテキストの感情バイアスを評価し除去する
  • 国名,職業や性別に関する文脈が与えたれた際に言語モデルが生成したテキストの感情分析を行いその偏りにより評価を行う
  • 言語モデルの隠れ層に対して正則化を行うことで感情バイアスの除去を行う
続きを読む