Goodtriever: Adaptive Toxicity Mitigation with Retrieval-augmented Models

要約

毒性を軽減するために多大な努力が払われてきましたが、既存の方法では、多くの場合、モデルパラメーターの大幅な変更や、計算量の多い補助モデルの使用が必要になります。
さらに、これまでのアプローチでは、時間の経過とともに言語が進化するという重要な要素が無視されることがよくありました。
この研究では、変化する性質を考慮した毒性軽減に関する包括的な視点を示します。
Goodtriever は、現在の最先端の毒性軽減に適合し、推論中の相対レイテンシの 43% 削減を達成し、計算効率が向上する柔軟な方法論です。
Goodtriever は、デコード時に検索ベースのアプローチを組み込むことで、有害性を制御したテキスト生成を可能にします。
私たちの研究では、実際に展開したときにモデルが直面するデータ ドリフトをよりよく反映する、適応可能な緩和手法にさらに重点を置くことを提唱しています。
コードとデータは https://github.com/for-ai/goodtriever で入手できます。

要約(オリジナル)

Considerable effort has been dedicated to mitigating toxicity, but existing methods often require drastic modifications to model parameters or the use of computationally intensive auxiliary models. Furthermore, previous approaches have often neglected the crucial factor of language’s evolving nature over time. In this work, we present a comprehensive perspective on toxicity mitigation that takes into account its changing nature. We introduce Goodtriever, a flexible methodology that matches the current state-of-the-art toxicity mitigation while achieving 43% relative latency reduction during inference and being more computationally efficient. By incorporating a retrieval-based approach at decoding time, Goodtriever enables toxicity-controlled text generation. Our research advocates for an increased focus on adaptable mitigation techniques, which better reflect the data drift models face when deployed in the wild. Code and data are available at https://github.com/for-ai/goodtriever.

arxiv情報

著者 Luiza Pozzobon,Beyza Ermis,Patrick Lewis,Sara Hooker
発行日 2023-10-11 15:30:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク