要約
アプリケーションがより強力になり、より頻繁に採用されるにつれて、大規模言語モデル (LLM) の動作を理解し、形成することがますます重要になっています。
このペーパーでは、LLM 向けに特別に設計された機械の非学習手法を紹介します。
ネットワーク全体のパフォーマンスと比較した、対象となる機能におけるニューロンの相対的な重要性に基づいてニューロンを削除する、LLM の選択的プルーニング手法を導入します。
このアプローチは、特定の動作を可能にするニューロンを特定して削除するための、計算効率とデータ効率の高い方法です。
私たちの調査結果は、LLM のフィードフォワード ニューロンと注意ニューロンの両方が特殊化されていることを明らかにしました。
つまり、特定のタスクでは、特定のニューロンが他のニューロンよりも重要です。
すべての実験のコードは https://github.com/nickypro/selective-pruning で入手できます。
要約(オリジナル)
Understanding and shaping the behaviour of Large Language Models (LLMs) is increasingly important as applications become more powerful and more frequently adopted. This paper introduces a machine unlearning method specifically designed for LLMs. We introduce a selective pruning method for LLMs that removes neurons based on their relative importance on a targeted capability compared to overall network performance. This approach is a compute- and data-efficient method for identifying and removing neurons that enable specific behaviours. Our findings reveal that both feed-forward and attention neurons in LLMs are specialized; that is, for specific tasks, certain neurons are more crucial than others. Code from all experiments is available at https://github.com/nickypro/selective-pruning
arxiv情報
著者 | Nicholas Pochinkov,Nandi Schoots |
発行日 | 2024-07-24 17:13:55+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google