要約
現実世界の専門家 (医師など) が、日常のワークフローで、説明をせずに意思決定ラベルのみに注釈を付けることはほとんどありません。
しかし、ヒューマン アノテーターのサポートを目的としたアクティブ ラーニング (AL) などの既存の低リソース学習手法は、主にラベルに重点を置き、データ ポイントの自然言語による説明を無視しています。
この研究では、リソースが少ないシナリオでのラベルと説明の注釈に対する専門家の実際のニーズをサポートする、新しい AL アーキテクチャを提案します。
当社の AL アーキテクチャは、人間の説明に基づいて説明を生成する説明生成モデル、生成された説明を忠実に予測に利用する予測モデル、および説明のアノテーションの恩恵を受ける新しいデータ ダイバーシティ ベースの AL サンプリング戦略を活用しています。
自動評価と人間による評価は、AL サンプリングに説明を組み込むことの有効性と、AL アーキテクチャによる人間によるアノテーションの効率と信頼性の向上を示しています。
追加のアブレーション研究により、転移学習、一般化可能性、および大規模言語モデル (LLM) との統合に対する AL アーキテクチャの可能性が示されています。
LLM は、比較的単純なタスクに対しては優れた説明生成機能を発揮しますが、現実世界の複雑なタスクにおける LLM の有効性には、さらなる詳細な研究が必要です。
要約(オリジナル)
Real-world domain experts (e.g., doctors) rarely annotate only a decision label in their day-to-day workflow without providing explanations. Yet, existing low-resource learning techniques, such as Active Learning (AL), that aim to support human annotators mostly focus on the label while neglecting the natural language explanation of a data point. This work proposes a novel AL architecture to support experts’ real-world need for label and explanation annotations in low-resource scenarios. Our AL architecture leverages an explanation-generation model to produce explanations guided by human explanations, a prediction model that utilizes generated explanations toward prediction faithfully, and a novel data diversity-based AL sampling strategy that benefits from the explanation annotations. Automated and human evaluations demonstrate the effectiveness of incorporating explanations into AL sampling and the improved human annotation efficiency and trustworthiness with our AL architecture. Additional ablation studies illustrate the potential of our AL architecture for transfer learning, generalizability, and integration with large language models (LLMs). While LLMs exhibit exceptional explanation-generation capabilities for relatively simple tasks, their effectiveness in complex real-world tasks warrants further in-depth study.
arxiv情報
著者 | Bingsheng Yao,Ishan Jindal,Lucian Popa,Yannis Katsis,Sayan Ghosh,Lihong He,Yuxuan Lu,Shashank Srivastava,Yunyao Li,James Hendler,Dakuo Wang |
発行日 | 2023-10-23 16:44:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google