Shifting Perspectives: Steering Vector Ensembles for Robust Bias Mitigation in LLMs

要約

ステアリングベクトルを適用して、前方パスでモデルのアクティベーションを変更することにより、大規模な言語モデル(LLMS)でバイアス緩和を緩和するための新しいアプローチを提示します。
ベイジアンの最適化を採用して、9つのバイアス軸にわたって効果的な対照ペアデータセットを体系的に識別します。
BBQデータセットで最適化されると、個別に調整されたステアリングベクトルは、それぞれミストラル、ラマ、およびQwenのベースラインで12.2%、4.7%、および3.2%の平均改善を達成します。
これらの有望な結果に基づいて、ステアリングベクトルアンサンブル(SVE)を導入します。これは、個別に最適化された複数のステアリングベクトルを平均化する方法で、それぞれが年齢、人種、性別などの特定のバイアス軸をターゲットにしています。
集合的な強さを活用することにより、SVEはバイアスの削減とモデルのパフォーマンスの維持の両方で個々のステアリングベクターよりも優れています。
この作業は、バイアス緩和のためのステアリングベクターの最初の体系的な調査を提示し、SVEはLLMSのバイアスを削減するための強力で計算効率の高い戦略であり、AIの安全性を高めるためのより広範な影響を示していることを実証します。

要約(オリジナル)

We present a novel approach to bias mitigation in large language models (LLMs) by applying steering vectors to modify model activations in forward passes. We employ Bayesian optimization to systematically identify effective contrastive pair datasets across nine bias axes. When optimized on the BBQ dataset, our individually tuned steering vectors achieve average improvements of 12.2%, 4.7%, and 3.2% over the baseline for Mistral, Llama, and Qwen, respectively. Building on these promising results, we introduce Steering Vector Ensembles (SVE), a method that averages multiple individually optimized steering vectors, each targeting a specific bias axis such as age, race, or gender. By leveraging their collective strength, SVE outperforms individual steering vectors in both bias reduction and maintaining model performance. The work presents the first systematic investigation of steering vectors for bias mitigation, and we demonstrate that SVE is a powerful and computationally efficient strategy for reducing bias in LLMs, with broader implications for enhancing AI safety.

arxiv情報

著者 Zara Siddique,Irtaza Khalid,Liam D. Turner,Luis Espinosa-Anke
発行日 2025-03-07 12:25:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG | Shifting Perspectives: Steering Vector Ensembles for Robust Bias Mitigation in LLMs はコメントを受け付けていません

Leveraging Semantic Type Dependencies for Clinical Named Entity Recognition

要約

フリーテキストセンテンスからの臨床関係抽出に関する以前の研究は、エンティティ表現の一部として臨床知識ベースからのセマンティックタイプに関する情報を活用しました。
この論文では、ドメイン固有のセマンティックタイプの依存関係を使用することにより、追加の証拠を活用します。
統一された医療言語システム(UMLS)の概念と文の他のトークンと一致するトークンのスパンとの関係をエンコードします。
さまざまな訓練を受けた臨床埋め込み(つまり、Bert、Biobert、Umlsbert)を使用して、さまざまな名前付きエンティティ認識(NER)アーキテクチャ(つまり、Bilstm-CRFおよびBILSTM-GCN-CRF)と比較します。
臨床データセットでの実験結果は、場合によっては、ドメイン固有のセマンティックタイプの依存関係を利用することにより、NERの有効性が大幅に改善できることを示しています。
私たちの作業は、NERタスクの1つのパスで3つ以上の依存関係を使用するためのマトリックスエンコードを生成する最初の研究でもあります。

要約(オリジナル)

Previous work on clinical relation extraction from free-text sentences leveraged information about semantic types from clinical knowledge bases as a part of entity representations. In this paper, we exploit additional evidence by also making use of domain-specific semantic type dependencies. We encode the relation between a span of tokens matching a Unified Medical Language System (UMLS) concept and other tokens in the sentence. We implement our method and compare against different named entity recognition (NER) architectures (i.e., BiLSTM-CRF and BiLSTM-GCN-CRF) using different pre-trained clinical embeddings (i.e., BERT, BioBERT, UMLSBert). Our experimental results on clinical datasets show that in some cases NER effectiveness can be significantly improved by making use of domain-specific semantic type dependencies. Our work is also the first study generating a matrix encoding to make use of more than three dependencies in one pass for the NER task.

arxiv情報

著者 Linh Le,Guido Zuccon,Gianluca Demartini,Genghong Zhao,Xia Zhang
発行日 2025-03-07 12:29:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Leveraging Semantic Type Dependencies for Clinical Named Entity Recognition はコメントを受け付けていません

Emergent Language: A Survey and Taxonomy

要約

緊急言語の分野は、人工知能の領域内で、特にマルチエージェント強化学習のコンテキスト内での研究の新しい分野を表しています。
言語の出現を研究するという概念は新しいものではありませんが、初期のアプローチは主に人間の言語形成の説明に関係しており、人工剤の潜在的な有用性についてはほとんど考慮されませんでした。
対照的に、強化学習に基づく研究は、人間の言語に匹敵する、またはそれ以上のエージェントのコミュニケーション能力を開発することを目的としています。
したがって、それらは、自然言語処理研究で一般的な学習統計的表現を超えて拡張されます。
これにより、言語の出現の前提条件から成功を測定するための基準まで、多くの基本的な質問が生じます。
このペーパーでは、人工知能の緊急言語に関する181の科学出版物の包括的なレビューを提供することにより、これらの質問に対処します。
その目的は、この分野に関心のある、または熟練した研究者のための参照として機能することです。
その結果、主な貢献は、一般的な用語の定義と概要、既存の評価方法とメトリックの分析、および特定された研究ギャップの説明です。

要約(オリジナル)

The field of emergent language represents a novel area of research within the domain of artificial intelligence, particularly within the context of multi-agent reinforcement learning. Although the concept of studying language emergence is not new, early approaches were primarily concerned with explaining human language formation, with little consideration given to its potential utility for artificial agents. In contrast, studies based on reinforcement learning aim to develop communicative capabilities in agents that are comparable to or even superior to human language. Thus, they extend beyond the learned statistical representations that are common in natural language processing research. This gives rise to a number of fundamental questions, from the prerequisites for language emergence to the criteria for measuring its success. This paper addresses these questions by providing a comprehensive review of 181 scientific publications on emergent language in artificial intelligence. Its objective is to serve as a reference for researchers interested in or proficient in the field. Consequently, the main contributions are the definition and overview of the prevailing terminology, the analysis of existing evaluation methods and metrics, and the description of the identified research gaps.

arxiv情報

著者 Jannik Peters,Constantin Waubert de Puiseau,Hasan Tercan,Arya Gopikrishnan,Gustavo Adolpho Lucas De Carvalho,Christian Bitter,Tobias Meisen
発行日 2025-03-07 12:39:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.MA | Emergent Language: A Survey and Taxonomy はコメントを受け付けていません

Multi Agent based Medical Assistant for Edge Devices

要約

大規模なアクションモデル(LAM)はインテリジェントオートメーションに革命をもたらしましたが、プライバシーの懸念、待ち時間、インターネットアクセスへの依存により、ヘルスケアへのアプリケーションは課題に直面しています。
このレポートでは、これらの制限を克服する、deviceのマルチエージェントヘルスケアアシスタントを紹介します。
このシステムは、より小さいタスク固有のエージェントを利用してリソースを最適化し、スケーラビリティと高性能を確保します。
提案されたシステムは、予約、健康監視、投薬リマインダー、日常の健康報告などの機能を備えたヘルスケアニーズのためのワンストップソリューションとして機能します。
QWENコードの指示2.5 7Bモデルを搭載したプランナーと発信者のエージェントは、計画で平均Rougelスコアが85.5、96.5は、デバイス上の展開の軽量である間、タスクを呼び出すために96.5を達成します。
この革新的なアプローチは、OnDeviceシステムの利点をマルチエージェントアーキテクチャと組み合わせて、ユーザー中心のヘルスケアソリューションへの道を開いています。

要約(オリジナル)

Large Action Models (LAMs) have revolutionized intelligent automation, but their application in healthcare faces challenges due to privacy concerns, latency, and dependency on internet access. This report introduces an ondevice, multi-agent healthcare assistant that overcomes these limitations. The system utilizes smaller, task-specific agents to optimize resources, ensure scalability and high performance. Our proposed system acts as a one-stop solution for health care needs with features like appointment booking, health monitoring, medication reminders, and daily health reporting. Powered by the Qwen Code Instruct 2.5 7B model, the Planner and Caller Agents achieve an average RougeL score of 85.5 for planning and 96.5 for calling for our tasks while being lightweight for on-device deployment. This innovative approach combines the benefits of ondevice systems with multi-agent architectures, paving the way for user-centric healthcare solutions.

arxiv情報

著者 Sakharam Gawade,Shivam Akhouri,Chinmay Kulkarni,Jagdish Samant,Pragya Sahu,Aastik,Jai Pahal,Saswat Meher
発行日 2025-03-07 13:20:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.MA | Multi Agent based Medical Assistant for Edge Devices はコメントを受け付けていません

ECCOS: Efficient Capability and Cost Coordinated Scheduling for Multi-LLM Serving

要約

大規模な言語モデル(LLM)がシステムのサービスエンドポイントとしてますます展開されるため、クエリボリュームの急増は重要なスケジューリングの課題を生み出します。
既存のスケジューリングフレームワークは、主にレイテンシの最適化をターゲットにし、LLMの機能を異なるレベルのクエリに提供する機能を無視し、計算リソースの無駄につながる可能性があります。
このペーパーでは、マルチLLMサービングのための機能コスト調整されたスケジューリングフレームワークであるECCOを提案することにより、この課題に対処します。
具体的には、多目的予測子と制約付きオプティマイザーを設計することにより、2段階のスケジューリングを導入します。
予測子は、トレーニングベースと検索ベースのアプローチを通じてモデル機能と計算コストの両方を推定しますが、オプティマイザーは品質およびワークロードの制約の下でのコスト最適な割り当てを決定します。
また、サンプルごとの応答品質とコストのために収集されたデータセットであるQaServeを導入します。
広範な実験は、ECCOが成功率を6.30%改善し、既存の方法と比較して10.15%削減し、LLM応答時間の0.5%未満を消費することを示しています。
このコードは、https://github.com/agiresearch/eccosで入手できます。

要約(オリジナル)

As large language models (LLMs) are increasingly deployed as service endpoints in systems, the surge in query volume creates significant scheduling challenges. Existing scheduling frameworks mainly target at latency optimization while neglecting the capability of LLMs to serve different level of queries, which could lead to computational resource waste. This paper addresses this challenge by proposing a capability-cost coordinated scheduling framework, ECCOS, for multi-LLM serving, which explicitly constrains response quality and workload to optimize LLM inference cost. Specifically, it introduces the two-stage scheduling by designing a multi-objective predictor and a constrained optimizer. The predictor estimates both model capabilities and computational costs through training-based and retrieval-based approaches, while the optimizer determines cost-optimal assignments under quality and workload constraints. It also introduces QAServe, a dataset collected for sample-wise response quality and costs by zero-shot prompting different LLMs on knowledge QA and mathematical reasoning. Extensive experiments demonstrate that ECCOS improves success rates by 6.30% while reducing costs by 10.15% compared to existing methods, consuming less than 0.5% of LLM response time. The code is available at: https://github.com/agiresearch/ECCOS.

arxiv情報

著者 Kai Mei,Wujiang Xu,Shuhang Lin,Yongfeng Zhang
発行日 2025-03-07 13:35:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.DB | ECCOS: Efficient Capability and Cost Coordinated Scheduling for Multi-LLM Serving はコメントを受け付けていません

LIFT: Improving Long Context Understanding of Large Language Models through Long Input Fine-Tuning

要約

長いコンテキストの理解は、限られたコンテキストウィンドウのため、大規模な言語モデルでは依然として困難です。
このホワイトペーパーでは、長い入力に基づいてモデルパラメーターを動的に適応させることにより、任意の(ショートコンテキスト)LLMSの長いコンテキストパフォーマンスを改善できる長いコンテキストモデリングの新しいフレームワークであるLong Input Fine-Tuning(Lift)を紹介します。
重要なことに、コンテキストのウィンドウサイズを際限なく拡張してコンテキストでますます長い入力に対応するのではなく、パラメーターの長い入力を保存して吸収することを選択します。
モデルパラメーターへの長い入力を微調整することにより、Liftは、推論中にコンテキストで必要な情報が提供されていない場合でも、短いコンテキストLLMSが質問に答えることができます。
さらに、元のコンテキスト学習(ICL)機能を維持しながらリフトパフォーマンスを向上させるために、ゲートメモリを導入します。ゲートメモリは、長い入力暗記とICLのバランスを自動的にバランスさせる特殊な注意アダプターです。
私たちは、長い文脈の理解におけるリフトの強みと制限の包括的な分析を提供し、将来の研究のための貴重な方向性を提供します。

要約(オリジナル)

Long context understanding remains challenging for large language models due to their limited context windows. This paper presents Long Input Fine-Tuning (LIFT), a novel framework for long-context modeling that can improve the long-context performance of arbitrary (short-context) LLMs by dynamically adapting model parameters based on the long input. Importantly, LIFT, rather than endlessly extending the context window size to accommodate increasingly longer inputs in context, chooses to store and absorb the long input in parameter. By fine-tuning the long input into model parameters, LIFT allows short-context LLMs to answer questions even when the required information is not provided in the context during inference. Furthermore, to enhance LIFT performance while maintaining the original in-context learning (ICL) capabilities, we introduce Gated Memory, a specialized attention adapter that automatically balances long input memorization and ICL. We provide a comprehensive analysis of the strengths and limitations of LIFT on long context understanding, offering valuable directions for future research.

arxiv情報

著者 Yansheng Mao,Yufei Xu,Jiaqi Li,Fanxu Meng,Haotong Yang,Zilong Zheng,Xiyuan Wang,Muhan Zhang
発行日 2025-03-07 14:18:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | LIFT: Improving Long Context Understanding of Large Language Models through Long Input Fine-Tuning はコメントを受け付けていません

AILS-NTUA at SemEval-2025 Task 8: Language-to-Code prompting and Error Fixing for Tabular Question Answering

要約

この論文では、Semeval-2025タスク8への提出:表形式データに対する質問の質問を提示します。
データベンチデータセットで評価されたこのタスクは、以前のベンチマークでトピックの多様性とテーブルサイズの制限に対処しながら、構造化されたデータよりも自然言語の質問に答える大きな言語モデル(LLMS)の能力を評価します。
自然言語クエリを実行可能なコードに変換し、正確な応答、エラー修正、および解釈可能性を可能にする効果的なLLMプロンプトを使用するシステムを提案します。
私たちのアプローチは、独自のモデルカテゴリの競争の両方のサブタスクで最初にランクされており、オーガナイザーのベースラインを大幅に上回っています。

要約(オリジナル)

In this paper, we present our submission to SemEval-2025 Task 8: Question Answering over Tabular Data. This task, evaluated on the DataBench dataset, assesses Large Language Models’ (LLMs) ability to answer natural language questions over structured data while addressing topic diversity and table size limitations in previous benchmarks. We propose a system that employs effective LLM prompting to translate natural language queries into executable code, enabling accurate responses, error correction, and interpretability. Our approach ranks first in both subtasks of the competition in the proprietary model category, significantly outperforming the organizer’s baseline.

arxiv情報

著者 Andreas Evangelatos,Giorgos Filandrianos,Maria Lymperaiou,Athanasios Voulodimos,Giorgos Stamou
発行日 2025-03-07 14:33:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | AILS-NTUA at SemEval-2025 Task 8: Language-to-Code prompting and Error Fixing for Tabular Question Answering はコメントを受け付けていません

KIEval: Evaluation Metric for Document Key Information Extraction

要約

Document Key Information Extraction(KIE)は、ドキュメント画像の貴重な情報を構造化データに変換するテクノロジーであり、産業環境で重要な機能となっています。
ただし、このテクノロジーの現在の評価メトリックは、産業用アプリケーションの重要な属性を正確に反映していません。
この論文では、ドキュメントKIEモデルの新しいアプリケーション中心の評価メトリックであるKievalを紹介します。
以前のメトリックとは異なり、Kievalは、個々の情報(エンティティ)の抽出だけでなく、構造化された情報(グループ化)の抽出だけでなく、ドキュメントKIEモデルを評価します。
構造化された情報の評価は、産業用設定のドキュメントからグループ化された情報を抽出することをより反映したドキュメントKIEモデルの評価を提供します。
産業用途を念頭に置いて設計されたキーバルは、実際にドキュメントKIEモデルを開発または適用するための標準的な評価メトリックになることができると考えています。
コードは公開されます。

要約(オリジナル)

Document Key Information Extraction (KIE) is a technology that transforms valuable information in document images into structured data, and it has become an essential function in industrial settings. However, current evaluation metrics of this technology do not accurately reflect the critical attributes of its industrial applications. In this paper, we present KIEval, a novel application-centric evaluation metric for Document KIE models. Unlike prior metrics, KIEval assesses Document KIE models not just on the extraction of individual information (entity) but also of the structured information (grouping). Evaluation of structured information provides assessment of Document KIE models that are more reflective of extracting grouped information from documents in industrial settings. Designed with industrial application in mind, we believe that KIEval can become a standard evaluation metric for developing or applying Document KIE models in practice. The code will be publicly available.

arxiv情報

著者 Minsoo Khang,Sang Chul Jung,Sungrae Park,Teakgyu Hong
発行日 2025-03-07 14:58:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | KIEval: Evaluation Metric for Document Key Information Extraction はコメントを受け付けていません

Benchmarking LLMs in Recommendation Tasks: A Comparative Evaluation with Conventional Recommenders

要約

近年、大規模な言語モデル(LLMS)を推奨システムに統合することで、推奨品質を向上させる新しい機会が生まれました。
ただし、LLMの推奨機能を従来の推奨システムと徹底的に評価および比較するには、包括的なベンチマークが必要です。
このホワイトペーパーでは、Recabenchを紹介します。これは、さまざまなアイテム表現フォーム(一意の識別子、テキスト、セマンティック埋め込み、セマンティック識別子を含む)を体系的に調査し、2つの主要な推奨タスク、つまりクリックスルーレート予測(CTR)と連続的な推奨(SEQREC)を評価します。
当社の広範な実験では、最大17の大型モデルをカバーし、ファッション、ニュース、ビデオ、本、音楽ドメインから5つの多様なデータセットで実施されています。
私たちの調査結果は、LLMベースの勧告者が従来の推奨者よりも優れており、CTRシナリオで最大5%のAUC改善を達成し、SEQRECシナリオで最大170%NDCG@10改善を達成したことを示しています。
ただし、これらの実質的なパフォーマンスの向上は、推論効率が大幅に低下することを犠牲にして行われ、リアルタイムの推奨環境ではLLM-AS-RSパラダイムが非現実的になります。
私たちは、推奨固有のモデル加速方法など、将来の研究を促すための調査結果を目指しています。
コード、データ、構成、プラットフォームをリリースして、他の研究者が実験結果を再現して構築できるようにします。

要約(オリジナル)

In recent years, integrating large language models (LLMs) into recommender systems has created new opportunities for improving recommendation quality. However, a comprehensive benchmark is needed to thoroughly evaluate and compare the recommendation capabilities of LLMs with traditional recommender systems. In this paper, we introduce RecBench, which systematically investigates various item representation forms (including unique identifier, text, semantic embedding, and semantic identifier) and evaluates two primary recommendation tasks, i.e., click-through rate prediction (CTR) and sequential recommendation (SeqRec). Our extensive experiments cover up to 17 large models and are conducted across five diverse datasets from fashion, news, video, books, and music domains. Our findings indicate that LLM-based recommenders outperform conventional recommenders, achieving up to a 5% AUC improvement in the CTR scenario and up to a 170% NDCG@10 improvement in the SeqRec scenario. However, these substantial performance gains come at the expense of significantly reduced inference efficiency, rendering the LLM-as-RS paradigm impractical for real-time recommendation environments. We aim for our findings to inspire future research, including recommendation-specific model acceleration methods. We will release our code, data, configurations, and platform to enable other researchers to reproduce and build upon our experimental results.

arxiv情報

著者 Qijiong Liu,Jieming Zhu,Lu Fan,Kun Wang,Hengchang Hu,Wei Guo,Yong Liu,Xiao-Ming Wu
発行日 2025-03-07 15:05:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.IR | Benchmarking LLMs in Recommendation Tasks: A Comparative Evaluation with Conventional Recommenders はコメントを受け付けていません

Adding Alignment Control to Language Models

要約

トレーニング後のアライメントは、言語モデル(LMS)の使いやすさを高める上でますます重要な要因になりました。
ただし、アライメントの強さは、個々の好みによって異なります。
このペーパーでは、CLMと呼ばれる単一のモデルにアライメント制御を組み込む方法を提案します。
このアプローチは、初期レイヤーの前に1つのIDレイヤーを追加し、このレイヤーでのみ好みの学習を実行して、アライメントされていない入力トークン埋め込みをアライメントした空間にマッピングします。
実験結果は、この効率的な微調整方法が完全な微調整に匹敵することを実証しています。
推論中、入力埋め込みはアライメントされた層と整列されていない層を介して処理され、補間係数を介してマージされます。
このパラメーターを制御することにより、アライメントは明確な補間と外挿現象を示します。

要約(オリジナル)

Post-training alignment has increasingly become a crucial factor in enhancing the usability of language models (LMs). However, the strength of alignment varies depending on individual preferences. This paper proposes a method to incorporate alignment control into a single model, referred to as CLM. This approach adds one identity layer preceding the initial layers and performs preference learning only on this layer to map unaligned input token embeddings into the aligned space. Experimental results demonstrate that this efficient fine-tuning method performs comparable to full fine-tuning. During inference, the input embeddings are processed through the aligned and unaligned layers, which are then merged through the interpolation coefficient. By controlling this parameter, the alignment exhibits a clear interpolation and extrapolation phenomenon.

arxiv情報

著者 Wenhong Zhu,Weinan Zhang,Rui Wang
発行日 2025-03-07 15:13:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Adding Alignment Control to Language Models はコメントを受け付けていません