Keyframe-oriented Vision Token Pruning: Enhancing Efficiency of Large Vision Language Models on Long-Form Video Processing

要約

ビジョン言語モデル(VLM)は、視覚データとテキストデータを共同で処理する際に強力な機能を示します。
ただし、特に長期のビデオシナリオでは、冗長な視覚情報のために、多くの場合、かなりの計算オーバーヘッドが発生します。
既存のアプローチは、主に視覚トークン剪定のいずれかに焦点を当てています。これは、時空間的依存関係を見落としたり、有益なフレームを識別したり他の人を破棄したりするキーフレームの選択を見落とす可能性があります。
この作業では、トークンプルーニングとキーフレーム選択の欠点を克服する新しいフレームワークであるKVTP(キーフレーム指向のビジョントークンプルーニング)を提案します。
クエリに関連するフレームに基づいて剪定レートを適応的に割り当てることにより、KVTPは重要なコンテキスト情報を効果的に保持しながら、冗長な計算を大幅に削減します。
VLMSの長い形式のビデオ理解能力を徹底的に評価するために、Videomme、Egoschema、およびNextQAのサブセットをキュレーションし、再編成し、Sparsekv-Qaという名前の統一ベンチマークになりました。
さまざまなスケールのVLMを使用した実験は、KVTPが時空間およびコンテキストの一貫性を損なうことなく、トークンの使用を80%削減できることを示しています。
これらの結果は、効率的な長いビデオ処理におけるアプローチの有効性を示しており、よりスケーラブルなVLM展開を促進します。

要約(オリジナル)

Vision language models (VLMs) demonstrate strong capabilities in jointly processing visual and textual data. However, they often incur substantial computational overhead due to redundant visual information, particularly in long-form video scenarios. Existing approaches predominantly focus on either vision token pruning, which may overlook spatio-temporal dependencies, or keyframe selection, which identifies informative frames but discards others, thus disrupting contextual continuity. In this work, we propose KVTP (Keyframe-oriented Vision Token Pruning), a novel framework that overcomes the drawbacks of token pruning and keyframe selection. By adaptively assigning pruning rates based on frame relevance to the query, KVTP effectively retains essential contextual information while significantly reducing redundant computation. To thoroughly evaluate the long-form video understanding capacities of VLMs, we curated and reorganized subsets from VideoMME, EgoSchema, and NextQA into a unified benchmark named SparseKV-QA that highlights real-world scenarios with sparse but crucial events. Our experiments with VLMs of various scales show that KVTP can reduce token usage by 80% without compromising spatiotemporal and contextual consistency, significantly cutting computation while maintaining the performance. These results demonstrate our approach’s effectiveness in efficient long-video processing, facilitating more scalable VLM deployment.

arxiv情報

著者 Yudong Liu,Jingwei Sun,Yueqian Lin,Jingyang Zhang,Ming Yin,Qinsi Wang,Jianyi Zhang,Hai Li,Yiran Chen
発行日 2025-04-24 14:53:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG | Keyframe-oriented Vision Token Pruning: Enhancing Efficiency of Large Vision Language Models on Long-Form Video Processing はコメントを受け付けていません

Measuring and Enhancing Trustworthiness of LLMs in RAG through Grounded Attributions and Learning to Refuse

要約

LLMSは、検索された生成(RAG)システムの不可欠なコンポーネントです。
多くの研究は、エンドツーエンドのRAGシステムの全体的な品質の評価に焦点を当てていますが、RAGタスクのLLMの適切性を理解することにはギャップがあります。
これに対処するために、RAGフレームワーク内のLLMの信頼性を評価する全体的なメトリックであるTrust-Scoreを紹介します。
我々の結果は、コンテキスト内学習などのさまざまなプロンプト方法が、Trust-Scoreで測定されたRAGタスクにLLMを効果的に適応させることができないことを示しています。
したがって、Trust-Alignは、Trust-Scoreパフォーマンスを改善するためにLLMSを調整する方法を提案します。
27モデルのうち26モデルは、ASQA、QAMPARI、およびELI5の実質的に競争力のあるベースラインを実質的に上回ることを使用して整列しています。
具体的には、Llama-3-8Bでは、Trust-AlignはASQA(12.56増加)、Qampari(36.04増加)、およびELI5(上昇17.69)の前線よりも優れています。
また、Trust-Alignは、質の高い引用を正しく拒否し、提供するモデルの能力を大幅に向上させます。
また、Llamaシリーズ(1bから8b)、Qwen-2.5シリーズ(0.5bから7b)、Phi3.5(3.8b)を含む、さまざまなオープンウェイトモデルにわたる信頼整列の有効性を実証します。
https://github.com/declare-lab/trust-alignでコードをリリースします。

要約(オリジナル)

LLMs are an integral component of retrieval-augmented generation (RAG) systems. While many studies focus on evaluating the overall quality of end-to-end RAG systems, there is a gap in understanding the appropriateness of LLMs for the RAG task. To address this, we introduce Trust-Score, a holistic metric that evaluates the trustworthiness of LLMs within the RAG framework. Our results show that various prompting methods, such as in-context learning, fail to effectively adapt LLMs to the RAG task as measured by Trust-Score. Consequently, we propose Trust-Align, a method to align LLMs for improved Trust-Score performance. 26 out of 27 models aligned using Trust-Align substantially outperform competitive baselines on ASQA, QAMPARI, and ELI5. Specifically, in LLaMA-3-8b, Trust-Align outperforms FRONT on ASQA (up 12.56), QAMPARI (up 36.04), and ELI5 (up 17.69). Trust-Align also significantly enhances models’ ability to correctly refuse and provide quality citations. We also demonstrate the effectiveness of Trust-Align across different open-weight models, including the LLaMA series (1b to 8b), Qwen-2.5 series (0.5b to 7b), and Phi3.5 (3.8b). We release our code at https://github.com/declare-lab/trust-align.

arxiv情報

著者 Maojia Song,Shang Hong Sim,Rishabh Bhardwaj,Hai Leong Chieu,Navonil Majumder,Soujanya Poria
発行日 2025-04-24 14:58:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Measuring and Enhancing Trustworthiness of LLMs in RAG through Grounded Attributions and Learning to Refuse はコメントを受け付けていません

Towards a comprehensive taxonomy of online abusive language informed by machine leaning

要約

オンラインコミュニケーションにおける虐待的な言語の急増は、個人やコミュニティの健康と幸福に重大なリスクをもたらしました。
オンラインの虐待とその結果に関する懸念の高まりには、有害なコンテンツを特定して緩和し、継続的な監視、緩和、および早期介入を促進する方法が必要です。
このペーパーでは、オンラインテキスト内で虐待的な言語の重要な特性を区別するための分類法を提示します。
私たちのアプローチでは、分類法の開発に体系的な方法を使用して、18の既存のマルチラベルデータセットの分類システムを統合して、オンラインの虐待的な言語分類に関連する重要な特性をキャプチャします。
結果の分類法は階層的でファセットされ、5つのカテゴリと17の寸法で構成されています。
コンテキスト、目標、強度、直接性、虐待のテーマなど、オンライン虐待のさまざまな側面を分類します。
この共有された理解は、よりまとまりのある努力につながり、知識交換を促進し、研究者、政策立案者、オンラインプラットフォーム所有者、およびその他の利害関係者の間のオンライン虐待の検出と緩和の分野での進歩を加速させることができます。

要約(オリジナル)

The proliferation of abusive language in online communications has posed significant risks to the health and wellbeing of individuals and communities. The growing concern regarding online abuse and its consequences necessitates methods for identifying and mitigating harmful content and facilitating continuous monitoring, moderation, and early intervention. This paper presents a taxonomy for distinguishing key characteristics of abusive language within online text. Our approach uses a systematic method for taxonomy development, integrating classification systems of 18 existing multi-label datasets to capture key characteristics relevant to online abusive language classification. The resulting taxonomy is hierarchical and faceted, comprising 5 categories and 17 dimensions. It classifies various facets of online abuse, including context, target, intensity, directness, and theme of abuse. This shared understanding can lead to more cohesive efforts, facilitate knowledge exchange, and accelerate progress in the field of online abuse detection and mitigation among researchers, policy makers, online platform owners, and other stakeholders.

arxiv情報

著者 Samaneh Hosseini Moghaddam,Kelly Lyons,Cheryl Regehr,Vivek Goel,Kaitlyn Regehr
発行日 2025-04-24 15:23:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Towards a comprehensive taxonomy of online abusive language informed by machine leaning はコメントを受け付けていません

Evaluating Grounded Reasoning by Code-Assisted Large Language Models for Mathematics

要約

コード生成でLLMSを支援することで、数学的推論タスクに関するパフォーマンスが向上しました。
ただし、コード支援LLMの評価は一般に実行された正確性に限定されており、生成されたプログラムの厳密な評価がありません。
この作業では、数学の推論タスクに応じてコード支援LLMSの生成されたプログラムの詳細な分析を実施することにより、このギャップを埋めます。
私たちの評価は、LLMSがプログラムを数学ルールに根付かせる程度と、それが最終パフォーマンスにどのように影響するかに焦点を当てています。
この目的のために、手動と自動の両方で、2つの異なる数学データセットで5つの異なるLLMの世代を評価します。
私たちの結果は、接地の分布がLLMの能力と数学の問題の難しさに依存することを明らかにしています。
さらに、数学的な接地はクローズドソースモデルにより効果的ですが、オープンソースモデルはソリューションで数学ルールを正しく使用できません。
Math500では、接地プログラムの割合は半分に減少しましたが、ASDIVの学年の問題と比較して、接地されていない世代は2倍になりました。
私たちの仕事は、実行精度のメトリックを超えて、コード支援のLLMSの機能と数学ドメインの制限をよりよく理解するための詳細な評価の必要性を強調しています。

要約(オリジナル)

Assisting LLMs with code generation improved their performance on mathematical reasoning tasks. However, the evaluation of code-assisted LLMs is generally restricted to execution correctness, lacking a rigorous evaluation of their generated programs. In this work, we bridge this gap by conducting an in-depth analysis of code-assisted LLMs’ generated programs in response to math reasoning tasks. Our evaluation focuses on the extent to which LLMs ground their programs to math rules, and how that affects their end performance. For this purpose, we assess the generations of five different LLMs, on two different math datasets, both manually and automatically. Our results reveal that the distribution of grounding depends on LLMs’ capabilities and the difficulty of math problems. Furthermore, mathematical grounding is more effective for closed-source models, while open-source models fail to employ math rules in their solutions correctly. On MATH500, the percentage of grounded programs decreased to half, while the ungrounded generations doubled in comparison to ASDiv grade-school problems. Our work highlights the need for in-depth evaluation beyond execution accuracy metrics, toward a better understanding of code-assisted LLMs’ capabilities and limits in the math domain.

arxiv情報

著者 Zena Al-Khalili,Nick Howell,Dietrich Klakow
発行日 2025-04-24 15:34:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Evaluating Grounded Reasoning by Code-Assisted Large Language Models for Mathematics はコメントを受け付けていません

CallNavi, A Challenge and Empirical Study on LLM Function Calling and Routing

要約

API駆動型のチャットボットシステムは、ソフトウェアエンジニアリングアプリケーションにますます不可欠になっていますが、API呼び出しの正確な生成と実行にその効果がかかっています。
これは、複雑なパラメーター化とネストされたAPI依存関係とのマルチステップの相互作用を必要とするシナリオで特に困難です。
これらの課題に対処するこの作業は、3つの重要な進歩を通じてAIベースのソフトウェア開発の評価と評価に貢献します。(1)API機能の選択、パラメーター生成、ネストされたAPI実行のベンチマーク用に設計された新しいデータセットの導入。
(2)最先端の言語モデルの経験的評価。API関数の生成とパラメーターの精度におけるさまざまなタスクの複雑さにわたるパフォーマンスを分析します。
(3)APIルーティングへのハイブリッドアプローチ。API選択の一般的な大規模な言語モデルと微調整モデルとパラメーター生成のプロンプトエンジニアリングを組み合わせます。
これらのイノベーションは、チャットボットシステムのAPI実行を大幅に改善し、実際のソフトウェアエンジニアリングコンテキストでソフトウェア設計、テスト、および運用ワークフローを強化するための実用的な方法論を提供します。

要約(オリジナル)

API-driven chatbot systems are increasingly integral to software engineering applications, yet their effectiveness hinges on accurately generating and executing API calls. This is particularly challenging in scenarios requiring multi-step interactions with complex parameterization and nested API dependencies. Addressing these challenges, this work contributes to the evaluation and assessment of AI-based software development through three key advancements: (1) the introduction of a novel dataset specifically designed for benchmarking API function selection, parameter generation, and nested API execution; (2) an empirical evaluation of state-of-the-art language models, analyzing their performance across varying task complexities in API function generation and parameter accuracy; and (3) a hybrid approach to API routing, combining general-purpose large language models for API selection with fine-tuned models and prompt engineering for parameter generation. These innovations significantly improve API execution in chatbot systems, offering practical methodologies for enhancing software design, testing, and operational workflows in real-world software engineering contexts.

arxiv情報

著者 Yewei Song,Xunzhu Tang,Cedric Lothritz,Saad Ezzini,Jacques Klein,Tegawendé F. Bissyandé,Andrey Boytsov,Ulrick Ble,Anne Goujon
発行日 2025-04-24 15:43:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.SE | CallNavi, A Challenge and Empirical Study on LLM Function Calling and Routing はコメントを受け付けていません

Energy Considerations of Large Language Model Inference and Efficiency Optimizations

要約

大規模な言語モデル(LLM)が規模と採用が拡大するにつれて、計算および環境コストが上昇し続けています。
以前のベンチマークの取り組みは、主に理想化された設定のレイテンシの削減に焦点を当てており、多くの場合、エネルギー使用を形成する多様な現実世界の推論ワークロードを見落としています。
この作業では、多様な自然言語処理(NLP)と、会話型AIやコード生成を含む生成人工知能(AI)ワークロード全体にわたる一般的な推論効率の最適化のエネルギーへの影響を体系的に分析します。
入出力トークン分布とバッチサイズのバリエーションのためのビニング戦略を通じて、実際のLLMワークフローに近似するモデリングアプローチを導入します。
当社の経験的分析は、ソフトウェアフレームワーク、デコード戦略、GPUアーキテクチャ、オンラインおよびオフラインのサービング設定、およびモデルの並列性構成に及びます。
推論の最適化の有効性は、ワークロードジオメトリ、ソフトウェアスタック、ハードウェアアクセラレータに非常に敏感であることを示しており、フロップまたは理論的なGPU使用率に基づく素朴なエネルギー推定値が、実際のエネルギー消費を著しく過小評価していることを示しています。
私たちの調査結果は、関連する推論効率の最適化を適切に適用すると、最適化されていないベースラインから総エネルギー使用量を最大73%削減できることが明らかになりました。
これらの洞察は、持続可能なLLM展開の基盤を提供し、将来のAIインフラストラクチャのためのエネルギー効率の高い設計戦略を通知します。

要約(オリジナル)

As large language models (LLMs) scale in size and adoption, their computational and environmental costs continue to rise. Prior benchmarking efforts have primarily focused on latency reduction in idealized settings, often overlooking the diverse real-world inference workloads that shape energy use. In this work, we systematically analyze the energy implications of common inference efficiency optimizations across diverse Natural Language Processing (NLP) and generative Artificial Intelligence (AI) workloads, including conversational AI and code generation. We introduce a modeling approach that approximates real-world LLM workflows through a binning strategy for input-output token distributions and batch size variations. Our empirical analysis spans software frameworks, decoding strategies, GPU architectures, online and offline serving settings, and model parallelism configurations. We show that the effectiveness of inference optimizations is highly sensitive to workload geometry, software stack, and hardware accelerators, demonstrating that naive energy estimates based on FLOPs or theoretical GPU utilization significantly underestimate real-world energy consumption. Our findings reveal that the proper application of relevant inference efficiency optimizations can reduce total energy use by up to 73% from unoptimized baselines. These insights provide a foundation for sustainable LLM deployment and inform energy-efficient design strategies for future AI infrastructure.

arxiv情報

著者 Jared Fernandez,Clara Na,Vashisth Tiwari,Yonatan Bisk,Sasha Luccioni,Emma Strubell
発行日 2025-04-24 15:45:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG | Energy Considerations of Large Language Model Inference and Efficiency Optimizations はコメントを受け付けていません

Safety in Large Reasoning Models: A Survey

要約

大規模な推論モデル(LRMS)は、数学やコーディングなどのタスクで並外れた腕前を示し、高度な推論機能を活用しています。
それにもかかわらず、これらの能力が進むにつれて、それらの脆弱性と安全性に関する大きな懸念が生じ、実世界の設定での展開と適用に課題をもたらす可能性があります。
このペーパーでは、LRMSの包括的な調査を提示し、新たに出現した安全リスク、攻撃、防衛戦略を細心の注意を払って調査し、要約します。
これらの要素を詳細な分類法に整理することにより、この作業は、LRMSの現在の安全状況に関する明確で構造化された理解を提供し、これらの強力なモデルのセキュリティと信頼性を高めるための将来の研究開発を促進することを目的としています。

要約(オリジナル)

Large Reasoning Models (LRMs) have exhibited extraordinary prowess in tasks like mathematics and coding, leveraging their advanced reasoning capabilities. Nevertheless, as these capabilities progress, significant concerns regarding their vulnerabilities and safety have arisen, which can pose challenges to their deployment and application in real-world settings. This paper presents a comprehensive survey of LRMs, meticulously exploring and summarizing the newly emerged safety risks, attacks, and defense strategies. By organizing these elements into a detailed taxonomy, this work aims to offer a clear and structured understanding of the current safety landscape of LRMs, facilitating future research and development to enhance the security and reliability of these powerful models.

arxiv情報

著者 Cheng Wang,Yue Liu,Baolong Li,Duzhen Zhang,Zhongzhi Li,Junfeng Fang
発行日 2025-04-24 16:11:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Safety in Large Reasoning Models: A Survey はコメントを受け付けていません

Conversational Assistants to support Heart Failure Patients: comparing a Neurosymbolic Architecture with ChatGPT

要約

大規模な言語モデルの可用性と能力のために、ヘルスケアを含め、会話アシスタントはますます人気があります。
より伝統的なアーキテクチャの利点と短所、および生成AIに基づくものの利点と短所を強調できる、実際の利害関係者との制御された調査評価が必要です。
グループ内ユーザー調査を提示して、心不全の患者が食品中の塩分について尋ねることを許可する会話アシスタントの2つのバージョンを比較します。
システムの1つのバージョンは、神経共和生なアーキテクチャを使用して社内で開発され、1つはChatGptに基づいています。
この評価は、社内システムがより正確で、より多くのタスクを完了し、ChatGPTに基づくタスクよりも冗長でないことを示しています。
一方、CHATGPTに基づくものは、音声エラーが少なくなり、タスクを完了するためにはより少ない明確化が必要です。
患者は、一方よりも好みを示しません。

要約(オリジナル)

Conversational assistants are becoming more and more popular, including in healthcare, partly because of the availability and capabilities of Large Language Models. There is a need for controlled, probing evaluations with real stakeholders which can highlight advantages and disadvantages of more traditional architectures and those based on generative AI. We present a within-group user study to compare two versions of a conversational assistant that allows heart failure patients to ask about salt content in food. One version of the system was developed in-house with a neurosymbolic architecture, and one is based on ChatGPT. The evaluation shows that the in-house system is more accurate, completes more tasks and is less verbose than the one based on ChatGPT; on the other hand, the one based on ChatGPT makes fewer speech errors and requires fewer clarifications to complete the task. Patients show no preference for one over the other.

arxiv情報

著者 Anuja Tayal,Devika Salunke,Barbara Di Eugenio,Paula Allen-Meares,Eulalia Puig Abril,Olga Garcia,Carolyn Dickens,Andrew Boyd
発行日 2025-04-24 17:16:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Conversational Assistants to support Heart Failure Patients: comparing a Neurosymbolic Architecture with ChatGPT はコメントを受け付けていません

The Sparse Frontier: Sparse Attention Trade-offs in Transformer LLMs

要約

まばらな注意は、変圧器LLMの長いコンテキスト機能を拡張するための有望な戦略を提供しますが、その実行可能性、その効率性の高いトレードオフ、および体系的なスケーリング研究は未開拓のままです。
このギャップに対処するために、さまざまなモデルスケール、シーケンスの長さ、およびスパースレベルで、トレーニングなしのスパースメソッドの慎重な比較を実行します。
実験に基づいて、一連の重要な調査結果を報告します。1)ISOFLOPS分析により、非常に長いシーケンスでは、より大きくて非常にスパースモデルがより小さく密集したモデルよりも好ましいことが明らかになります。
2)統計的に保証された精度の保存を保証しながら達成可能なスパース性のレベルは、デコード中に摂取よりも高く、前者のモデルサイズと相関します。
3)さまざまなシナリオに必要なスパースまたは予算の適応性の異なる単位を備えた、タスクやフェーズ全体で最適なパフォーマンスを発揮する明確な戦略はありません。
中程度のスパースレベルでさえ、少なくとも1つのタスクで大きなパフォーマンスの劣化をもたらすことが多く、まばらな注意は普遍的な解決策ではないことを強調しています。
4)まばらな注意のために特別に調整された新しいスケーリング法を導入および検証し、私たちの調査結果が私たちの実験の範囲を超えて真実である可能性が高いという証拠を提供します。
これらの洞察を通じて、まばらな注意が長いシーケンスを処理するためのトランスLLMの機能を強化する重要なツールであることを実証しますが、パフォーマンスに敏感なアプリケーションのトレードオフの慎重な評価が必要です。

要約(オリジナル)

Sparse attention offers a promising strategy to extend long-context capabilities in Transformer LLMs, yet its viability, its efficiency-accuracy trade-offs, and systematic scaling studies remain unexplored. To address this gap, we perform a careful comparison of training-free sparse attention methods at varying model scales, sequence lengths, and sparsity levels on a diverse collection of long-sequence tasks-including novel ones that rely on natural language while remaining controllable and easy to evaluate. Based on our experiments, we report a series of key findings: 1) an isoFLOPS analysis reveals that for very long sequences, larger and highly sparse models are preferable to smaller and dense ones. 2) The level of sparsity attainable while statistically guaranteeing accuracy preservation is higher during decoding than prefilling, and correlates with model size in the former. 3) There is no clear strategy that performs best across tasks and phases, with different units of sparsification or budget adaptivity needed for different scenarios. Even moderate sparsity levels often result in significant performance degradation on at least one task, highlighting that sparse attention is not a universal solution. 4) We introduce and validate novel scaling laws specifically tailored for sparse attention, providing evidence that our findings are likely to hold true beyond our range of experiments. Through these insights, we demonstrate that sparse attention is a key tool to enhance the capabilities of Transformer LLMs for processing longer sequences, but requires careful evaluation of trade-offs for performance-sensitive applications.

arxiv情報

著者 Piotr Nawrot,Robert Li,Renjie Huang,Sebastian Ruder,Kelly Marchisio,Edoardo M. Ponti
発行日 2025-04-24 17:39:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG | The Sparse Frontier: Sparse Attention Trade-offs in Transformer LLMs はコメントを受け付けていません

Investigating the Relationship Between Debiasing and Artifact Removal using Saliency Maps

要約

機械学習システムの広範な採用は、公平性とバイアスに関する重要な懸念を提起し、AI開発に不可欠な有害なバイアスを軽減しています。
このホワイトペーパーでは、コンピュータービジョンタスクのニューラルネットワーク内のアーティファクトを削除と除去することとの関係を調査します。
まず、モデルの意思決定プロセスのシフトを評価するために顕著性マップを分析する新しいXaiベースのメトリックのセットを紹介します。
次に、成功したデビアティングメソッドが、保護された属性からモデルの焦点を体系的にリダイレクトすることを実証します。
最後に、もともとアーティファクトの除去のために開発された技術は、公平性を改善するために効果的に再利用できることを示しています。
これらの調査結果は、公平性を確保することと、保護された属性に対応するアーティファクトを削除することとの双方向のつながりの存在の証拠を提供します。

要約(オリジナル)

The widespread adoption of machine learning systems has raised critical concerns about fairness and bias, making mitigating harmful biases essential for AI development. In this paper, we investigate the relationship between debiasing and removing artifacts in neural networks for computer vision tasks. First, we introduce a set of novel XAI-based metrics that analyze saliency maps to assess shifts in a model’s decision-making process. Then, we demonstrate that successful debiasing methods systematically redirect model focus away from protected attributes. Finally, we show that techniques originally developed for artifact removal can be effectively repurposed for improving fairness. These findings provide evidence for the existence of a bidirectional connection between ensuring fairness and removing artifacts corresponding to protected attributes.

arxiv情報

著者 Lukasz Sztukiewicz,Ignacy Stępka,Michał Wiliński,Jerzy Stefanowski
発行日 2025-04-24 10:55:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.LG | Investigating the Relationship Between Debiasing and Artifact Removal using Saliency Maps はコメントを受け付けていません