Mitigating Manipulation and Enhancing Persuasion: A Reflective Multi-Agent Approach for Legal Argument Generation

要約

ラージ・ランゲージ・モデル(LLM)は、法的な議論生成のためにますます研究されているが、幻覚や根拠のない説得による操作の重大なリスクを伴い、しばしば提供された事実的根拠を効果的に利用できなかったり、議論が成り立たない場合に棄権したりする。本論文では、これらの課題に対処するために設計された、新しい反射的マルチエージェントの手法を紹介する。我々のアプローチは、3重の法的議論(原告、被告、反論)を生成する反復的な洗練プロセスにおいて、要因分析者と議論研磨者という特殊なエージェントを用いる。我々は、4つの多様なLLM(GPT-4o、GPT-4o-mini、Llama-4-Maverick-17b-128e、Llama-4-Scout-17b-16e)を用いて、3つの法的シナリオにおいて、シングルエージェント、強化型プロンプトシングルエージェント、非反省型マルチエージェントベースラインに対して、Reflective Multi-Agentを評価した:議論の余地あり」、「ミスマッチ」、「議論の余地なし」。その結果、Reflective Multi-Agentが、棄権成功(論拠が得られない場合の生成の防止)において有意に優れていること、幻覚の正確さ(捏造された要因や誤って帰属された要因の減少)、特に「論証不可能な」シナリオにおいて顕著な改善が見られること、要因の利用想起の強化(提供された事例事実の利用の改善)が見られることが示された。これらの知見は、マルチエージェントの枠組みにおける構造化された考察が、LLMベースの法的議論システムにおいて倫理的説得を促進し、操作を緩和するための強固な計算可能な方法を提供することを示唆している。プロジェクトページ:https://lizhang-aiandlaw.github.io/A-Reflective-Multi-Agent-Approach-for-Legal-Argument-Generation/

要約(オリジナル)

Large Language Models (LLMs) are increasingly explored for legal argument generation, yet they pose significant risks of manipulation through hallucination and ungrounded persuasion, and often fail to utilize provided factual bases effectively or abstain when arguments are untenable. This paper introduces a novel reflective multi-agent method designed to address these challenges in the context of legally compliant persuasion. Our approach employs specialized agents–a Factor Analyst and an Argument Polisher–in an iterative refinement process to generate 3-ply legal arguments (plaintiff, defendant, rebuttal). We evaluate Reflective Multi-Agent against single-agent, enhanced-prompt single-agent, and non-reflective multi-agent baselines using four diverse LLMs (GPT-4o, GPT-4o-mini, Llama-4-Maverick-17b-128e, Llama-4-Scout-17b-16e) across three legal scenarios: ‘arguable’, ‘mismatched’, and ‘non-arguable’. Results demonstrate Reflective Multi-Agent’s significant superiority in successful abstention (preventing generation when arguments cannot be grounded), marked improvements in hallucination accuracy (reducing fabricated and misattributed factors), particularly in ‘non-arguable’ scenarios, and enhanced factor utilization recall (improving the use of provided case facts). These findings suggest that structured reflection within a multi-agent framework offers a robust computable method for fostering ethical persuasion and mitigating manipulation in LLM-based legal argumentation systems, a critical step towards trustworthy AI in law. Project page: https://lizhang-aiandlaw.github.io/A-Reflective-Multi-Agent-Approach-for-Legal-Argument-Generation/

arxiv情報

著者 Li Zhang,Kevin D. Ashley
発行日 2025-06-03 15:28:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: 68T50, cs.AI, cs.CL, cs.LG, I.2 | Mitigating Manipulation and Enhancing Persuasion: A Reflective Multi-Agent Approach for Legal Argument Generation はコメントを受け付けていません

It’s Not a Walk in the Park! Challenges of Idiom Translation in Speech-to-text Systems

要約

イディオムは、個々の構成要素からは推論できない比喩的な意味を持つ単語群として定義される。最近の機械翻訳システムは目覚ましい進歩を遂げているが、イディオムの翻訳は、特に音声テキスト翻訳システムにとって大きな課題であり、このトピックに関する研究はほとんど行われていない。本論文では、2つの言語ペア(ドイツ語から英語、ロシア語から英語)において、テキストからテキストへの機械翻訳(MT)と音声からテキストへの翻訳(SLT)の両方で、従来のニュース翻訳と比較したイディオム翻訳を体系的に評価する。最先端のエンドツーエンドSLTシステム(SeamlessM4T SLT-to-text、Whisper Large v3)と、MTシステム(SeamlessM4T SLT-to-text、No Language Left Behind)、大規模言語モデル(DeepSeek、LLaMA)、カスケード接続された代替システムを比較した。その結果、SLTシステムは熟語データで顕著な性能低下を経験し、高レイヤーでも直訳に戻ることが多いのに対して、MTシステムと大規模言語モデルは熟語の扱いに優れていることが明らかになった。これらの結果は、イディオムに特化した戦略とSLTアーキテクチャの内部表現の改善の必要性を強調している。

要約(オリジナル)

Idioms are defined as a group of words with a figurative meaning not deducible from their individual components. Although modern machine translation systems have made remarkable progress, translating idioms remains a major challenge, especially for speech-to-text systems, where research on this topic is notably sparse. In this paper, we systematically evaluate idiom translation as compared to conventional news translation in both text-to-text machine translation (MT) and speech-to-text translation (SLT) systems across two language pairs (German to English, Russian to English). We compare state-of-the-art end-to-end SLT systems (SeamlessM4T SLT-to-text, Whisper Large v3) with MT systems (SeamlessM4T SLT-to-text, No Language Left Behind), Large Language Models (DeepSeek, LLaMA) and cascaded alternatives. Our results reveal that SLT systems experience a pronounced performance drop on idiomatic data, often reverting to literal translations even in higher layers, whereas MT systems and Large Language Models demonstrate better handling of idioms. These findings underscore the need for idiom-specific strategies and improved internal representations in SLT architectures.

arxiv情報

著者 Iuliia Zaitova,Badr M. Abdullah,Wei Xue,Dietrich Klakow,Bernd Möbius,Tania Avgustinova
発行日 2025-06-03 15:29:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL | It’s Not a Walk in the Park! Challenges of Idiom Translation in Speech-to-text Systems はコメントを受け付けていません

A Multi-Agent Framework for Mitigating Dialect Biases in Privacy Policy Question-Answering Systems

要約

プライバシー・ポリシーは、データの収集と使用について利用者に通知するものであるが、その複雑さゆえに、多様な人々にとってのアクセシビリティが制限されている。既存のプライバシーポリシーの質問応答(QA)システムは、英語の方言によって性能に格差があり、非標準的な品種の話者には不利である。我々は、方言バイアスを軽減するために、人間中心設計の原則にインスパイアされた新しいマルチエージェントフレームワークを提案する。本アプローチは、方言の意図を保持しながらクエリを標準アメリカ英語(SAE)に翻訳する方言エージェントと、専門知識を用いて予測を改良するプライバシーポリシーエージェントを統合する。先行するアプローチとは異なり、本手法は再トレーニングや方言特有の微調整を必要としないため、モデルやドメインを問わず幅広く適用可能である。PrivacyQAとPolicyQAで評価した結果、我々のフレームワークは、GPT-4o-miniのゼロショット精度を、PrivacyQAでは0.394から0.601に、PolicyQAでは0.352から0.464に向上させ、追加のトレーニングデータなしで、数ショットのベースラインを上回る、あるいはそれに匹敵する精度を達成した。これらの結果は、方言バイアスを軽減する構造化エージェント・コラボレーションの有効性を強調し、プライバシー情報への公平なアクセスを保証するために、言語の多様性を考慮したNLPシステムを設計することの重要性を強調しています。

要約(オリジナル)

Privacy policies inform users about data collection and usage, yet their complexity limits accessibility for diverse populations. Existing Privacy Policy Question Answering (QA) systems exhibit performance disparities across English dialects, disadvantaging speakers of non-standard varieties. We propose a novel multi-agent framework inspired by human-centered design principles to mitigate dialectal biases. Our approach integrates a Dialect Agent, which translates queries into Standard American English (SAE) while preserving dialectal intent, and a Privacy Policy Agent, which refines predictions using domain expertise. Unlike prior approaches, our method does not require retraining or dialect-specific fine-tuning, making it broadly applicable across models and domains. Evaluated on PrivacyQA and PolicyQA, our framework improves GPT-4o-mini’s zero-shot accuracy from 0.394 to 0.601 on PrivacyQA and from 0.352 to 0.464 on PolicyQA, surpassing or matching few-shot baselines without additional training data. These results highlight the effectiveness of structured agent collaboration in mitigating dialect biases and underscore the importance of designing NLP systems that account for linguistic diversity to ensure equitable access to privacy information.

arxiv情報

著者 Đorđe Klisura,Astrid R Bernaga Torres,Anna Karen Gárate-Escamilla,Rajesh Roshan Biswal,Ke Yang,Hilal Pataci,Anthony Rios
発行日 2025-06-03 15:32:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL | A Multi-Agent Framework for Mitigating Dialect Biases in Privacy Policy Question-Answering Systems はコメントを受け付けていません

Conditioning Large Language Models on Legal Systems? Detecting Punishable Hate Speech

要約

法的問題の評価には、憲法から法令、判例法まで、特定の法体系とその抽象度を考慮する必要がある。ラージ・ランゲージ・モデル(LLM)がこのような法体系をどの程度内包しているかは不明である。本稿では、LLMを法体系の抽象度ごとに条件付けするための様々なアプローチを提案し、調査する。本稿では、処罰の対象となりうるヘイトスピーチを検出するために、法システムにおいて複数の抽象度でLLMを条件付けるための様々なアプローチを検討する。我々は、特定のソーシャルメディアへの投稿が、ドイツ刑法が規定する憎悪扇動罪に該当するかどうかを分類するタスクに焦点を当てる。その結果、ヘイトスピーチの法的評価において、モデルを条件付けた抽象度にかかわらず、モデルと法律専門家の間には依然として大きな性能差があることが示された。我々の分析により、抽象的な法的知識で条件付けされたモデルは、深い課題理解に欠け、しばしば矛盾を生じたり、幻覚のような回答をしたりすることが明らかになった。一方、具体的な法的知識を用いたモデルは、関連するターゲット・グループの特定においてはそれなりに良い結果を示したが、ターゲットとなる行為の分類には苦戦した。

要約(オリジナル)

The assessment of legal problems requires the consideration of a specific legal system and its levels of abstraction, from constitutional law to statutory law to case law. The extent to which Large Language Models (LLMs) internalize such legal systems is unknown. In this paper, we propose and investigate different approaches to condition LLMs at different levels of abstraction in legal systems. This paper examines different approaches to conditioning LLMs at multiple levels of abstraction in legal systems to detect potentially punishable hate speech. We focus on the task of classifying whether a specific social media posts falls under the criminal offense of incitement to hatred as prescribed by the German Criminal Code. The results show that there is still a significant performance gap between models and legal experts in the legal assessment of hate speech, regardless of the level of abstraction with which the models were conditioned. Our analysis revealed, that models conditioned on abstract legal knowledge lacked deep task understanding, often contradicting themselves and hallucinating answers, while models using concrete legal knowledge performed reasonably well in identifying relevant target groups, but struggled with classifying target conducts.

arxiv情報

著者 Florian Ludwig,Torsten Zesch,Frederike Zufall
発行日 2025-06-03 15:50:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL | Conditioning Large Language Models on Legal Systems? Detecting Punishable Hate Speech はコメントを受け付けていません

Coding Agents with Multimodal Browsing are Generalist Problem Solvers

要約

現代の人間の労働は、専門化によって特徴づけられる。私たちは何年も訓練し、さまざまなタスクで優れたパフォーマンスを発揮できるよう、特定のツールを開発する。さらに、AIエージェントは、ソフトウェアエンジニアリング、ウェブナビゲーション、ワークフローの自動化などのドメインに特化してきた。しかし、その結果、エージェントは一つのことには長けているが、意図した範囲を超えて一般化することができない。その理由の1つは、エージェント開発者が高度に専門化されたツールセットを提供したり、特定のユースケースやベンチマークに最適化されたアーキテクチャを決定したりすることである。この研究では、多様なタスクのセットで高いパフォーマンスを達成するために使用できる一般的なツールの最小セットは何か、という問いを立てます。私たちの答えは、OpenHands-Versaです。OpenHands-Versaは、コードの編集と実行、ウェブ検索、マルチモーダルなウェブブラウジングとファイルアクセスなど、一般的なツールを適度に使って構築されたジェネラリストエージェントです。重要なことは、OpenHands-Versaは、3つの多様で困難なベンチマークにおいて、主要な専門エージェントよりも優れた、あるいは競争力のあるパフォーマンスを示したことです:SWE-Bench Multimodal、GAIA、The Agent Companyの3つのベンチマークにおいて、OpenHands-Versaはそれぞれ9.1ポイント、1.3ポイント、9.1ポイントの絶対的な成功率の向上で、過去に発表された最も優れた結果を上回りました。さらに、既存の最先端マルチエージェントシステムが、ターゲットドメインを超えていかに汎化できないかを示す。これらの結果は、多様なタスクを解決するジェネラリストエージェントの開発の実現可能性を示し、OpenHands-Versaを今後の研究のための強力なベースラインとして確立する。

要約(オリジナル)

Modern human labor is characterized by specialization; we train for years and develop particular tools that allow us to perform well across a variety of tasks. In addition, AI agents have been specialized for domains such as software engineering, web navigation, and workflow automation. However, this results in agents that are good for one thing but fail to generalize beyond their intended scope. One reason for this is that agent developers provide a highly specialized set of tools or make architectural decisions optimized for a specific use case or benchmark. In this work, we ask the question: what is the minimal set of general tools that can be used to achieve high performance across a diverse set of tasks? Our answer is OpenHands-Versa, a generalist agent built with a modest number of general tools: code editing and execution, web search, as well as multimodal web browsing and file access. Importantly, OpenHands-Versa demonstrates superior or competitive performance over leading specialized agents across three diverse and challenging benchmarks: SWE-Bench Multimodal, GAIA, and The Agent Company, outperforming the best-performing previously published results with absolute improvements in success rate of 9.1, 1.3, and 9.1 points respectively. Further, we show how existing state-of-the-art multi-agent systems fail to generalize beyond their target domains. These results demonstrate the feasibility of developing a generalist agent to solve diverse tasks and establish OpenHands-Versa as a strong baseline for future research.

arxiv情報

著者 Aditya Bharat Soni,Boxuan Li,Xingyao Wang,Valerie Chen,Graham Neubig
発行日 2025-06-03 15:50:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL | Coding Agents with Multimodal Browsing are Generalist Problem Solvers はコメントを受け付けていません

Linear Representation Transferability Hypothesis: Leveraging Small Models to Steer Large Models

要約

類似のデータで訓練された類似のアーキテクチャを持つニューラルネットワークは、学習タスクに関連する共有表現を学習するという仮説がある。我々はこの考えを基に、同じデータで訓練されたモデル間で学習された表現が、基礎特徴の㈰セットの線形結合として表現できるという概念的枠組みを拡張する。これらの基礎特徴は学習課題そのものを基礎付け、スケールに関係なくモデル間で一貫性を保つ。この枠組みから、我々は「異なるモデルの表現空間の間にはアフィン変換が存在する」という仮説を提唱する。この仮説を検証するために、異なるサイズのモデルの隠れ状態間のアフィン・マッピングを学習し、学習されたマッピングを用いて小さな言語モデルから大きな言語モデルへ転送されたときに、ステアリングベクトル(特定のモデルの振る舞いに関連する隠れ状態空間の方向)がその意味的効果を保持するかどうかを評価する。我々は、このようなアフィン・マッピングがステアリング動作を保持できるという強い経験的証拠を発見した。これらの結果は、小さなモデルで学習された表現が、大きなモデルの振る舞いを導くために使用できることを示唆しており、LRT仮説が、モデルのスケールを超えた表現のアライメントを理解する上で有望な方向性を持つ可能性を示している。

要約(オリジナル)

It has been hypothesized that neural networks with similar architectures trained on similar data learn shared representations relevant to the learning task. We build on this idea by extending the conceptual framework where representations learned across models trained on the same data can be expressed as linear combinations of a \emph{universal} set of basis features. These basis features underlie the learning task itself and remain consistent across models, regardless of scale. From this framework, we propose the \textbf{Linear Representation Transferability (LRT)} Hypothesis — that there exists an affine transformation between the representation spaces of different models. To test this hypothesis, we learn affine mappings between the hidden states of models of different sizes and evaluate whether steering vectors — directions in hidden state space associated with specific model behaviors — retain their semantic effect when transferred from small to large language models using the learned mappings. We find strong empirical evidence that such affine mappings can preserve steering behaviors. These findings suggest that representations learned by small models can be used to guide the behavior of large models, and that the LRT hypothesis may be a promising direction on understanding representation alignment across model scales.

arxiv情報

著者 Femi Bello,Anubrata Das,Fanzhi Zeng,Fangcong Yin,Liu Leqi
発行日 2025-06-03 15:52:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL, cs.LG | Linear Representation Transferability Hypothesis: Leveraging Small Models to Steer Large Models はコメントを受け付けていません

Gaussian mixture models as a proxy for interacting language models

要約

大規模言語モデル(LLM)は、多くの場面で人間の能力や行動と一致する能力を持つ強力なツールである。検索補強型生成(RAG)はさらに、LLMがRAGデータベースの内容に応じて多様な出力を生成することを可能にする。このことは、大規模な実験が不可能な場合に、個人間の人間の行動を研究するための社会科学におけるLLMの使用を動機づける。しかし、LLMは複雑で計算コストの高いアルゴリズムに依存している。本論文では、LLMを用いた類似のフレームワークの代替として、相互作用ガウス混合モデル(GMM)を導入する。GMMの単純化モデルと、更新と応答が他のLLMからのフィードバックに依存するLLMの選択的実験シミュレーションを比較する。我々は、相互作用するGMMが、相互作用するLLMのダイナミクスの重要な特徴を捉えていることを発見し、相互作用するLLMとGMMの主要な類似点と相違点を調査した。最後に、ガウス混合モデルの利点、潜在的な修正、および今後の研究の方向性について議論する。

要約(オリジナル)

Large language models (LLMs) are a powerful tool with the ability to match human capabilities and behavior in many settings. Retrieval-augmented generation (RAG) further allows LLMs to generate diverse output depending on the contents of their RAG database. This motivates their use in the social sciences to study human behavior between individuals when large-scale experiments are infeasible. However, LLMs depend on complex, computationally expensive algorithms. In this paper, we introduce interacting Gaussian mixture models (GMMs) as an alternative to similar frameworks using LLMs. We compare a simplified model of GMMs to select experimental simulations of LLMs whose updating and response depend on feedback from other LLMs. We find that interacting GMMs capture important features of the dynamics in interacting LLMs, and we investigate key similarities and differences between interacting LLMs and GMMs. We conclude by discussing the benefits of Gaussian mixture models, potential modifications, and future research directions.

arxiv情報

著者 Edward L. Wang,Tianyu Wang,Avanti Athreya,Vince Lyzinski,Carey E. Priebe
発行日 2025-06-03 16:01:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: 62R07, cs.CL, cs.LG, stat.ML | Gaussian mixture models as a proxy for interacting language models はコメントを受け付けていません

Unmasking Database Vulnerabilities: Zero-Knowledge Schema Inference Attacks in Text-to-SQL Systems

要約

Text-to-SQL システムは、クエリを実行可能な SQL コードに自動的に変換し、ユーザが自然言語を使用してデータベースと対話できるようにします。しかし、SQL生成のためのデータベーススキーマ情報への依存は、重大なセキュリティ脆弱性、特に不正なデータアクセスや操作につながるスキーマ推論攻撃にさらされる。本論文では、データベースの事前知識なしに、text-to-SQLモデルの基礎となるデータベーススキーマを再構築するための、新しいゼロ知識フレームワークを紹介する。本手法は、特別に作成された質問でtext-to-SQLモデルを体系的に調査し、代理GPT-4モデルを活用して出力を解釈することで、テーブル、カラム、データ型などの隠れたスキーマ要素を効果的に発見します。我々は、我々の手法がテーブル名の再構築において高い精度を達成し、F1スコアが生成モデルで最大0.99、ファインチューニングモデルで0.78であることを実証し、スキーマ漏洩リスクの重大性を強調する。また、我々の攻撃は、非テキストからSQLへのモデルにおいてプロンプト情報を盗むことができることも示す。さらに、生成モデルに対する単純な保護メカニズムを提案し、これらの攻撃を緩和する上での限界を実証的に示す。

要約(オリジナル)

Text-to-SQL systems empower users to interact with databases using natural language, automatically translating queries into executable SQL code. However, their reliance on database schema information for SQL generation exposes them to significant security vulnerabilities, particularly schema inference attacks that can lead to unauthorized data access or manipulation. In this paper, we introduce a novel zero-knowledge framework for reconstructing the underlying database schema of text-to-SQL models without any prior knowledge of the database. Our approach systematically probes text-to-SQL models with specially crafted questions and leverages a surrogate GPT-4 model to interpret the outputs, effectively uncovering hidden schema elements — including tables, columns, and data types. We demonstrate that our method achieves high accuracy in reconstructing table names, with F1 scores of up to .99 for generative models and .78 for fine-tuned models, underscoring the severity of schema leakage risks. We also show that our attack can steal prompt information in non-text-to-SQL models. Furthermore, we propose a simple protection mechanism for generative models and empirically show its limitations in mitigating these attacks.

arxiv情報

著者 Đorđe Klisura,Anthony Rios
発行日 2025-06-03 16:10:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL | Unmasking Database Vulnerabilities: Zero-Knowledge Schema Inference Attacks in Text-to-SQL Systems はコメントを受け付けていません

Can Character-based Language Models Improve Downstream Task Performance in Low-Resource and Noisy Language Scenarios?

要約

近年の自然言語処理における目覚ましい改善は、主に文脈ニューラル言語モデルの成功に基づくものだが、そのほとんどは、せいぜい数十の高リソース言語で実証されているに過ぎない。非標準化言語や低リソース言語に対する言語モデルや、より一般的なNLPシステムの構築は、依然として困難な課題である。この研究では、主にソーシャルメディアやメッセージング・コミュニケーションで見られる、NArabiziと呼ばれるラテン文字の拡張を使って書かれた北アフリカの口語方言アラビア語に焦点を当てる。この低リソースシナリオでは、データのばらつきが大きいため、品詞タグ付けと係り受け解析において、文字ベースの言語モデルの下流の性能を、単言語モデルと多言語モデルとで比較する。NArabizi語のわずか99kセンテンスで訓練され、この言語の小さなツリーバンクで微調整された文字ベースモデルが、大規模な多言語モデルや単言語モデルで事前に訓練された同じアーキテクチャで得られた性能に近い性能をもたらすことを示す。ノイズの多いフランス語のユーザー生成コンテンツからなる、より大規模なデータセットでこれらの結果を確認することで、このような文字ベースの言語モデルは、低リソースで言語のばらつきの大きいセット環境におけるNLPの資産になりうると主張する。

要約(オリジナル)

Recent impressive improvements in NLP, largely based on the success of contextual neural language models, have been mostly demonstrated on at most a couple dozen high-resource languages. Building language models and, more generally, NLP systems for non-standardized and low-resource languages remains a challenging task. In this work, we focus on North-African colloquial dialectal Arabic written using an extension of the Latin script, called NArabizi, found mostly on social media and messaging communication. In this low-resource scenario with data displaying a high level of variability, we compare the downstream performance of a character-based language model on part-of-speech tagging and dependency parsing to that of monolingual and multilingual models. We show that a character-based model trained on only 99k sentences of NArabizi and fined-tuned on a small treebank of this language leads to performance close to those obtained with the same architecture pre-trained on large multilingual and monolingual models. Confirming these results a on much larger data set of noisy French user-generated content, we argue that such character-based language models can be an asset for NLP in low-resource and high language variability set-tings.

arxiv情報

著者 Arij Riabi,Benoît Sagot,Djamé Seddah
発行日 2025-06-03 16:11:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL, cs.LG | Can Character-based Language Models Improve Downstream Task Performance in Low-Resource and Noisy Language Scenarios? はコメントを受け付けていません

Towards Analyzing and Understanding the Limitations of VAPO: A Theoretical Perspective

要約

強化学習(RL)は、複雑な長鎖思考(long-CoT)推論において大規模言語モデル(LLM)を強化する。先進的なVAPOフレームワークは、脱結合GAE(Decoupled GAE)のような洗練されたメカニズムにもかかわらず、理論的には、拡張された推論チェーンにおいて、きめ細かく段階的な政策指導のために、深い長期的な価値を包括的にモデル化し、活用することの根本的な限界に直面している。これらの限界は、特に報酬が疎な場合に、信用割り当て、時間的に抽象化された目標での価値関数の表現能力、グローバルな価値シグナルをローカルな政策改善に変換することの本質的な難しさに起因すると主張する。我々の理論的分析は、長期的な価値モデリングにおけるVAPOの境界を明らかにするために、これらの側面を検証するものである。

要約(オリジナル)

Reinforcement learning (RL) enhances large language models (LLMs) in complex, long-chain-of-thought (long-CoT) reasoning. The advanced VAPO framework, despite sophisticated mechanisms like Decoupled GAE, theoretically faces fundamental limitations in comprehensively modeling and leveraging deep, long-term value for fine-grained, step-by-step policy guidance in extended reasoning chains. We argue these limitations stem from inherent difficulties in credit assignment, value function representational capacity with temporally abstracted goals, and translating global value signals into local policy improvements, especially with sparse rewards. Our theoretical analysis examines these aspects to illuminate VAPO’s boundaries in long-term value modeling, aiming to deepen understanding of current RL for advanced reasoning and suggest future research for more robust LLM agents.

arxiv情報

著者 Jintian Shao,Yiming Cheng
発行日 2025-06-03 16:20:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL | Towards Analyzing and Understanding the Limitations of VAPO: A Theoretical Perspective はコメントを受け付けていません