Generative Trajectory Stitching through Diffusion Composition

要約

ロボットの意思決定において、長ホライズンプランニングのための効果的な軌道ステッチは重要な課題である。拡散モデルはプランニングにおいて有望であるが、学習データに見られるようなタスクの解決に限定される。我々はCompDiffuserを提案する。CompDiffuserは、以前に見たタスクから短い軌跡チャンクを構成的につなぎ合わせて学習することで、新しいタスクを解決することができる新しい生成的アプローチである。我々の重要な洞察は、重複するチャンクに細分化することで軌跡分布をモデル化し、単一の双方向拡散モデルを通してそれらの条件関係を学習することである。これにより、生成中にセグメント間で情報が伝播し、物理的に一貫した接続が保証される。我々は、環境サイズ、エージェントの状態次元、軌跡の種類、学習データの品質が異なる様々な難易度のベンチマークタスクで実験を行い、CompDiffuserが既存の手法を大幅に上回ることを示す。

要約(オリジナル)

Effective trajectory stitching for long-horizon planning is a significant challenge in robotic decision-making. While diffusion models have shown promise in planning, they are limited to solving tasks similar to those seen in their training data. We propose CompDiffuser, a novel generative approach that can solve new tasks by learning to compositionally stitch together shorter trajectory chunks from previously seen tasks. Our key insight is modeling the trajectory distribution by subdividing it into overlapping chunks and learning their conditional relationships through a single bidirectional diffusion model. This allows information to propagate between segments during generation, ensuring physically consistent connections. We conduct experiments on benchmark tasks of various difficulties, covering different environment sizes, agent state dimension, trajectory types, training data quality, and show that CompDiffuser significantly outperforms existing methods.

arxiv情報

著者 Yunhao Luo,Utkarsh A. Mishra,Yilun Du,Danfei Xu
発行日 2025-05-05 16:26:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG, cs.RO | Generative Trajectory Stitching through Diffusion Composition はコメントを受け付けていません

Activation Space Interventions Can Be Transferred Between Large Language Models

要約

AIモデルにおける表現普遍性の研究により、ドメイン、モダリティ、アーキテクチャを越えて収束しつつあることが明らかになった。しかし、表現普遍性の実用的な応用については、ほとんど未解明のままである。我々は、共有された活性化空間の学習されたマッピングを通じて、安全介入をモデル間で転送できることを実証することで、このギャップを埋める。我々はこのアプローチを、バックドアの除去と有害なプロンプトの拒否という、よく知られた2つのAI安全タスクで実証し、予測可能な方法でモデルの出力を変化させるステアリングベクトルの転送が成功することを示す。さらに、バックドアに関連する知識を埋め込むようにモデルを微調整する、新しいタスク「破損した能力」を提案する。これは、実世界の課題を反映し、有用なスキルとバックドアを分離する能力をテストする。Llama、Qwen、Gemmaのモデルファミリーを対象とした広範な実験により、我々の手法がより小さなモデルを用いてより大きなモデルを効率的にアライメントできることを示す。さらに、ベースモデルとファインチューニングモデル間のオートエンコーダマッピングが、信頼性の高い「軽量安全スイッチ」として機能し、モデル動作間の動的な切り替えを可能にすることを実証する。

要約(オリジナル)

The study of representation universality in AI models reveals growing convergence across domains, modalities, and architectures. However, the practical applications of representation universality remain largely unexplored. We bridge this gap by demonstrating that safety interventions can be transferred between models through learned mappings of their shared activation spaces. We demonstrate this approach on two well-established AI safety tasks: backdoor removal and refusal of harmful prompts, showing successful transfer of steering vectors that alter the models’ outputs in a predictable way. Additionally, we propose a new task, \textit{corrupted capabilities}, where models are fine-tuned to embed knowledge tied to a backdoor. This tests their ability to separate useful skills from backdoors, reflecting real-world challenges. Extensive experiments across Llama, Qwen and Gemma model families show that our method enables using smaller models to efficiently align larger ones. Furthermore, we demonstrate that autoencoder mappings between base and fine-tuned models can serve as reliable “lightweight safety switches’, allowing dynamic toggling between model behaviors.

arxiv情報

著者 Narmeen Oozeer,Dhruv Nathawani,Nirmalendu Prakash,Michael Lan,Abir Harrasse,Amirali Abdullah
発行日 2025-05-05 16:39:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI | Activation Space Interventions Can Be Transferred Between Large Language Models はコメントを受け付けていません

Beyond the Monitor: Mixed Reality Visualization and AI for Enhanced Digital Pathology Workflow

要約

病理医は、癌のような病気を診断するために、ギガピクセルのホールスライド画像(WSI)に依存しているが、現在のデジタル病理ツールは診断を妨げている。100,000X100,000ピクセルをしばしば超えるWSIの巨大なスケールは、従来のモニターが提供する限られた視野と衝突する。このミスマッチは、常にパンやズームを余儀なくさせ、病理医の認知的負荷を増大させ、診断疲労を引き起こし、病理医のデジタル手法の採用を遅らせている。Apple Vision ProのためのPathVisは、このような課題を解決します。病理医とデータとのインタラクションを変革し、煩雑なマウスとモニターによるナビゲーションを、没入型ワークスペースにおける自然なハンドジェスチャー、視線、音声コマンドを用いた直感的な探索に置き換えます。PathVisはAIを統合して診断を強化します。AI主導の検索機能は、類似した患者症例の上位5件を即座に検索して並べて表示し、迅速な比較によって診断精度と効率を向上させます。さらに、マルチモーダルな会話型AIアシスタントがリアルタイムの画像解釈をサポートし、複数のアップル製デバイスを介した病理医間のコラボレーションを支援します。PathVisは、伝統的な病理学の直接性と先進的な複合現実の視覚化およびAIを融合させることで、診断ワークフローを改善し、認知的負担を軽減し、病理診療をより効果的で魅力的なものにします。PathVisのソースコードとデモビデオは、https://github.com/jaiprakash1824/Path_Vis で公開されています。

要約(オリジナル)

Pathologists rely on gigapixel whole-slide images (WSIs) to diagnose diseases like cancer, yet current digital pathology tools hinder diagnosis. The immense scale of WSIs, often exceeding 100,000 X 100,000 pixels, clashes with the limited views traditional monitors offer. This mismatch forces constant panning and zooming, increasing pathologist cognitive load, causing diagnostic fatigue, and slowing pathologists’ adoption of digital methods. PathVis, our mixed-reality visualization platform for Apple Vision Pro, addresses these challenges. It transforms the pathologist’s interaction with data, replacing cumbersome mouse-and-monitor navigation with intuitive exploration using natural hand gestures, eye gaze, and voice commands in an immersive workspace. PathVis integrates AI to enhance diagnosis. An AI-driven search function instantly retrieves and displays the top five similar patient cases side-by-side, improving diagnostic precision and efficiency through rapid comparison. Additionally, a multimodal conversational AI assistant offers real-time image interpretation support and aids collaboration among pathologists across multiple Apple devices. By merging the directness of traditional pathology with advanced mixed-reality visualization and AI, PathVis improves diagnostic workflows, reduces cognitive strain, and makes pathology practice more effective and engaging. The PathVis source code and a demo video are publicly available at: https://github.com/jaiprakash1824/Path_Vis

arxiv情報

著者 Jai Prakash Veerla,Partha Sai Guttikonda,Helen H. Shang,Mohammad Sadegh Nasr,Cesar Torres,Jacob M. Luber
発行日 2025-05-05 16:46:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.ET, cs.HC, q-bio.TO | Beyond the Monitor: Mixed Reality Visualization and AI for Enhanced Digital Pathology Workflow はコメントを受け付けていません

Local Markov Equivalence and Local Causal Discovery for Identifying Controlled Direct Effects

要約

制御された直接効果(CDE)の理解と同定は、公衆衛生を含む多くの科学的領域において極めて重要である。既存の手法では、因果関係のある有向非周期グラフ(DAG)からこれらの効果を同定することができるが、実際のところ、真の基礎構造は不明であることが多い。エッセンシャルグラフは、同じd-区切りの集合によって特徴づけられるDAGのマルコフ同値類型を表し、より実用的で現実的な代替手段を提供する。しかしながら、完全なエッセンシャルグラフを学習することは計算集約的であり、一般的に強く検証不可能な仮定に依存する。本研究では、ターゲット変数に対して定義され、d-分離の特定の部分集合を共有するグラフの局所的なクラスを特徴付け、局所本質グラフ(LEG)と呼ばれるこのクラスのグラフ表現を導入する。次に、局所的な条件付き独立性の検定のみを用いて、観測された分布からLEGを復元するように設計された新しいアルゴリズムであるLocPCを紹介する。LocPCをベースに、CDEを識別するのに十分なLEGの部分を発見するアルゴリズムであるLocPC-CDEを提案する。大域的な手法と比較して、我々のアルゴリズムは、より少ない条件付き独立性検定で済み、理論的な保証を維持しつつ、より弱い仮定の下で動作する。

要約(オリジナル)

Understanding and identifying controlled direct effects (CDEs) is crucial across numerous scientific domains, including public health. While existing methods can identify these effects from causal directed acyclic graphs (DAGs), the true underlying structure is often unknown in practice. Essential graphs, which represent a Markov equivalence class of DAGs characterized by the same set of d-separations, provide a more practical and realistic alternative. However, learning the full essential graph is computationally intensive and typically depends on strong, untestable assumptions. In this work, we characterize a local class of graphs, defined relative to a target variable, that share a specific subset of d-separations, and introduce a graphical representation of this class, called the local essential graph (LEG). We then present LocPC, a novel algorithm designed to recover the LEG from an observed distribution using only local conditional independence tests. Building on LocPC, we propose LocPC-CDE, an algorithm that discovers the portion of the LEG that is sufficient to identify a CDE, bypassing the need of retrieving the full essential graph. Compared to global methods, our algorithms require less conditional independence tests and operate under weaker assumptions while maintaining theoretical guarantees.

arxiv情報

著者 Timothée Loranchet,Charles K. Assaad
発行日 2025-05-05 16:47:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI | Local Markov Equivalence and Local Causal Discovery for Identifying Controlled Direct Effects はコメントを受け付けていません

M3-Jepa: Multimodal Alignment via Multi-directional MoE based on the JEPA framework

要約

現在のマルチモーダルアライメント戦略は、主に単一または統一されたモダリティエンコーダを使用し、元のトークン空間上でアライメントを最適化する。このような枠組みは実装が容易で、事前学習された知識を取り入れることができるが、情報バイアスが生じる可能性がある。このような問題に対処するために、JEPA(joint encoding predictive architecture)は、入力エンコーディングを出力潜在空間に変換する予測器を用いて、潜在空間上のアライメント損失を学習する。しかし、JEPAのマルチモーダルシナリオへの応用は限定的である。本論文では、予測器を多方向混合エキスパート(MoE)により実装した、スケーラブルなマルチモーダルアライメントフレームワークであるM3-Jepaを紹介する。このフレームワークが、異なる一方向タスクを交互に最適化することで、相互情報を最大化できることを、情報理論の導出により実証する。徹底的に設計された実験により、M3-Jepaが異なるモダリティやタスクで最先端の性能を得ることができ、未知のデータセットやドメインに汎化でき、学習と推論において計算効率が高いことを示す。我々の研究は、M3-Jepaが自己教師付き学習とオープンワールドモデリングに新しいパラダイムを提供する可能性を示している。

要約(オリジナル)

Current multimodal alignment strategies primarily use single or unified modality encoders, while optimizing the alignment on the original token space. Such a framework is easy to implement and incorporate with the pretrained knowledge, but might result in information bias. To deal with such issues, the joint encoding predictive architecture (JEPA) learns the alignment loss on the latent space, with a predictor to convert the input encoding to the output latent space. However, the application of JEPA in multimodal scenarios is limited so far. In this paper, we introduce M3-Jepa, a scalable multimodal alignment framework, with the predictor implemented by a multi-directional mixture of experts (MoE). We demonstrate the framework can maximize the mutual information with information theory derivations, by alternating the optimization between different uni-directional tasks. By thoroughly designed experiments, we show that M3-Jepa can obtain state-of-the-art performance on different modalities and tasks, generalize to unseen datasets and domains, and is computationally efficient in training and inference. Our study indicates that M3-Jepa might provide a new paradigm to self-supervised learning and open-world modeling.

arxiv情報

著者 Hongyang Lei,Xiaolong Cheng,Dan Wang,Kun Fan,Qi Qin,Huazhen Huang,Yetao Wu,Qingqing Gu,Zhonglin Jiang,Yong Chen,Luo Ji
発行日 2025-05-05 16:48:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG | M3-Jepa: Multimodal Alignment via Multi-directional MoE based on the JEPA framework はコメントを受け付けていません

Un-Straightening Generative AI: How Queer Artists Surface and Challenge the Normativity of Generative AI Models

要約

クィアの人々は、生成AIの研究において、偏見や危害、差別の対象としてしばしば議論される。しかし、クィアの人々がジェネレーティブAIと関わる具体的な方法、ひいてはクィアの人々を支援する可能性のある使用方法については、まだ調査されていない。私たちは13人のクィア・アーティストとワークショップ研究を行い、その中で参加者にGPT-4とDALL-E 3にアクセスしてもらい、グループでのセンスメイキング活動を促進した。その結果、参加者たちは、超ポジティブや反セクシュアリティといった、彼らのデザインに埋め込まれた様々な規範的価値観のために、これらのモデルを使用するのに苦労していることがわかった。私たちは、参加者がこれらのモデルの限界を克服するために開発した様々な戦略について述べ、それにもかかわらず、参加者がこれらの高度に規範的なテクノロジーにどのような価値を見出したかについて述べる。クィア・フェミニズムの理論を引きながら、「最先端の」モデルの概念化に対する示唆を議論し、FAccTの研究者がどのようにクィアな代替案を支援するかを考察する。

要約(オリジナル)

Queer people are often discussed as targets of bias, harm, or discrimination in research on generative AI. However, the specific ways that queer people engage with generative AI, and thus possible uses that support queer people, have yet to be explored. We conducted a workshop study with 13 queer artists, during which we gave participants access to GPT-4 and DALL-E 3 and facilitated group sensemaking activities. We found our participants struggled to use these models due to various normative values embedded in their designs, such as hyper-positivity and anti-sexuality. We describe various strategies our participants developed to overcome these models’ limitations and how, nevertheless, our participants found value in these highly-normative technologies. Drawing on queer feminist theory, we discuss implications for the conceptualization of ‘state-of-the-art’ models and consider how FAccT researchers might support queer alternatives.

arxiv情報

著者 Jordan Taylor,Joel Mire,Franchesca Spektor,Alicia DeVrio,Maarten Sap,Haiyi Zhu,Sarah Fox
発行日 2025-05-05 17:07:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.HC | Un-Straightening Generative AI: How Queer Artists Surface and Challenge the Normativity of Generative AI Models はコメントを受け付けていません

HSplitLoRA: A Heterogeneous Split Parameter-Efficient Fine-Tuning Framework for Large Language Models

要約

近年、大規模言語モデル(LLM)は、自然言語処理領域とそれ以外の領域に革命をもたらし、目覚ましいブレークスルーを達成している。LLMは膨大なパラメータを持つため、様々な下流タスクのために、プライベートデータを用いてこれらのモデルを微調整することが主流となっている。連合学習(FL)は、生データを共有することなくLLMを微調整するための有望なソリューションを提供するが、多大な計算コストがその民主化を妨げている。さらに、実世界のシナリオでは、プライベートクライアントデバイスは異種のコンピューティングリソースを持つことが多く、LLMの微調整をさらに複雑にしている。これらの課題に対処するため、我々は、異種クライアントデバイス上のLLMを効率的に微調整するために、分割学習(SL)と低ランク適応(LoRA)微調整を基に構築された異種パラメータ効率微調整(PEFT)フレームワークであるHSplitLoRAを提案する。HSplitLoRAはまず、LLM学習への貢献度に基づいて重要な重みを特定する。次に、選択された重みに対してLoRAアダプタの分解ランクを動的に設定し、クライアントデバイスの計算バジェットの変化に応じてモデルの分割ポイントを決定する。最後に、ノイズのないアダプタ集約メカニズムを考案し、ノイズを導入することなく異種アダプタ集約をサポートする。広範な実験により、HSplitLoRAが学習精度と収束速度において最先端のベンチマークを上回ることが実証された。

要約(オリジナル)

Recently, large language models (LLMs) have achieved remarkable breakthroughs, revolutionizing the natural language processing domain and beyond. Due to immense parameter sizes, fine-tuning these models with private data for diverse downstream tasks has become mainstream. Though federated learning (FL) offers a promising solution for fine-tuning LLMs without sharing raw data, substantial computing costs hinder its democratization. Moreover, in real-world scenarios, private client devices often possess heterogeneous computing resources, further complicating LLM fine-tuning. To combat these challenges, we propose HSplitLoRA, a heterogeneous parameter-efficient fine-tuning (PEFT) framework built on split learning (SL) and low-rank adaptation (LoRA) fine-tuning, for efficiently fine-tuning LLMs on heterogeneous client devices. HSplitLoRA first identifies important weights based on their contributions to LLM training. It then dynamically configures the decomposition ranks of LoRA adapters for selected weights and determines the model split point according to varying computing budgets of client devices. Finally, a noise-free adapter aggregation mechanism is devised to support heterogeneous adapter aggregation without introducing noise. Extensive experiments demonstrate that HSplitLoRA outperforms state-of-the-art benchmarks in training accuracy and convergence speed.

arxiv情報

著者 Zheng Lin,Yuxin Zhang,Zhe Chen,Zihan Fang,Xianhao Chen,Praneeth Vepakomma,Wei Ni,Jun Luo,Yue Gao
発行日 2025-05-05 17:09:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.DC, cs.LG | HSplitLoRA: A Heterogeneous Split Parameter-Efficient Fine-Tuning Framework for Large Language Models はコメントを受け付けていません

Hierarchical Reinforcement Learning in Multi-Goal Spatial Navigation with Autonomous Mobile Robots

要約

階層的強化学習(HRL)は、従来の強化学習アルゴリズムとは対照的に、報酬スキームが疎なロボットの学習タスクに内在する階層性を利用できると仮定されている。本研究では、複雑なナビゲーション課題において、階層型強化学習を評価し、標準的な強化学習と対比する。HRLのユニークな特徴として、サブゴールの作成能力や終端関数を評価する。PPOとHRLの違い、サブゴールの作成方法の違い、手動と自動のサブゴール作成方法、終了頻度がパフォーマンスに与える影響などを検証する実験を構築しました。これらの実験により、HRLの長所とその長所の実現方法が明らかになりました。

要約(オリジナル)

Hierarchical reinforcement learning (HRL) is hypothesized to be able to take advantage of the inherent hierarchy in robot learning tasks with sparse reward schemes, in contrast to more traditional reinforcement learning algorithms. In this research, hierarchical reinforcement learning is evaluated and contrasted with standard reinforcement learning in complex navigation tasks. We evaluate unique characteristics of HRL, including their ability to create sub-goals and the termination function. We constructed experiments to test the differences between PPO and HRL, different ways of creating sub-goals, manual vs automatic sub-goal creation, and the effects of the frequency of termination on performance. These experiments highlight the advantages of HRL and how it achieves these advantages.

arxiv情報

著者 Brendon Johnson,Alfredo Weitzenfeld
発行日 2025-05-05 17:21:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.RO | Hierarchical Reinforcement Learning in Multi-Goal Spatial Navigation with Autonomous Mobile Robots はコメントを受け付けていません

Knowing You Don’t Know: Learning When to Continue Search in Multi-round RAG through Self-Practicing

要約

検索拡張生成(RAG)は、言語モデルの知識を強化し、AIの生成幻覚を減少させる強力な能力を示しており、その普及を後押ししている。しかし、多ラウンド検索を必要とする複雑なタスクは依然として困難であり、初期の試みは、自己懐疑的な感覚を持たずに過度に楽観的になりがちである。現在の多ラウンドRAGシステムは、十分な情報がすでに検索されているにもかかわらず検索を続けたり、十分な情報や知識を持たないまま誤った答えを出したりすることがある。既存のソリューションは、高価な人間によるラベル付けされた大量のプロセス監視データを必要とするか、あるいは劣悪なパフォーマンスにつながる。 本論文では、RAGシステムの自己認識と多ラウンド検索能力を明示的に強化するための新しいフレームワーク( \textbf{SIM-RAG}) を導入することで、これらの限界に対処することを目的とする。SIM-RAGを訓練するために、まずRAGシステムに多ラウンド検索を自己練習させ、既存の質問と答えのペアを中間的な内部モノローグ推論ステップで補強し、合成訓練データを生成する。各ペアに対して、システムは複数の検索パスを探索することができ、正解に到達すれば成功、そうでなければ失敗とラベル付けされる。このデータを用いて、軽量な情報充足性クリティックを訓練する。推論時に、CriticはRAGシステムが各ラウンドで十分な情報を検索したかどうかを評価し、検索決定を導き、文脈内強化学習によりシステムレベルの自己認識を向上させる。 複数の著名なRAGベンチマークにおける実験から、SIM-RAGが効果的なマルチラウンドRAGソリューションであることが示されている。さらに、このフレームワークはシステム効率に優れ、既存のLLMや検索エンジンに変更を加えることなく、RAGに軽量なコンポーネントを追加する。

要約(オリジナル)

Retrieval Augmented Generation (RAG) has shown strong capability in enhancing language models’ knowledge and reducing AI generative hallucinations, driving its widespread use. However, complex tasks requiring multi-round retrieval remain challenging, and early attempts tend to be overly optimistic without a good sense of self-skepticism. Current multi-round RAG systems may continue searching even when enough information has already been retrieved, or they may provide incorrect answers without having sufficient information or knowledge. Existing solutions either require large amounts of expensive human-labeled process supervision data or lead to subpar performance. This paper aims to address these limitations by introducing a new framework, \textbf{SIM-RAG}, to explicitly enhance RAG systems’ self-awareness and multi-round retrieval capabilities. To train SIM-RAG, we first let a RAG system self-practice multi-round retrieval, augmenting existing question-answer pairs with intermediate inner monologue reasoning steps to generate synthetic training data. For each pair, the system may explore multiple retrieval paths, which are labeled as successful if they reach the correct answer and unsuccessful otherwise. Using this data, we train a lightweight information sufficiency Critic. At inference time, the Critic evaluates whether the RAG system has retrieved sufficient information at each round, guiding retrieval decisions and improving system-level self-awareness through in-context reinforcement learning. Experiments across multiple prominent RAG benchmarks show that SIM-RAG is an effective multi-round RAG solution. Furthermore, this framework is system-efficient, adding a lightweight component to RAG without requiring modifications to existing LLMs or search engines, and data-efficient, eliminating the need for costly human-annotated mid-step retrieval process supervision data.

arxiv情報

著者 Diji Yang,Linda Zeng,Jinmeng Rao,Yi Zhang
発行日 2025-05-05 17:39:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL, cs.IR | Knowing You Don’t Know: Learning When to Continue Search in Multi-round RAG through Self-Practicing はコメントを受け付けていません

AutoLibra: Agent Metric Induction from Open-Ended Feedback

要約

エージェントの評価と最適化は、主にタスクの成功指標によって行われるが、この指標は粗く、専門家の手作業による設計に依存し、中間的な創発的行動に報いることができない。AutoLibraはエージェント評価のためのフレームワークであり、例えば、「ボタンが無効になっていることに気づいたら、再度クリックしないでください」、「このエージェントは自律性が高すぎて、自分で何をすべきかを決めることができません」といったオープンエンドな人間のフィードバックを、エージェントの軌道におけるきめ細かな行動を評価するためのメトリクスに変換する。AutoLibraは、エージェントの行動へのフィードバックを基礎とし、類似した肯定的な行動と否定的な行動をクラスタリングし、明確な定義と具体的な例を持つ具体的なメトリクスを作成することで、これを達成する。さらに、(誘導された)メトリクスとオープンフィードバックとの整合性を評価するために、「カバレッジ」と「冗長性」という2つのメタメトリクスを提案する。これらのメタメトリクスの最適化を通じて、我々は、AutoLibraが、これまでのエージェント評価ベンチマークで提案されたものよりも具体的なエージェント評価メトリクスを誘導する能力を実験的に実証し、エージェントを分析するための新しいメトリクスを発見する。また、エージェント改良におけるAutoLibraの2つの応用例を紹介する:第一に、AutoLibraによって誘導されたメトリクスが、様々なテキストゲームタスクにおいて、タスク成功率よりも優れたプロンプトエンジニアリングターゲットとして機能し、エージェントのパフォーマンスをベースラインよりも平均20%向上させることを示す。次に、AutoLibraがウェブナビゲーションエージェントのための高品質な微調整データを繰り返し選択できることを示す。この結果は、AutoLibraが言語エージェントの評価と改善のためのタスクに依存しない強力なツールであることを示唆している。

要約(オリジナル)

Agents are predominantly evaluated and optimized via task success metrics, which are coarse, rely on manual design from experts, and fail to reward intermediate emergent behaviors. We propose AutoLibra, a framework for agent evaluation, that transforms open-ended human feedback, e.g., ‘If you find that the button is disabled, don’t click it again’, or ‘This agent has too much autonomy to decide what to do on its own’, into metrics for evaluating fine-grained behaviors in agent trajectories. AutoLibra accomplishes this by grounding feedback to an agent’s behavior, clustering similar positive and negative behaviors, and creating concrete metrics with clear definitions and concrete examples, which can be used for prompting LLM-as-a-Judge as evaluators. We further propose two meta-metrics to evaluate the alignment of a set of (induced) metrics with open feedback: ‘coverage’ and ‘redundancy’. Through optimizing these meta-metrics, we experimentally demonstrate AutoLibra’s ability to induce more concrete agent evaluation metrics than the ones proposed in previous agent evaluation benchmarks and discover new metrics to analyze agents. We also present two applications of AutoLibra in agent improvement: First, we show that AutoLibra-induced metrics serve as better prompt-engineering targets than the task success rate on a wide range of text game tasks, improving agent performance over baseline by a mean of 20%. Second, we show that AutoLibra can iteratively select high-quality fine-tuning data for web navigation agents. Our results suggest that AutoLibra is a powerful task-agnostic tool for evaluating and improving language agents.

arxiv情報

著者 Hao Zhu,Phil Cuvin,Xinkai Yu,Charlotte Ka Yee Yan,Jason Zhang,Diyi Yang
発行日 2025-05-05 17:47:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL, cs.LG | AutoLibra: Agent Metric Induction from Open-Ended Feedback はコメントを受け付けていません