Diversity By Design: Leveraging Distribution Matching for Offline Model-Based Optimization

要約

オフラインモデルベースの最適化(MBO)の目標は、オフラインデータセットのみを考慮して報酬関数を最大化する新しいデザインを提案することです。
ただし、重要な設計は、多くの最適で最適に近い設計構成をキャプチャする最終候補の多様なセットを提案することです。
MBOの問題に明示的な目的として設計の多様性を導入するための新しい方法として、敵対的なモデルベースの最適化(Dynamo)の多様性を提案します。
私たちの重要な洞察は、生成されたデザインの分布がオフラインデータセットに含まれる固有の多様性をキャプチャする分布マッチング問題として多様性を策定することです。
複数の科学ドメインにまたがる広範な実験は、ダイナモを一般的な最適化方法で使用して、高品質の候補を発見しながら提案された設計の多様性を大幅に改善できることを示しています。

要約(オリジナル)

The goal of offline model-based optimization (MBO) is to propose new designs that maximize a reward function given only an offline dataset. However, an important desiderata is to also propose a diverse set of final candidates that capture many optimal and near-optimal design configurations. We propose Diversity in Adversarial Model-based Optimization (DynAMO) as a novel method to introduce design diversity as an explicit objective into any MBO problem. Our key insight is to formulate diversity as a distribution matching problem where the distribution of generated designs captures the inherent diversity contained within the offline dataset. Extensive experiments spanning multiple scientific domains show that DynAMO can be used with common optimization methods to significantly improve the diversity of proposed designs while still discovering high-quality candidates.

arxiv情報

著者 Michael S. Yao,James C. Gee,Osbert Bastani
発行日 2025-05-01 13:57:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | Diversity By Design: Leveraging Distribution Matching for Offline Model-Based Optimization はコメントを受け付けていません

Test-time Correlation Alignment

要約

ディープニューラルネットワークは、トレーニングとテストデータの間の分布シフトにより、多くの場合、パフォーマンスの低下を経験します。
ドメインの適応はソリューションを提供しますが、プライバシーの懸念は、多くの実際のシナリオでのトレーニングデータへのアクセスを制限します。
この制限は、テスト時間適応(TTA)への関心を促進しました。これは、ラベルのないテストデータのみを使用してモデルを適応させます。
ただし、現在のTTAメソッドは、依然として実際的な課題に直面しています。(1)発生源相関が欠落しているため、相関アラインメント(サンゴ)を見落とすインスタンスごとのアラインメントへの主要な焦点。
(2)モデルの更新のための複雑なバックプロパゲーション操作により、オーバーヘッド計算と(3)ドメインの忘却が生じます。
これらの課題に対処するために、テスト時間相関アラインメント(TCA)の実現可能性を調査するための理論分析を提供し、高度に確実なインスタンスとテストインスタンスの間の相関アラインメントが理論的保証でテストパフォーマンスを強化できることを実証します。
これに基づいて、2つのシンプルで効果的なアルゴリズムを提案します:LineartcaとLineartca+。
LineArtCAは、単純な線形変換を適用して、追加のモデル更新なしでインスタンスと相関アラインメントの両方を実現しますが、LineArtCA+は既存のTTAメソッドを簡単にブーストできるプラグアンドプレイモジュールとして機能します。
広範な実験では、理論的な洞察を検証し、TCAメソッドがさまざまなタスク、ベンチマーク、バックボーンのベースラインを大幅に上回ることを示しています。
特に、LineArtCAは、OfficeHomeデータセットで適応精度を5.88%向上させ、最大のGPUメモリ使用量4%と0.6%の計算時間のみを使用して、最適なベースラインTTAメソッドです。

要約(オリジナル)

Deep neural networks often experience performance drops due to distribution shifts between training and test data. Although domain adaptation offers a solution, privacy concerns restrict access to training data in many real-world scenarios. This restriction has spurred interest in Test-Time Adaptation (TTA), which adapts models using only unlabeled test data. However, current TTA methods still face practical challenges: (1) a primary focus on instance-wise alignment, overlooking CORrelation ALignment (CORAL) due to missing source correlations; (2) complex backpropagation operations for model updating, resulting in overhead computation and (3) domain forgetting. To address these challenges, we provide a theoretical analysis to investigate the feasibility of Test-time Correlation Alignment (TCA), demonstrating that correlation alignment between high-certainty instances and test instances can enhance test performances with a theoretical guarantee. Based on this, we propose two simple yet effective algorithms: LinearTCA and LinearTCA+. LinearTCA applies a simple linear transformation to achieve both instance and correlation alignment without additional model updates, while LinearTCA+ serves as a plug-and-play module that can easily boost existing TTA methods. Extensive experiments validate our theoretical insights and show that TCA methods significantly outperforms baselines across various tasks, benchmarks and backbones. Notably, LinearTCA improves adaptation accuracy by 5.88% on OfficeHome dataset, while using only 4% maximum GPU memory usage and 0.6% computation time compared to the best baseline TTA method.

arxiv情報

著者 Linjing You,Jiabao Lu,Xiayuan Huang
発行日 2025-05-01 13:59:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | Test-time Correlation Alignment はコメントを受け付けていません

On the Mechanistic Interpretability of Neural Networks for Causality in Bio-statistics

要約

特に因果関係を評価する場合、予測モデルからの解釈可能な洞察は、生体統計学では依然として重要なままです。
ニューラルネットワーク(NNS)は複雑な生物学的データをモデル化するための強力な機能を提供しますが、従来の「ブラックボックス」の性質は、ハイステークスの健康アプリケーションの検証と信頼の課題を提示します。
機械的解釈可能性(MI)の最近の進歩は、これらのネットワークによって学習された内部計算を解読することを目的としています。
この研究では、生体統計の因果推論のコンテキスト内で、MI技術のNNSへの適用を調査します。
MIツールは次のように活用できることを実証します。(1)NNSによって学習された内部表現をプローブおよび検証します。たとえば、ターゲットの最小損失ベース推定(TMLE)などのフレームワークで迷惑関数を推定するものなど。
(2)ネットワークで採用されている異なる計算経路を発見して視覚化して、さまざまな種類の入力を処理し、交絡因子と治療がどのように処理されるかを潜在的に明らかにします。
(3)統計、機械学習、およびNNモデル全体で学習されたメカニズムと抽出された洞察を比較するための方法論を提供し、因果的生物統計分析のためのそれぞれの長所と短所のより深い理解を促進します。

要約(オリジナル)

Interpretable insights from predictive models remain critical in bio-statistics, particularly when assessing causality, where classical statistical and machine learning methods often provide inherent clarity. While Neural Networks (NNs) offer powerful capabilities for modeling complex biological data, their traditional ‘black-box’ nature presents challenges for validation and trust in high-stakes health applications. Recent advances in Mechanistic Interpretability (MI) aim to decipher the internal computations learned by these networks. This work investigates the application of MI techniques to NNs within the context of causal inference for bio-statistics. We demonstrate that MI tools can be leveraged to: (1) probe and validate the internal representations learned by NNs, such as those estimating nuisance functions in frameworks like Targeted Minimum Loss-based Estimation (TMLE); (2) discover and visualize the distinct computational pathways employed by the network to process different types of inputs, potentially revealing how confounders and treatments are handled; and (3) provide methodologies for comparing the learned mechanisms and extracted insights across statistical, machine learning, and NN models, fostering a deeper understanding of their respective strengths and weaknesses for causal bio-statistical analysis.

arxiv情報

著者 Jean-Baptiste A. Conan
発行日 2025-05-01 14:30:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, stat.AP | On the Mechanistic Interpretability of Neural Networks for Causality in Bio-statistics はコメントを受け付けていません

Triggering Hallucinations in LLMs: A Quantitative Study of Prompt-Induced Hallucination in Large Language Models

要約

大規模な言語モデル(LLMS)の幻覚は、実際の信頼性が不可欠なヘルスケアから法律まで、現実世界のアプリケーション全体で増大する課題を提示します。
アラインメントと命令の調整の進歩にもかかわらず、LLMSは依然として流fluentでありながら根本的に真実ではない出力を生成できます。
これらの幻覚の根底にある認知的ダイナミクスを理解することは、未解決の問題のままです。
この研究では、幻覚を体系的にトリガーして定量化するためのプロンプトベースのフレームワークを提案します。幻覚を誘発するプロンプト(HIP)を提案します。これは、誤った概念(例えば、誤解を招くように、誤った概念とタロット分裂の定期的なテーブル)を融合させ、幻覚を定量化するプロンプト(HQP)を定量化する幻覚を定量化します。
複数のLLMにわたる制御された実験により、HIPは一貫してヌル融合コントロールよりも一貫性の少ない幻覚応答を生成することが明らかになりました。
これらの効果はモデル間で異なり、推論指向のLLMは一般的な目的のプロファイルとは異なるプロファイルを示しています。
私たちのフレームワークは、幻覚の脆弱性を研究するための再現可能なテストベッドを提供し、概念の不安定性の開始を検出し、自己調整できる、より安全で内省的なLLMの開発への扉を開きます。

要約(オリジナル)

Hallucinations in large language models (LLMs) present a growing challenge across real-world applications, from healthcare to law, where factual reliability is essential. Despite advances in alignment and instruction tuning, LLMs can still generate outputs that are fluent yet fundamentally untrue. Understanding the cognitive dynamics that underlie these hallucinations remains an open problem. In this study, we propose a prompt-based framework to systematically trigger and quantify hallucination: a Hallucination-Inducing Prompt (HIP), which synthetically fuses semantically distant concepts (e.g., periodic table of elements and tarot divination) in a misleading way, and a Hallucination Quantifying Prompt (HQP), which scores the plausibility, confidence, and coherence of the output. Controlled experiments across multiple LLMs revealed that HIPs consistently produced less coherent and more hallucinated responses than their null-fusion controls. These effects varied across models, with reasoning-oriented LLMs showing distinct profiles from general-purpose ones. Our framework provides a reproducible testbed for studying hallucination vulnerability, and opens the door to developing safer, more introspective LLMs that can detect and self-regulate the onset of conceptual instability.

arxiv情報

著者 Makoto Sato
発行日 2025-05-01 14:33:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | Triggering Hallucinations in LLMs: A Quantitative Study of Prompt-Induced Hallucination in Large Language Models はコメントを受け付けていません

Learning to Learn with Quantum Optimization via Quantum Neural Networks

要約

Quantum Amproximate Optimization Algorithms(QAOA)は、浅い深さの量子回路を活用することにより、古典的に扱いやすい組み合わせ最適化問題に対する効率的なソリューションを約束します。
しかし、それらのパフォーマンスとスケーラビリティは、しばしば効果的なパラメーターの最適化にかかっています。これは、頑丈なエネルギー景観とハードウェアノイズのために自明ではありません。
この作業では、量子ニューラルネットワーク、特に量子の長期記憶(QLSTM)アーキテクチャをQAOAと組み合わせた量子メタラーニングフレームワークを紹介します。
小規模なグラフインスタンスでQLSTMオプティマイザーをトレーニングすることにより、私たちのアプローチは、より大きく複雑な問題に急速に一般的になり、収束に必要な反復の数を大幅に減らします。
Max-CutおよびSherrington-Kirkpatrickモデルインスタンスの包括的なベンチマークを通じて、QLSTMベースのオプティマイザーがより速く収束し、古典的なベースラインと比較してより高い近似比を達成することを実証し、それによってNISQ時代のスケーラブルな量子最適化への堅牢な経路を提供します。

要約(オリジナル)

Quantum Approximate Optimization Algorithms (QAOA) promise efficient solutions to classically intractable combinatorial optimization problems by harnessing shallow-depth quantum circuits. Yet, their performance and scalability often hinge on effective parameter optimization, which remains nontrivial due to rugged energy landscapes and hardware noise. In this work, we introduce a quantum meta-learning framework that combines quantum neural networks, specifically Quantum Long Short-Term Memory (QLSTM) architectures, with QAOA. By training the QLSTM optimizer on smaller graph instances, our approach rapidly generalizes to larger, more complex problems, substantially reducing the number of iterations required for convergence. Through comprehensive benchmarks on Max-Cut and Sherrington-Kirkpatrick model instances, we demonstrate that QLSTM-based optimizers converge faster and achieve higher approximation ratios compared to classical baselines, thereby offering a robust pathway toward scalable quantum optimization in the NISQ era.

arxiv情報

著者 Kuan-Cheng Chen,Hiromichi Matsuyama,Wei-Hao Huang
発行日 2025-05-01 14:39:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, quant-ph | Learning to Learn with Quantum Optimization via Quantum Neural Networks はコメントを受け付けていません

TeLoGraF: Temporal Logic Planning via Graph-encoded Flow Matching

要約

信号時間論理(STL)仕様で複雑なタスクを解決することを学ぶことは、多くの現実世界のアプリケーションにとって重要です。
ただし、以前の作業のほとんどは、ダウンストリームタスクの時間的論理情報を効果的に抽出するための多様なSTLデータセットとエンコーダがないため、固定またはパラメータ化されたSTL仕様のみを考慮しています。
この論文では、グラフニューラルネットワーク(GNN)エンコーダとフローマッチングを使用して、一般的なSTL仕様のソリューションを学習するために、グラフニューラルネットワーク(GNN)エンコーダーとフローマッチングを使用するTelografであるTelografを提案します。
一般的に使用される4つのSTLテンプレートを特定し、ペアのデモンストレーションを使用して合計200K仕様を収集します。
2Dスペースの単純な動的モデルから、高次元7DOFフランカパンダロボットアームとアリの4倍ナビゲーションに至るまで、5つのシミュレーション環境で広範な実験を実施します。
結果は、私たちの方法がSTL満足度の他のベースラインよりも優れていることを示しています。
古典的なSTL計画アルゴリズムと比較して、私たちのアプローチは推論が10〜100倍高速であり、あらゆるシステムのダイナミクスに取り組むことができます。
その上、複雑なSTLと堅牢性を分散分布STL仕様に解決するグラフエンコード法の機能を示します。
コードはhttps://github.com/mengyuest/telografで入手できます

要約(オリジナル)

Learning to solve complex tasks with signal temporal logic (STL) specifications is crucial to many real-world applications. However, most previous works only consider fixed or parametrized STL specifications due to the lack of a diverse STL dataset and encoders to effectively extract temporal logic information for downstream tasks. In this paper, we propose TeLoGraF, Temporal Logic Graph-encoded Flow, which utilizes Graph Neural Networks (GNN) encoder and flow-matching to learn solutions for general STL specifications. We identify four commonly used STL templates and collect a total of 200K specifications with paired demonstrations. We conduct extensive experiments in five simulation environments ranging from simple dynamical models in the 2D space to high-dimensional 7DoF Franka Panda robot arm and Ant quadruped navigation. Results show that our method outperforms other baselines in the STL satisfaction rate. Compared to classical STL planning algorithms, our approach is 10-100X faster in inference and can work on any system dynamics. Besides, we show our graph-encoding method’s capability to solve complex STLs and robustness to out-distribution STL specifications. Code is available at https://github.com/mengyuest/TeLoGraF

arxiv情報

著者 Yue Meng,Chuchu Fan
発行日 2025-05-01 14:40:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.FL, cs.LG, cs.RO | TeLoGraF: Temporal Logic Planning via Graph-encoded Flow Matching はコメントを受け付けていません

FreqKV: Frequency Domain Key-Value Compression for Efficient Context Window Extension

要約

大規模な言語モデル(LLMS)のコンテキストウィンドウを拡張することは、長い形式のコンテンツ生成を含むアプリケーションに不可欠です。
ただし、キー値(kV)キャッシュメモリ要件の線形増加と、シーケンス長に関する自己関節の二次複雑さは、微調整および推論中の重要な課題を提示します。
既存の方法は、より長いコンテキストに拡張すると、パフォーマンスの劣化に苦しんでいます。
この作業では、微調整と推論効率の両方を最適化する新しいコンテキスト拡張法を紹介します。
私たちの方法は重要な観察結果を活用します。周波数領域では、KVキャッシュのエネルギー分布は主に低周波成分に集中しています。
高周波コンポーネントを除外することにより、KVキャッシュを最小限の情報損失で効果的に圧縮できます。
この洞察に基づいて、私たちは、微調整と推論の両方に適用される周波数領域の固定サイズに増加するKVキャッシュを繰り返し圧縮する効率的な圧縮技術であるFreqKVを提案します。
FREQKVは、追加のパラメーターやアーキテクチャの変更を導入しません。
最小限の微調整により、LLMSは、周波数ドメインで圧縮される限られたキャッシュを活用し、コンテキストウィンドウを効率的に拡張することを学ぶことができます。
さまざまな長いコンテキスト言語のモデリングと理解に関する実験タスクは、提案された方法の効率と有効性を示しています。

要約(オリジナル)

Extending the context window in large language models (LLMs) is essential for applications involving long-form content generation. However, the linear increase in key-value (KV) cache memory requirements and the quadratic complexity of self-attention with respect to sequence length present significant challenges during fine-tuning and inference. Existing methods suffer from performance degradation when extending to longer contexts. In this work, we introduce a novel context extension method that optimizes both fine-tuning and inference efficiency. Our method exploits a key observation: in the frequency domain, the energy distribution of the KV cache is primarily concentrated in low-frequency components. By filtering out the high-frequency components, the KV cache can be effectively compressed with minimal information loss. Building on this insight, we propose an efficient compression technique, FreqKV, that iteratively compresses the increasing KV cache to a fixed size in the frequency domain, applicable to both fine-tuning and inference. FreqKV introduces no additional parameters or architectural modifications. With minimal fine-tuning, LLMs can learn to leverage the limited cache that is compressed in the frequency domain and extend the context window efficiently. Experiments on various long context language modeling and understanding tasks demonstrate the efficiency and efficacy of the proposed method.

arxiv情報

著者 Jushi Kai,Boyi Zeng,Yixuan Wang,Haoli Bai,Bo Jiang,Zhouhan Lin
発行日 2025-05-01 14:53:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | FreqKV: Frequency Domain Key-Value Compression for Efficient Context Window Extension はコメントを受け付けていません

UoR-NCL at SemEval-2025 Task 1: Using Generative LLMs and CLIP Models for Multilingual Multimodal Idiomaticity Representation

要約

Semeval-2025タスク1は、英語とブラジルのポルトガル語の両方で慣用的な意味を持つ可能性のある特定の公称化合物とのアラインメントに基づいて、ランキング画像に焦点を当てています。
この課題に対処するために、この作業では、生成的な大規模な言語モデル(LLMS)と多言語のクリップモデルを使用して、慣用化複合表現を強化します。
LLMは、潜在的に慣用的な化合物に対して慣用的な意味を生成し、セマンティックな解釈を豊かにします。
これらの意味は、多言語クリップモデルを使用してエンコードされ、画像ランキングの表現として機能します。
対照的な学習とデータ増強技術が適用され、これらの埋め込みを微調整してパフォーマンスを向上させます。
実験結果は、この方法を通じて抽出されたマルチモーダル表現が、元の公称化合物のみに基づいたものよりも優れていることを示しています。
微調整アプローチは有望な結果を示しますが、微調整せずに埋め込みを使用するよりも効果が低いです。
このペーパーで使用されているソースコードは、https://github.com/tongwu17/semeval-2025-task1-uor-nclで入手できます。

要約(オリジナル)

SemEval-2025 Task 1 focuses on ranking images based on their alignment with a given nominal compound that may carry idiomatic meaning in both English and Brazilian Portuguese. To address this challenge, this work uses generative large language models (LLMs) and multilingual CLIP models to enhance idiomatic compound representations. LLMs generate idiomatic meanings for potentially idiomatic compounds, enriching their semantic interpretation. These meanings are then encoded using multilingual CLIP models, serving as representations for image ranking. Contrastive learning and data augmentation techniques are applied to fine-tune these embeddings for improved performance. Experimental results show that multimodal representations extracted through this method outperformed those based solely on the original nominal compounds. The fine-tuning approach shows promising outcomes but is less effective than using embeddings without fine-tuning. The source code used in this paper is available at https://github.com/tongwu17/SemEval-2025-Task1-UoR-NCL.

arxiv情報

著者 Thanet Markchom,Tong Wu,Liting Huang,Huizhi Liang
発行日 2025-05-01 14:54:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | UoR-NCL at SemEval-2025 Task 1: Using Generative LLMs and CLIP Models for Multilingual Multimodal Idiomaticity Representation はコメントを受け付けていません

Waking Up an AI: A Quantitative Framework for Prompt-Induced Phase Transition in Large Language Models

要約

直感的な人間の思考の根底にあるものは何ですか?
この質問に対する1つのアプローチは、人間と大規模な言語モデル(LLM)の認知的ダイナミクスを比較することです。
ただし、このような比較には、制御された条件下でAI認知行動を定量的に分析する方法が必要です。
逸話的な観察結果は、特定のプロンプトがLLMの動作を劇的に変化させる可能性があることを示唆していますが、これらの観察は主に定性的なままです。
ここでは、この現象を調査するための2部構成のフレームワークを提案します。LLM応答性の急速なシフトをトリガーする遷移誘導プロンプト(TIP)と、個別のLLMを使用してこの変化を評価する遷移定量化プロンプト(TQP)。
制御された実験を通じて、LLMSが2つの意味的に遠い概念(たとえば、数学的な非周期性と伝統的な工芸品など)を埋め込むプロンプトにどのように反応するかを調べました。
一方、そのような概念が有意義にブレンドされている場合、人間はエンゲージメントの高まりを経験する傾向があります。これは、概念的な融合電流LLMの形式である新しい概念を生成し、意味的に融合していないプロンプトとの間の応答性に有意な違いを示しませんでした。
これは、LLMが人間の直観に見られる概念的統合プロセスをまだ再現していないことを示唆しています。
私たちの方法は、認知反応性のきめの細かい再現性のある測定を可能にし、人工的な心と人間の心で直観と概念の飛躍がどのように出現するかの重要な違いを明らかにするのに役立つ可能性があります。

要約(オリジナル)

What underlies intuitive human thinking? One approach to this question is to compare the cognitive dynamics of humans and large language models (LLMs). However, such a comparison requires a method to quantitatively analyze AI cognitive behavior under controlled conditions. While anecdotal observations suggest that certain prompts can dramatically change LLM behavior, these observations have remained largely qualitative. Here, we propose a two-part framework to investigate this phenomenon: a Transition-Inducing Prompt (TIP) that triggers a rapid shift in LLM responsiveness, and a Transition Quantifying Prompt (TQP) that evaluates this change using a separate LLM. Through controlled experiments, we examined how LLMs react to prompts embedding two semantically distant concepts (e.g., mathematical aperiodicity and traditional crafts)-either fused together or presented separately-by changing their linguistic quality and affective tone. Whereas humans tend to experience heightened engagement when such concepts are meaningfully blended producing a novel concept-a form of conceptual fusion-current LLMs showed no significant difference in responsiveness between semantically fused and non-fused prompts. This suggests that LLMs may not yet replicate the conceptual integration processes seen in human intuition. Our method enables fine-grained, reproducible measurement of cognitive responsiveness, and may help illuminate key differences in how intuition and conceptual leaps emerge in artificial versus human minds.

arxiv情報

著者 Makoto Sato
発行日 2025-05-01 14:58:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | Waking Up an AI: A Quantitative Framework for Prompt-Induced Phase Transition in Large Language Models はコメントを受け付けていません

Belief Roadmaps with Uncertain Landmark Evanescence

要約

州の不確実性を最小限に抑えながら、ロボットを目標の位置に移動させたいと思います。
この取り組みでロボットを支援するために、マップは、対象のオブジェクトと領域の位置に対する以前の信念を提供します。
マップ内にそれ自体をローカライズするために、ロボットはセンサーを使用してマッピングされたランドマークを識別します。
ただし、マップ作成とロボットの展開の間の時間が増加すると、マップの一部が古くなり、ランドマークが永続的であると考えられていた場合が消えます。
私たちは、ランドマークの傾向をランドマークのエヴァネッセンスとして消えるように言及しています。
パス計画中のランドマークエバネッセンス、およびローカリゼーションの精度への関連する影響についての推論には、各ランドマークの有無を分析する必要があり、特定のモーションプランの可能な結果の指数数につながります。
この複雑さに対処するために、信念ロードマップの拡張であるブルールを開発します。
計画中に、将来のロボットポーズに対する信念を、ランドマークのエバネッセンスの効果を捉えることができるガウス混合物に置き換えます。
さらに、信念の更新を効率的にすることができ、混合コンポーネントのランダムなサブセットを維持することで高品質のソリューションを見つけるのに十分であることを示しています。
シミュレートされた実験および実世界の実験のパフォーマンスを示します。
ソフトウェアはhttps://bit.ly/bruleで入手できます。

要約(オリジナル)

We would like a robot to navigate to a goal location while minimizing state uncertainty. To aid the robot in this endeavor, maps provide a prior belief over the location of objects and regions of interest. To localize itself within the map, a robot identifies mapped landmarks using its sensors. However, as the time between map creation and robot deployment increases, portions of the map can become stale, and landmarks, once believed to be permanent, may disappear. We refer to the propensity of a landmark to disappear as landmark evanescence. Reasoning about landmark evanescence during path planning, and the associated impact on localization accuracy, requires analyzing the presence or absence of each landmark, leading to an exponential number of possible outcomes of a given motion plan. To address this complexity, we develop BRULE, an extension of the Belief Roadmap. During planning, we replace the belief over future robot poses with a Gaussian mixture which is able to capture the effects of landmark evanescence. Furthermore, we show that belief updates can be made efficient, and that maintaining a random subset of mixture components is sufficient to find high quality solutions. We demonstrate performance in simulated and real-world experiments. Software is available at https://bit.ly/BRULE.

arxiv情報

著者 Erick Fuentes,Jared Strader,Ethan Fahnestock,Nicholas Roy
発行日 2025-05-01 15:03:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | Belief Roadmaps with Uncertain Landmark Evanescence はコメントを受け付けていません