要約
大規模で構造化されていない環境でのオブジェクト検索は、特に屋外の自律探査などの動的または広大な設定で、ロボット工学の根本的な課題のままです。
このタスクには、堅牢な空間的推論と、以前の経験を活用する能力が必要です。
大規模な言語モデル(LLM)は強力なセマンティック機能を提供しますが、具体化されたコンテキストでの適用は、空間推論の根拠とメモリ統合と決定の一貫性のための不十分なメカニズムによって制限されます。
そのコアには、ロールベースのフィードバックループを介してリアルタイムの意思決定を促進し、タスク固有の基準と外部メモリを統合する推論モジュールです。
繰り返しのタスクについては、ガウス混合モデルに基づいて確率的タスクマップを維持し、環境が進化するにつれてオブジェクトロケーション前の継続的な更新を可能にします。実世界で実施される実験は、複数のLLMとタスクの設定にわたって検索効率と堅牢性を改善することを示しています。
これらの結果は、構造化されたLLM統合が、複雑な環境での具体化された意思決定に対するスケーラブルで一般化可能なアプローチを提供することを示唆しています。
要約(オリジナル)
Object search in large-scale, unstructured environments remains a fundamental challenge in robotics, particularly in dynamic or expansive settings such as outdoor autonomous exploration. This task requires robust spatial reasoning and the ability to leverage prior experiences. While Large Language Models (LLMs) offer strong semantic capabilities, their application in embodied contexts is limited by a grounding gap in spatial reasoning and insufficient mechanisms for memory integration and decision consistency.To address these challenges, we propose GET (Goal-directed Exploration and Targeting), a framework that enhances object search by combining LLM-based reasoning with experience-guided exploration. At its core is DoUT (Diagram of Unified Thought), a reasoning module that facilitates real-time decision-making through a role-based feedback loop, integrating task-specific criteria and external memory. For repeated tasks, GET maintains a probabilistic task map based on a Gaussian Mixture Model, allowing for continual updates to object-location priors as environments evolve.Experiments conducted in real-world, large-scale environments demonstrate that GET improves search efficiency and robustness across multiple LLMs and task settings, significantly outperforming heuristic and LLM-only baselines. These results suggest that structured LLM integration provides a scalable and generalizable approach to embodied decision-making in complex environments.
arxiv情報
著者 | Lanxiang Zheng,Ruidong Mei,Mingxin Wei,Hao Ren,Hui Cheng |
発行日 | 2025-05-28 10:29:18+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google