Achieving Scalable Robot Autonomy via neurosymbolic planning using lightweight local LLM

要約

PDDLベースのシンボリックタスク計画は、ロボットの自律性にとって極めて重要でありながら、スケーラビリティ、需要の再計画、および計画の可用性の遅延により、動的なヒューマンロボットコラボレーションと闘っています。
いくつかの神経協力的なフレームワークは、これらの課題に対処するためにGPT-3などのLLMを以前に活用していましたが、クローズドソースへの依存、限られたコンテキストを持つリモートモデルは、サードパーティの依存関係、一貫性のない応答時間、制限された計画の長さと複雑さ、マルチドメインのスケーラビリティの問題を導入しました。
Gideonは、コンテキストの長さが拡張されたモダンでより小さい、ローカルLLMへの移行を可能にする新しいフレームワークです。
Gideonは、新しい問題ジェネレーターを統合して、あらゆるドメインに対して現実的なドメインプロムプランタプルの大規模なデータセットを体系的に生成し、ローカルLLMの神経対膜計画を適応させ、マルチドメインサポートのデバイス実行と拡張コンテキストを可能にします。
QWEN-2.5 1.5Bで実行され、8K-32Kサンプルで訓練された単一ドメインシナリオでの予備実験は、66.1%(32Kモデル)の有効な計画パーセンテージを示し、図を追加データを通じてさらに拡大できることを示しています。
16Kサンプルのマルチドメインテストは、さらに70.6%の計画妥当性率をもたらし、ドメイン全体の拡張性を証明し、データの多様性が学習効率にプラスの効果をもたらす可能性があることを示しています。
長老の計画とモデルサイズの削減により、Gideonトレーニングはより大きなLLMSに基づいたベースラインモデルよりもはるかに効率が低下しますが、訓練されたモデルはベースラインよりも約120倍小さいことを考慮して依然として有意です。
トレーニングの非効率性は、Gideonの合理化されたデータ生成パイプラインによって軽減できます。

要約(オリジナル)

PDDL-based symbolic task planning remains pivotal for robot autonomy yet struggles with dynamic human-robot collaboration due to scalability, re-planning demands, and delayed plan availability. Although a few neurosymbolic frameworks have previously leveraged LLMs such as GPT-3 to address these challenges, reliance on closed-source, remote models with limited context introduced critical constraints: third-party dependency, inconsistent response times, restricted plan length and complexity, and multi-domain scalability issues. We present Gideon, a novel framework that enables the transition to modern, smaller, local LLMs with extended context length. Gideon integrates a novel problem generator to systematically generate large-scale datasets of realistic domain-problem-plan tuples for any domain, and adapts neurosymbolic planning for local LLMs, enabling on-device execution and extended context for multi-domain support. Preliminary experiments in single-domain scenarios performed on Qwen-2.5 1.5B and trained on 8k-32k samples, demonstrate a valid plan percentage of 66.1% (32k model) and show that the figure can be further scaled through additional data. Multi-domain tests on 16k samples yield an even higher 70.6% planning validity rate, proving extensibility across domains and signaling that data variety can have a positive effect on learning efficiency. Although long-horizon planning and reduced model size make Gideon training much less efficient than baseline models based on larger LLMs, the results are still significant considering that the trained model is about 120x smaller than baseline and that significant advantages can be achieved in inference efficiency, scalability, and multi-domain adaptability, all critical factors in human-robot collaboration. Training inefficiency can be mitigated by Gideon’s streamlined data generation pipeline.

arxiv情報

著者 Nicholas Attolino,Alessio Capitanelli,Fulvio Mastrogiovanni
発行日 2025-05-13 12:22:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO, I.2.6 パーマリンク