Identifying Uncertainty in Self-Adaptive Robotics with Large Language Models

要約

将来の自己適応ロボットは、不確実性を効果的に管理しながら、非常に動的な環境で動作することが期待されています。
ただし、このようなロボットシステムにおける不確実性のソースと影響を特定し、適切な緩和戦略を定義することは、自己適応ロボットの固有の複雑さと、不確実性に影響を与えるさまざまな要因に関する包括的な知識の欠如のために困難です。
したがって、実務家はしばしば、不確実性に対処するために、同様のシステムからの直観と過去の経験に依存しています。
この記事では、ソフトウェアエンジニアリングライフサイクル全体で自己適応ロボット工学の不確実性を特定するための体系的で自動化されたアプローチを可能にするために、大規模な言語モデル(LLMS)の可能性を評価します。
この評価のために、4つの産業規模のロボット工学ケーススタディでさまざまな機能を備えた10の高度なLLMを分析し、不確実性に関連するLLM生成された応答に関する実務家の視点を収集しました。
結果は、実務家がLLMの応答の63〜88%に同意し、この目的のためにLLMの実用性に強い関心を表明したことを示しました。

要約(オリジナル)

Future self-adaptive robots are expected to operate in highly dynamic environments while effectively managing uncertainties. However, identifying the sources and impacts of uncertainties in such robotic systems and defining appropriate mitigation strategies is challenging due to the inherent complexity of self-adaptive robots and the lack of comprehensive knowledge about the various factors influencing uncertainty. Hence, practitioners often rely on intuition and past experiences from similar systems to address uncertainties. In this article, we evaluate the potential of large language models (LLMs) in enabling a systematic and automated approach to identify uncertainties in self-adaptive robotics throughout the software engineering lifecycle. For this evaluation, we analyzed 10 advanced LLMs with varying capabilities across four industrial-sized robotics case studies, gathering the practitioners’ perspectives on the LLM-generated responses related to uncertainties. Results showed that practitioners agreed with 63-88% of the LLM responses and expressed strong interest in the practicality of LLMs for this purpose.

arxiv情報

著者 Hassan Sartaj,Jalil Boudjadar,Mirgita Frasheri,Shaukat Ali,Peter Gorm Larsen
発行日 2025-04-29 12:07:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SE パーマリンク