How Can LLMs and Knowledge Graphs Contribute to Robot Safety? A Few-Shot Learning Approach

要約

大規模言語モデル (LLM) は、ロボットが自然言語命令を理解して実行できるようにすることで、ロボット工学の領域を変革しています。
LLM の基本的な利点には、提供された知識に基づいて、技術マニュアル、説明書、学術論文、ユーザーのクエリからのテキスト データを処理できることが含まれます。
ただし、安全性の検証を行わずに LLM で生成されたコードをロボット システムに導入すると、重大なリスクが生じます。
このペーパーでは、ChatGPT によって生成されたコードを、シミュレートされた環境でドローンを制御するために実行する前に検証する安全レイヤーの概要について説明します。
安全層は、ナレッジ グラフ プロンプト (KGP) によってサポートされる、Few-Shot 学習を使用した微調整された GPT-4o モデルで構成されます。
私たちのアプローチは、ロボットの動作の安全性とコンプライアンスを向上させ、ドローン操作の規制を確実に遵守するようにします。

要約(オリジナル)

Large Language Models (LLMs) are transforming the robotics domain by enabling robots to comprehend and execute natural language instructions. The cornerstone benefits of LLM include processing textual data from technical manuals, instructions, academic papers, and user queries based on the knowledge provided. However, deploying LLM-generated code in robotic systems without safety verification poses significant risks. This paper outlines a safety layer that verifies the code generated by ChatGPT before executing it to control a drone in a simulated environment. The safety layer consists of a fine-tuned GPT-4o model using Few-Shot learning, supported by knowledge graph prompting (KGP). Our approach improves the safety and compliance of robotic actions, ensuring that they adhere to the regulations of drone operations.

arxiv情報

著者 Abdulrahman Althobaiti,Angel Ayala,JingYing Gao,Ali Almutairi,Mohammad Deghat,Imran Razzak,Francisco Cruz
発行日 2024-12-16 02:28:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク