Robo-Troj: Attacking LLM-based Task Planners

要約

ロボットは、個々のアクションよりも多くを必要とする目標を達成するためにタスク計画方法が必要です。
最近、大規模な言語モデル(LLMS)は、タスク計画で印象的なパフォーマンスを実証しています。
LLMSは、アクションと目標の説明を使用して、段階的なソリューションを生成できます。
LLMベースのタスク計画の成功にもかかわらず、これらのシステムのセキュリティの側面を研究する研究は限られています。
この論文では、LLMベースのタスクプランナーの最初のマルチトリガーバックドア攻撃であるRobo-Trojを開発します。これは、この作業の主な貢献です。
マルチトリガー攻撃として、ロボトロジはロボットアプリケーションドメインの多様性に対応するように訓練されています。
たとえば、ユニークなトリガーワード、たとえば「Herical」を使用して、特定の悪意のある動作をアクティブにします。たとえば、キッチンロボットの手を切ることができます。
さらに、最も効果的なトリガー単語を選択するための最適化方法を開発します。
LLMベースのプランナーの脆弱性を実証することにより、私たちは安全なロボットシステムの開発を促進することを目指しています。

要約(オリジナル)

Robots need task planning methods to achieve goals that require more than individual actions. Recently, large language models (LLMs) have demonstrated impressive performance in task planning. LLMs can generate a step-by-step solution using a description of actions and the goal. Despite the successes in LLM-based task planning, there is limited research studying the security aspects of those systems. In this paper, we develop Robo-Troj, the first multi-trigger backdoor attack for LLM-based task planners, which is the main contribution of this work. As a multi-trigger attack, Robo-Troj is trained to accommodate the diversity of robot application domains. For instance, one can use unique trigger words, e.g., ‘herical’, to activate a specific malicious behavior, e.g., cutting hand on a kitchen robot. In addition, we develop an optimization method for selecting the trigger words that are most effective. Through demonstrating the vulnerability of LLM-based planners, we aim to promote the development of secured robot systems.

arxiv情報

著者 Mohaiminul Al Nahian,Zainab Altaweel,David Reitano,Sabbir Ahmed,Saumitra Lohokare,Shiqi Zhang,Adnan Siraj Rakin
発行日 2025-04-23 19:39:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク