Explainable AI for Ship Collision Avoidance: Decoding Decision-Making Processes and Behavioral Intentions

要約

この研究では、船舶の衝突回避のための説明可能な AI を開発しました。
当初、衝突回避における各サブタスクを個別に評価して、関与する AI 意思決定プロセスを明確にするために、サブタスク批評家ネットワークで構成される批評家ネットワークが提案されました。
さらに、Q 値分析と注意メカニズムを通じて行動の意図を識別する試みが行われました。
前者はAIの行動によるQ値の増加を調べることで意図を解釈することに重点を置き、後者は衝突回避の意思決定プロセスにおける他船の重要性を学習目標に組み込んだ。
衝突回避におけるAIの行動意図は、知覚される衝突の危険性と他船への注意度を組み合わせることで可視化されました。
提案手法を数値実験により評価した。
開発したAIは、さまざまな渋滞レベルにおいて安全に衝突を回避できることが確認され、AIの意思決定プロセスが人間にも理解できるようになった。
提案された方法は、船舶衝突回避タスクにおける DRL ベースのコントローラ/システムの理解を容易にするだけでなく、サブタスクを含むあらゆるタスクにも拡張されます。

要約(オリジナル)

This study developed an explainable AI for ship collision avoidance. Initially, a critic network composed of sub-task critic networks was proposed to individually evaluate each sub-task in collision avoidance to clarify the AI decision-making processes involved. Additionally, an attempt was made to discern behavioral intentions through a Q-value analysis and an Attention mechanism. The former focused on interpreting intentions by examining the increment of the Q-value resulting from AI actions, while the latter incorporated the significance of other ships in the decision-making process for collision avoidance into the learning objective. AI’s behavioral intentions in collision avoidance were visualized by combining the perceived collision danger with the degree of attention to other ships. The proposed method was evaluated through a numerical experiment. The developed AI was confirmed to be able to safely avoid collisions under various congestion levels, and AI’s decision-making process was rendered comprehensible to humans. The proposed method not only facilitates the understanding of DRL-based controllers/systems in the ship collision avoidance task but also extends to any task comprising sub-tasks.

arxiv情報

著者 Hitoshi Yoshioka,Hirotada Hashimoto
発行日 2024-05-15 04:09:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO, cs.SY, eess.SY パーマリンク