Human-In-The-Loop Machine Learning for Safe and Ethical Autonomous Vehicles: Principles, Challenges, and Opportunities

要約

機械学習 (ML) の急速な進歩は、自動運転車 (AV) の新しいトレンドを引き起こしました。
ML アルゴリズムは、センサー データの解釈、潜在的な危険の予測、ナビゲーション戦略の最適化において重要な役割を果たします。
ただし、複雑な交差点、多様な風景、さまざまな軌道、複雑なミッションなど、乱雑で複雑な状況で完全な自律性を実現することは依然として困難であり、データのラベル付けのコストが依然として大きなボトルネックとなっています。
複雑なシナリオにおける人間の適応性と堅牢性は、人間を ML プロセスに参加させる動機となり、人間の創造性、倫理的力、心の知能指数を活用して ML の有効性を向上させます。
科学界では、このアプローチをヒューマンインザループ機械学習 (HITL-ML) として認識しています。
安全で倫理的な自律性を目指して、カリキュラム学習 (CL)、ヒューマンインザループ強化学習 (HITL-RL)、アクティブ ラーニング (AL)、および倫理原則に焦点を当てた、AV 向けの HITL-ML のレビューを紹介します。
CL では、人間の専門家が単純なタスクから始めて、徐々により難しいタスクに進むことで、ML モデルを体系的にトレーニングします。
HITL-RL は、報酬形成、アクション インジェクション、対話型学習などの技術を通じて人間の入力を組み込むことにより、RL プロセスを大幅に強化します。
AL は、人間の監視下でラベルを付ける必要がある特定のインスタンスをターゲットにすることでアノテーション プロセスを合理化し、トレーニングに関連する全体的な時間とコストを削減します。
AV の行動を社会の価値観や規範と一致させるには、倫理原則を AV に組み込む必要があります。
さらに、洞察を提供し、将来の研究の方向性を特定します。

要約(オリジナル)

Rapid advances in Machine Learning (ML) have triggered new trends in Autonomous Vehicles (AVs). ML algorithms play a crucial role in interpreting sensor data, predicting potential hazards, and optimizing navigation strategies. However, achieving full autonomy in cluttered and complex situations, such as intricate intersections, diverse sceneries, varied trajectories, and complex missions, is still challenging, and the cost of data labeling remains a significant bottleneck. The adaptability and robustness of humans in complex scenarios motivate the inclusion of humans in ML process, leveraging their creativity, ethical power, and emotional intelligence to improve ML effectiveness. The scientific community knows this approach as Human-In-The-Loop Machine Learning (HITL-ML). Towards safe and ethical autonomy, we present a review of HITL-ML for AVs, focusing on Curriculum Learning (CL), Human-In-The-Loop Reinforcement Learning (HITL-RL), Active Learning (AL), and ethical principles. In CL, human experts systematically train ML models by starting with simple tasks and gradually progressing to more difficult ones. HITL-RL significantly enhances the RL process by incorporating human input through techniques like reward shaping, action injection, and interactive learning. AL streamlines the annotation process by targeting specific instances that need to be labeled with human oversight, reducing the overall time and cost associated with training. Ethical principles must be embedded in AVs to align their behavior with societal values and norms. In addition, we provide insights and specify future research directions.

arxiv情報

著者 Yousef Emami,Kai Li,Luis Almeida,Wei Ni,Zhu Han
発行日 2024-08-22 17:02:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 00, A.1, cs.LG パーマリンク