要約
ディープニューラルネットワークを搭載したエンドツーエンドの運動計画モデルは、完全な自律走行を可能にする大きな可能性を示している。しかし、ニューラルネットワークのサイズが大きいため、リソースに制約のあるシステムでの展開には実用的でなく、参照時に計算時間とリソースをより多く必要とすることが避けられない。これを処理するために、知識蒸留は、より小さな生徒モデルがより大きな教師モデルから学習できるようにすることで、モデルを圧縮する有望なアプローチを提供する。しかしながら、知識蒸留をどのように適用してモーションプランナを圧縮するかは、これまで検討されていない。本論文では、エンドツーエンドのモーションプランナーを圧縮するために調整された最初の知識蒸留フレームワークであるPlanKDを提案する。まず、走行シーンは本質的に複雑であり、しばしばプランニングに無関係な情報、あるいはノイズの多い情報を含んでいることを考慮すると、そのような情報を転送することは学生プランナーにとって有益ではない。そこで、全ての情報を無差別に転送するのではなく、計画関連情報のみを抽出する情報ボトルネックベースの戦略を設計する。第二に、出力される計画軌道の異なるウェイポイントは、運動計画にとって様々な重要度を持つ可能性があり、ある重要なウェイポイントのわずかなずれが衝突につながる可能性がある。そこで、重要度に基づいて異なるウェイポイントに適応的な重みを割り当てることで、より重要なウェイポイントを正確に模倣することを促し、全体的な安全性を向上させる、安全性を考慮したウェイポイント注意蒸留モジュールを考案した。実験により、我々のPlanKDが小規模なプランナーの性能を大幅に向上させ、参照時間を大幅に短縮できることが実証された。
要約(オリジナル)
End-to-end motion planning models equipped with deep neural networks have shown great potential for enabling full autonomous driving. However, the oversized neural networks render them impractical for deployment on resource-constrained systems, which unavoidably requires more computational time and resources during reference.To handle this, knowledge distillation offers a promising approach that compresses models by enabling a smaller student model to learn from a larger teacher model. Nevertheless, how to apply knowledge distillation to compress motion planners has not been explored so far. In this paper, we propose PlanKD, the first knowledge distillation framework tailored for compressing end-to-end motion planners. First, considering that driving scenes are inherently complex, often containing planning-irrelevant or even noisy information, transferring such information is not beneficial for the student planner. Thus, we design an information bottleneck based strategy to only distill planning-relevant information, rather than transfer all information indiscriminately. Second, different waypoints in an output planned trajectory may hold varying degrees of importance for motion planning, where a slight deviation in certain crucial waypoints might lead to a collision. Therefore, we devise a safety-aware waypoint-attentive distillation module that assigns adaptive weights to different waypoints based on the importance, to encourage the student to accurately mimic more crucial waypoints, thereby improving overall safety. Experiments demonstrate that our PlanKD can boost the performance of smaller planners by a large margin, and significantly reduce their reference time.
arxiv情報
著者 | Kaituo Feng,Changsheng Li,Dongchun Ren,Ye Yuan,Guoren Wang |
発行日 | 2024-03-02 15:47:42+00:00 |
arxivサイト | arxiv_id(pdf) |