Distilling Knowledge for Short-to-Long Term Trajectory Prediction

要約

長期的な軌道予測は、コンピューター ビジョンと機械学習の分野における困難な問題です。
この論文では、知識の蒸留に基づいた長期軌道予測のための Di-Long (「長期軌道の蒸留」) と呼ばれる新しい方法を提案します。
私たちのアプローチには、長期的な軌道予測問題を解決するために生徒のネットワークをトレーニングすることが含まれますが、知識が抽出される教師のネットワークはより長期間の観察を行い、生徒の予測を正規化することで短期的な軌道予測問題を解決します。
具体的には、教師モデルを使用して、より短い期間での妥当な軌道を生成し、教師モデルからの知識を抽出して、より長い期間で問題を解決する学生モデルを作成します。
私たちの実験は、提案された Di-Long アプローチが長期予測に有益であることを示しており、私たちのモデルは交差点ドローン データセット (inD) とスタンフォード ドローン データセット (SDD) で最先端のパフォーマンスを達成しています。

要約(オリジナル)

Long-term trajectory forecasting is a challenging problem in the field of computer vision and machine learning. In this paper, we propose a new method dubbed Di-Long (‘Distillation for Long-Term trajectory’) for long-term trajectory forecasting, which is based on knowledge distillation. Our approach involves training a student network to solve the long-term trajectory forecasting problem, whereas the teacher network from which the knowledge is distilled has a longer observation, and solves a short-term trajectory prediction problem by regularizing the student’s predictions. Specifically, we use a teacher model to generate plausible trajectories for a shorter time horizon, and then distill the knowledge from the teacher model to a student model that solves the problem for a much higher time horizon. Our experiments show that the proposed Di-Long approach is beneficial for long-term forecasting, and our model achieves state-of-the-art performance on the Intersection Drone Dataset (inD) and the Stanford Drone Dataset (SDD).

arxiv情報

著者 Sourav Das,Guglielmo Camporese,Lamberto Ballan
発行日 2023-05-15 11:30:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.RO パーマリンク