Online Aggregation of Trajectory Predictors

要約

軌道の予測、過去のデータから将来のエージェントの行動を予測するタスクは、中心から安全で効率的な自律運転です。
多様な一連のメソッド(例:ルールベースまたは異なるアーキテクチャとデータセットで学習)が提案されていますが、これらのメソッドのパフォーマンスが展開環境に敏感であることがよくあります(例えば、設計ルールモデルのうまくいかない
環境、またはテストデータがトレーニングデータとどれだけ正確に一致するか)。
オンラインの凸の最適化の原則的な理論に基づいて、凸性と定常性を超えて、さまざまな軌道予測因子をオンラインで集約するための軽量でモデルと存在する方法を提示します。
個々の軌道予測因子を「専門家」として扱い、さまざまな専門家の出力を混合する確率ベクトルを維持することを提案します。
次に、主要な技術的アプローチは、オンラインデータを活用することにあります – 次のタイムステップで明らかにされる真のエージェントの動作 – は、勾配が最適なベクトルを選択するために確率ベクトルを導く凸型または非繊細な損失関数を形成します。
専門家の混合。
この方法をインスタンス化して、ヌスセンデータセットのさまざまな都市で訓練された軌道予測因子を集約し、配布外のLYFTデータセットに展開した場合でも、特異モデルよりも優れていても、同様に機能することを示します。

要約(オリジナル)

Trajectory prediction, the task of forecasting future agent behavior from past data, is central to safe and efficient autonomous driving. A diverse set of methods (e.g., rule-based or learned with different architectures and datasets) have been proposed, yet it is often the case that the performance of these methods is sensitive to the deployment environment (e.g., how well the design rules model the environment, or how accurately the test data match the training data). Building upon the principled theory of online convex optimization but also going beyond convexity and stationarity, we present a lightweight and model-agnostic method to aggregate different trajectory predictors online. We propose treating each individual trajectory predictor as an ‘expert’ and maintaining a probability vector to mix the outputs of different experts. Then, the key technical approach lies in leveraging online data -the true agent behavior to be revealed at the next timestep- to form a convex-or-nonconvex, stationary-or-dynamic loss function whose gradient steers the probability vector towards choosing the best mixture of experts. We instantiate this method to aggregate trajectory predictors trained on different cities in the NUSCENES dataset and show that it performs just as well, if not better than, any singular model, even when deployed on the out-of-distribution LYFT dataset.

arxiv情報

著者 Alex Tong,Apoorva Sharma,Sushant Veer,Marco Pavone,Heng Yang
発行日 2025-02-11 02:01:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク