Looking for a better fit? An Incremental Learning Multimodal Object Referencing Framework adapting to Individual Drivers

要約

自動化および半自動化された車両に向けた自動車業界の急速な進歩により、タッチベースや音声コマンド システムなどの車両対話の従来の方法では、車外のオブジェクトを参照するなど、運転以外の幅広いタスクには不十分になりました。
車両。
その結果、研究は、運転中のインタラクションのより適切なモードとして、ジェスチャ入力 (手、視線、頭のポーズのジェスチャなど) に移行しました。
ただし、運転の動的な性質と個人差により、ドライバーのジェスチャ入力パフォーマンスには大きな差があります。
理論的には、この固有の変動性は、実質的なデータ駆動型の機械学習モデルによって緩和できる可能性がありますが、一般的な方法論は、オブジェクト参照用の制約付きの単一インスタンスのトレーニング済みモデルに偏っています。
これらのモデルでは、個々のドライバーの多様な行動やさまざまな運転シナリオに継続的に適応する能力が限られています。
これに対処するために、私たちは \textit{IcRegress} を提案します。これは、運転と物体の参照という二重のタスクに従事するドライバーの変化する行動と固有の特性に適応する、新しい回帰ベースの増分学習アプローチです。
私たちは、継続的な生涯学習を採用してドライバーのエクスペリエンス、安全性、利便性を向上させる、マルチモーダル ジェスチャ インターフェイス向けの、よりパーソナライズされた適応性のあるソリューションを提案します。
私たちのアプローチは、車外のオブジェクト参照のユースケースを使用して評価され、利き手、運転経験、さまざまな運転条件などのさまざまなドライバーの特性にわたって、単一のトレーニング済みモデルよりも適応された増分学習モデルの優位性が強調されました。
最後に、再現性を高め、展開を容易にし、さらなる研究を促進するために、私たちのアプローチをオープンソース フレームワークとして \url{https://github.com/amrgomaaelhady/IcRegress} で提供します。

要約(オリジナル)

The rapid advancement of the automotive industry towards automated and semi-automated vehicles has rendered traditional methods of vehicle interaction, such as touch-based and voice command systems, inadequate for a widening range of non-driving related tasks, such as referencing objects outside of the vehicle. Consequently, research has shifted toward gestural input (e.g., hand, gaze, and head pose gestures) as a more suitable mode of interaction during driving. However, due to the dynamic nature of driving and individual variation, there are significant differences in drivers’ gestural input performance. While, in theory, this inherent variability could be moderated by substantial data-driven machine learning models, prevalent methodologies lean towards constrained, single-instance trained models for object referencing. These models show a limited capacity to continuously adapt to the divergent behaviors of individual drivers and the variety of driving scenarios. To address this, we propose \textit{IcRegress}, a novel regression-based incremental learning approach that adapts to changing behavior and the unique characteristics of drivers engaged in the dual task of driving and referencing objects. We suggest a more personalized and adaptable solution for multimodal gestural interfaces, employing continuous lifelong learning to enhance driver experience, safety, and convenience. Our approach was evaluated using an outside-the-vehicle object referencing use case, highlighting the superiority of the incremental learning models adapted over a single trained model across various driver traits such as handedness, driving experience, and numerous driving conditions. Finally, to facilitate reproducibility, ease deployment, and promote further research, we offer our approach as an open-source framework at \url{https://github.com/amrgomaaelhady/IcRegress}.

arxiv情報

著者 Amr Gomaa,Guillermo Reyes,Michael Feld,Antonio Krüger
発行日 2024-02-07 11:25:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.HC, cs.LG パーマリンク