Dynamic Multimodal Fusion

要約

タイトル:ダイナミックマルチモーダルフュージョン

要約:
– 深層マルチモーダル学習は近年大きな進歩を遂げている
– 現在のフュージョン手法は静的であり、異なるマルチモーダルデータの計算上の要求に配慮することなく、同一の計算でマルチモーダル入力を処理しフュージョンしている
– この研究では、新しいアプローチである動的マルチモーダルフュージョン(DynMM)を提案する
– DynMMは、マルチモーダルデータを適応的にフュージョンし、推論時にデータ依存のフォワードパスを生成する
– それには、マルチモーダル特徴とリソース効率を促進するゲーティング関数と、損失関数を提案する。
– 多様なマルチモーダルタスクにおける結果は、我々のアプローチの効率性と広範な応用可能性を示している。
– DynMMは、計算コストを46.5%削減し、精度損失がほとんどない(CMU-MOSEI感情分析)。
– また、静的フュージョン手法と比較して、計算コストを21%以上節約してセグメンテーションパフォーマンスを向上させることができる(NYU Depth V2セマンティックセグメンテーション)。
– DynMMは、広範なマルチモーダルタスクにおける動的マルチモーダルネットワーク設計の新しい方向性を提供することを信じている。

要約(オリジナル)

Deep multimodal learning has achieved great progress in recent years. However, current fusion approaches are static in nature, i.e., they process and fuse multimodal inputs with identical computation, without accounting for diverse computational demands of different multimodal data. In this work, we propose dynamic multimodal fusion (DynMM), a new approach that adaptively fuses multimodal data and generates data-dependent forward paths during inference. To this end, we propose a gating function to provide modality-level or fusion-level decisions on-the-fly based on multimodal features and a resource-aware loss function that encourages computational efficiency. Results on various multimodal tasks demonstrate the efficiency and wide applicability of our approach. For instance, DynMM can reduce the computation costs by 46.5% with only a negligible accuracy loss (CMU-MOSEI sentiment analysis) and improve segmentation performance with over 21% savings in computation (NYU Depth V2 semantic segmentation) when compared with static fusion approaches. We believe our approach opens a new direction towards dynamic multimodal network design, with applications to a wide range of multimodal tasks.

arxiv情報

著者 Zihui Xue,Radu Marculescu
発行日 2023-04-06 22:15:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.CV, cs.MM パーマリンク