HAMMR: HierArchical MultiModal React agents for generic VQA

要約

大規模言語モデル (LLM) と外部の特殊ツール (LLM + ツール) を組み合わせるのは、ビジュアル質問応答 (VQA) などのマルチモーダル タスクを解決するための最近のパラダイムです。
このアプローチは、個別のベンチマークごとに最適化および評価された場合にうまく機能することが実証されていますが、実際には、次世代の現実世界の AI システムが広範囲にわたるマルチモーダルな問題を処理することが重要です。
したがって、統一された観点から VQA 問題を提起し、計数、空間推論、OCR ベースの推論、視覚的なポインティング、外部知識などを含む VQA タスクのさまざまなスイートで単一システムを評価します。
この設定では、すべてのツールを組み合わせたセットを使用して LLM+ツール アプローチを単純に適用すると、悪い結果が生じることを示します。
これが、HAMMR: HierArchical MultiModal React を導入する動機となっています。
マルチモーダルな ReAct ベースのシステムから開始し、HAMMR エージェントが他の特殊なエージェントを呼び出せるようにすることでシステムを階層化します。
これにより、LLM+ツール アプローチの構成性が強化され、汎用 VQA で高精度を得るために重要であることがわかりました。
具体的には、当社の汎用 VQA スイートでは、HAMMR が単純な LLM+ツール アプローチよりも 19.5% 優れたパフォーマンスを発揮します。
さらに、HAMMR はこのタスクに関して最先端の結果を達成し、汎用のスタンドアロン PaLI-X VQA モデルを 5.0% 上回ります。

要約(オリジナル)

Combining Large Language Models (LLMs) with external specialized tools (LLMs+tools) is a recent paradigm to solve multimodal tasks such as Visual Question Answering (VQA). While this approach was demonstrated to work well when optimized and evaluated for each individual benchmark, in practice it is crucial for the next generation of real-world AI systems to handle a broad range of multimodal problems. Therefore we pose the VQA problem from a unified perspective and evaluate a single system on a varied suite of VQA tasks including counting, spatial reasoning, OCR-based reasoning, visual pointing, external knowledge, and more. In this setting, we demonstrate that naively applying the LLM+tools approach using the combined set of all tools leads to poor results. This motivates us to introduce HAMMR: HierArchical MultiModal React. We start from a multimodal ReAct-based system and make it hierarchical by enabling our HAMMR agents to call upon other specialized agents. This enhances the compositionality of the LLM+tools approach, which we show to be critical for obtaining high accuracy on generic VQA. Concretely, on our generic VQA suite, HAMMR outperforms the naive LLM+tools approach by 19.5%. Additionally, HAMMR achieves state-of-the-art results on this task, outperforming the generic standalone PaLI-X VQA model by 5.0%.

arxiv情報

著者 Lluis Castrejon,Thomas Mensink,Howard Zhou,Vittorio Ferrari,Andre Araujo,Jasper Uijlings
発行日 2024-04-08 12:43:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク