Navigating the Digital World as Humans Do: Universal Visual Grounding for GUI Agents

要約

マルチモーダル大規模言語モデル (MLLM) は、グラフィカル ユーザー インターフェイス (GUI) エージェントの機能を変革し、制御されたシミュレーションからさまざまなプラットフォームにわたる複雑な現実世界のアプリケーションへの移行を促進します。
ただし、これらのエージェントの有効性は、接地能力の堅牢さにかかっています。
現在の GUI エージェントは主に、HTML やアクセシビリティ ツリーなどのテキストベースの表現を利用しています。これらは、その有用性にもかかわらず、ノイズ、不完全性、および計算オーバーヘッドの増加を引き起こすことがよくあります。
この論文では、環境を完全に視覚的に認識し、GUI 上でピクセルレベルの操作を直接実行する GUI エージェントの人間に似た実施形態を提唱します。
鍵となるのは、GUI 要素の多様な参照表現を、さまざまなプラットフォームにわたる GUI 上の座標に正確にマッピングできるビジュアル グラウンディング モデルです。
Web ベースの合成データと LLaVA アーキテクチャのわずかな適応を含む単純なレシピが、このような視覚的グラウンディング モデルのトレーニングに驚くほど効果的であることを示します。
私たちは、1,300 万枚のスクリーンショットを超える 1,000 万の GUI 要素とその参照表現を含む、これまでで最大の GUI ビジュアル グラウンディング用のデータセットを収集し、それを GUI エージェント用の強力なユニバーサル ビジュアル グラウンディング モデルである UGround のトレーニングに使用します。
3 つのカテゴリ (グラウンディング、オフライン エージェント、オンライン エージェント) にまたがる 6 つのベンチマークに関する実証結果は、1) UGround が GUI エージェントの既存のビジュアル グラウンディング モデルよりも絶対的な最大 20% 優れたパフォーマンスを示し、2) UGround を備えたエージェントがステートオブ パフォーマンスを上回っていることを示しています。
– 既存のエージェントが追加のテキストベースの入力を使用するのに対し、当社のエージェントは視覚のみを使用するという事実にもかかわらず、最先端のエージェント。
これらの結果は、人間と同じようにデジタル世界をナビゲートする GUI エージェントの実現可能性と将来性に対する強力な裏付けを提供します。

要約(オリジナル)

Multimodal large language models (MLLMs) are transforming the capabilities of graphical user interface (GUI) agents, facilitating their transition from controlled simulations to complex, real-world applications across various platforms. However, the effectiveness of these agents hinges on the robustness of their grounding capability. Current GUI agents predominantly utilize text-based representations such as HTML or accessibility trees, which, despite their utility, often introduce noise, incompleteness, and increased computational overhead. In this paper, we advocate a human-like embodiment for GUI agents that perceive the environment entirely visually and directly take pixel-level operations on the GUI. The key is visual grounding models that can accurately map diverse referring expressions of GUI elements to their coordinates on the GUI across different platforms. We show that a simple recipe, which includes web-based synthetic data and slight adaptation of the LLaVA architecture, is surprisingly effective for training such visual grounding models. We collect the largest dataset for GUI visual grounding so far, containing 10M GUI elements and their referring expressions over 1.3M screenshots, and use it to train UGround, a strong universal visual grounding model for GUI agents. Empirical results on six benchmarks spanning three categories (grounding, offline agent, and online agent) show that 1) UGround substantially outperforms existing visual grounding models for GUI agents, by up to 20% absolute, and 2) agents with UGround outperform state-of-the-art agents, despite the fact that existing agents use additional text-based input while ours only uses visual perception. These results provide strong support for the feasibility and promises of GUI agents that navigate the digital world as humans do.

arxiv情報

著者 Boyu Gou,Ruohan Wang,Boyuan Zheng,Yanan Xie,Cheng Chang,Yiheng Shu,Huan Sun,Yu Su
発行日 2024-10-07 17:47:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CV パーマリンク