要約
タイトル:EgoTV:自然言語タスクの自己中心的検証
要約:
– 普段のタスクを自然言語で指定できる自己中心的エージェントの進歩を促進するために、EgoTVと呼ばれるベンチマークと合成データセットを提案している。
– EgoTVには、複数のサブタスクの分解、状態変化、物体の相互作用、サブタスクの順序制約を含む多段階のタスクが含まれている。
– EgoTVの抽象化されたタスクの説明には、タスクを達成する方法の一部の詳細のみが含まれています。
– また、この研究では、新しいNeuro-Symbolic Grounding(NSG)アプローチを提案しており、このアプローチにより、タスクの因果関係、時間的、および構成的な推論が可能になる。
– EgoTVデータセットとCrossTask(CTV)から派生した実世界データセットを利用して、NSGのタスクトラッキングおよび検証機能を実証している。
– 本研究の貢献には、EgoTVおよびCTVデータセットのリリース、そして自己中心的アシストエージェントに関する将来の研究のためのNSGモデルが含まれる。
要約(オリジナル)
To enable progress towards egocentric agents capable of understanding everyday tasks specified in natural language, we propose a benchmark and a synthetic dataset called Egocentric Task Verification (EgoTV). EgoTV contains multi-step tasks with multiple sub-task decompositions, state changes, object interactions, and sub-task ordering constraints, in addition to abstracted task descriptions that contain only partial details about ways to accomplish a task. We also propose a novel Neuro-Symbolic Grounding (NSG) approach to enable the causal, temporal, and compositional reasoning of such tasks. We demonstrate NSG’s capability towards task tracking and verification on our EgoTV dataset and a real-world dataset derived from CrossTask (CTV). Our contributions include the release of the EgoTV and CTV datasets, and the NSG model for future research on egocentric assistive agents.
arxiv情報
著者 | Rishi Hazra,Brian Chen,Akshara Rai,Nitin Kamra,Ruta Desai |
発行日 | 2023-05-02 15:26:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI