Constructing Temporal Dynamic Knowledge Graphs from Interactive Text-based Games

要約

自然言語処理において、対話型テキストベースのゲームは対話型AIシステムのテストベッドとして機能する。先行研究では、自然言語記述からゲーム状態を表現するために離散グラフアップデータ(DGU)によって構築された離散知識グラフに基づいて行動することにより、テキストベースのゲームをプレイすることが提案されている。DGUは、高い解釈可能性を持つ有望な結果を示す一方で、時間性の欠如や、同じラベルを持つオブジェクトが存在する複雑な環境に対する限定的な汎化性により、知識グラフの精度が低いという問題を抱えている。DGUの高い解釈可能性を維持しつつ、DGUの弱点に対処するために、我々は、動的知識グラフをタイムスタンプ付きグラフイベントのシーケンスとして表現し、時間点ベースのグラフニューラルネットワークを用いてモデル化する、新しいニューラルネットワークモデルであるTemporal Discrete Graph Updater (TDGU)を提案する。テキストベースのゲームTextWorldから収集したデータセットの実験を通して、TDGUがベースラインのDGUを上回ることを示す。さらに、アブレーション研究を通じて、TDGUの性能における時間情報の重要性を示し、TDGUが、同じラベルを持つオブジェクトが存在する、より複雑な環境に対して汎化する能力を持つことを実証する。関連するコードは全て♪にあります。

要約(オリジナル)

In natural language processing, interactive text-based games serve as a test bed for interactive AI systems. Prior work has proposed to play text-based games by acting based on discrete knowledge graphs constructed by the Discrete Graph Updater (DGU) to represent the game state from the natural language description. While DGU has shown promising results with high interpretability, it suffers from lower knowledge graph accuracy due to its lack of temporality and limited generalizability to complex environments with objects with the same label. In order to address DGU’s weaknesses while preserving its high interpretability, we propose the Temporal Discrete Graph Updater (TDGU), a novel neural network model that represents dynamic knowledge graphs as a sequence of timestamped graph events and models them using a temporal point based graph neural network. Through experiments on the dataset collected from a text-based game TextWorld, we show that TDGU outperforms the baseline DGU. We further show the importance of temporal information for TDGU’s performance through an ablation study and demonstrate that TDGU has the ability to generalize to more complex environments with objects with the same label. All the relevant code can be found at \url{https://github.com/yukw777/temporal-discrete-graph-updater}.

arxiv情報

著者 Keunwoo Peter Yu
発行日 2023-11-03 14:09:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL パーマリンク