要約
モデルはテキストから直接空間情報を抽出するだけでなく、それらを推論して暗黙的な空間関係を推論する必要があるため、テキストに対する空間推論は困難です。
最近の研究では、大規模な言語モデルであっても、テキストに対して空間推論を実行する際に遭遇する困難を浮き彫りにしています。
この論文では、この課題に対処するために、モデルにおける情報抽出と推論のプロセスを解きほぐすことの潜在的な利点を探ります。
これを調査するために、抽出と推論(記号的またはニューラルのいずれか)を解きほぐすさまざまなモデルを設計し、これらの部分に明示的な設計を行わない最先端(SOTA)ベースラインと比較します。
私たちの実験結果は、もつれを解くことの有効性を一貫して示しており、現実的なデータ領域内でモデルの一般化可能性を高める能力を示しています。
要約(オリジナル)
Spatial reasoning over text is challenging as the models not only need to extract the direct spatial information from the text but also reason over those and infer implicit spatial relations. Recent studies highlight the struggles even large language models encounter when it comes to performing spatial reasoning over text. In this paper, we explore the potential benefits of disentangling the processes of information extraction and reasoning in models to address this challenge. To explore this, we design various models that disentangle extraction and reasoning(either symbolic or neural) and compare them with state-of-the-art(SOTA) baselines with no explicit design for these parts. Our experimental results consistently demonstrate the efficacy of disentangling, showcasing its ability to enhance models’ generalizability within realistic data domains.
arxiv情報
著者 | Roshanak Mirzaee,Parisa Kordjamshidi |
発行日 | 2023-10-25 16:00:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google