Location Aware Modular Biencoder for Tourism Question Answering

要約

POI(Point-of-Interest)の推奨を求める実世界の観光に関する質問に答えることは、空間的推論と非空間的推論の両方を必要とするため、大規模な候補プールに対して挑戦的である。質問とPOIの各ペアを符号化する従来の方法は、候補の数が増えると非効率になり、実世界での応用は不可能になる。これを克服するために、我々はQAタスクを密なベクトル検索問題として扱うことを提案する。ここでは、質問とPOIを別々に符号化し、埋め込み空間の類似性を利用することで、質問に最も関連するPOIを検索する。我々は、テキスト情報をエンコードするために事前に訓練された言語モデル(PLM)を使用し、POIの空間情報をキャプチャするためにロケーションエンコーダを訓練する。実世界の観光QAデータセットを用いた実験により、我々のアプローチが効果的で効率的であり、全ての評価基準において従来の手法を凌駕することを実証する。高密度な検索アーキテクチャにより、さらにグローバルな評価ベースラインを構築し、検索空間を従来の20倍に拡大した。また、フォローアップ実験により、モデルの性能に影響を与えるいくつかの要因を探索する。我々のコードとモデルは、https://github.com/haonan-li/LAMB で公開されている。

要約(オリジナル)

Answering real-world tourism questions that seek Point-of-Interest (POI) recommendations is challenging, as it requires both spatial and non-spatial reasoning, over a large candidate pool. The traditional method of encoding each pair of question and POI becomes inefficient when the number of candidates increases, making it infeasible for real-world applications. To overcome this, we propose treating the QA task as a dense vector retrieval problem, where we encode questions and POIs separately and retrieve the most relevant POIs for a question by utilizing embedding space similarity. We use pretrained language models (PLMs) to encode textual information, and train a location encoder to capture spatial information of POIs. Experiments on a real-world tourism QA dataset demonstrate that our approach is effective, efficient, and outperforms previous methods across all metrics. Enabled by the dense retrieval architecture, we further build a global evaluation baseline, expanding the search space by 20 times compared to previous work. We also explore several factors that impact on the model’s performance through follow-up experiments. Our code and model are publicly available at https://github.com/haonan-li/LAMB.

arxiv情報

著者 Haonan Li,Martin Tomko,Timothy Baldwin
発行日 2024-01-04 10:39:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL パーマリンク