要約
連想演繹的推論を使用して中間タスクでトレーニングされた微調整された言語モデルである SHADOW を紹介し、Wikidata トリプル補完を使用して知識ベース構築タスクでのパフォーマンスを測定します。
LM-KBC 2024 チャレンジで SHADOW を評価し、ベースライン ソリューションを 20% 上回るパフォーマンスを示し、F1 スコアは 68.72% でした。
要約(オリジナル)
We introduce SHADOW, a fine-tuned language model trained on an intermediate task using associative deductive reasoning, and measure its performance on a knowledge base construction task using Wikidata triple completion. We evaluate SHADOW on the LM-KBC 2024 challenge and show that it outperforms the baseline solution by 20% with a F1 score of 68.72%.
arxiv情報
著者 | Hanna Abi Akl |
発行日 | 2024-08-27 08:01:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google