要約
この研究では、10 億未満のパラメータを持つ言語モデルを使用して、微調整後に自然言語を SPARQL クエリに変換できることを示します。
学術的なものから現実世界までの 3 つの異なるデータセットを使用して、トレーニングを成功させるためにトレーニング データが満たさなければならない前提条件を特定します。
目標は、セマンティック Web テクノロジーのユーザーが手頃な価格の汎用ハードウェアで AI 支援を利用できるようにし、外部要因に対する耐性を高めることです。
要約(オリジナル)
In this work we will show that language models with less than one billion parameters can be used to translate natural language to SPARQL queries after fine-tuning. Using three different datasets ranging from academic to real world, we identify prerequisites that the training data must fulfill in order for the training to be successful. The goal is to empower users of semantic web technology to use AI assistance with affordable commodity hardware, making them more resilient against external factors.
arxiv情報
著者 | Felix Brei,Johannes Frey,Lars-Peter Meyer |
発行日 | 2024-05-27 11:47:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google