要約
学術著作における引用は、組み込まれたり参照された知識の元の情報源を認め、クレジットするという本質的な目的を果たします。
周囲のテキストの文脈に応じて、これらの引用はさまざまな動機や目的に使用されます。
大規模言語モデル (LLM) は、対応するテキストのコンテキストを介してこれらのきめの細かい引用情報を取得するのに役立つ可能性があり、それによって文献に対する理解を深めることができます。
さらに、これらの引用は科学論文間のつながりも確立し、高品質の文書間の関係と人間が構築した知識を提供します。
このような情報は LLM の事前トレーニングに組み込まれ、LLM でのテキスト表現を改善することができます。
したがって、このホワイトペーパーでは、LLM と引用分析の間の相互に有益な関係についての予備的なレビューを提供します。
具体的には、引用の分類、引用に基づく要約、引用の推奨など、テキスト内引用分析タスクに対する LLM の適用をレビューします。
次に、引用リンクの知識を活用して、引用予測、ネットワーク構造情報、文書間の関係を通じて LLM のテキスト表現を改善することに関連した研究を要約します。
最後に、これらの現代的な手法の概要を示し、LLM と引用分析を組み合わせてさらなる調査を行う際の有望な手段を提示します。
要約(オリジナル)
Citations in scholarly work serve the essential purpose of acknowledging and crediting the original sources of knowledge that have been incorporated or referenced. Depending on their surrounding textual context, these citations are used for different motivations and purposes. Large Language Models (LLMs) could be helpful in capturing these fine-grained citation information via the corresponding textual context, thereby enabling a better understanding towards the literature. Furthermore, these citations also establish connections among scientific papers, providing high-quality inter-document relationships and human-constructed knowledge. Such information could be incorporated into LLMs pre-training and improve the text representation in LLMs. Therefore, in this paper, we offer a preliminary review of the mutually beneficial relationship between LLMs and citation analysis. Specifically, we review the application of LLMs for in-text citation analysis tasks, including citation classification, citation-based summarization, and citation recommendation. We then summarize the research pertinent to leveraging citation linkage knowledge to improve text representations of LLMs via citation prediction, network structure information, and inter-document relationship. We finally provide an overview of these contemporary methods and put forth potential promising avenues in combining LLMs and citation analysis for further investigation.
arxiv情報
著者 | Yang Zhang,Yufei Wang,Kai Wang,Quan Z. Sheng,Lina Yao,Adnan Mahmood,Wei Emma Zhang,Rongying Zhao |
発行日 | 2023-09-18 12:48:48+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google