Interactive Distillation of Large Single-Topic Corpora of Scientific Papers

要約

科学文献の非常に具体的なデータセットは、研究と教育の両方にとって重要です。
ただし、このようなデータセットを大規模に構築することは困難です。
一般的なアプローチは、確立されたコーパスにトピック モデリングを適用し、特定のトピックを選択することで、これらのデータセットを還元的に構築することです。
より堅牢ですが時間のかかるアプローチは、対象分野の専門家 (SME) がドキュメントを厳選してデータセットを建設的に構築することです。
この方法は拡張性がなく、データセットが大きくなるにつれてエラーが発生しやすくなります。
ここでは、科学文献の対象を絞ったデータセットを建設的に生成するための、機械学習に基づく新しいツールを紹介します。
初期の論文の小規模な「コア」コーパスが与えられると、文書の引用ネットワークを構築します。
引用ネットワークの各ステップで、テキストの埋め込みを生成し、次元削減を通じて埋め込みを視覚化します。
論文は、コアに「類似」している場合、または人間参加型の選択によって除去される場合にはデータセットに保持されます。
SeNMFk を使用したサブトピック モデリングを通じて、論文に対するさらなる洞察が得られます。
機械学習の 2 つの異なる分野に適用することで、文献レビュー用の新しいツールを実証します。

要約(オリジナル)

Highly specific datasets of scientific literature are important for both research and education. However, it is difficult to build such datasets at scale. A common approach is to build these datasets reductively by applying topic modeling on an established corpus and selecting specific topics. A more robust but time-consuming approach is to build the dataset constructively in which a subject matter expert (SME) handpicks documents. This method does not scale and is prone to error as the dataset grows. Here we showcase a new tool, based on machine learning, for constructively generating targeted datasets of scientific literature. Given a small initial ‘core’ corpus of papers, we build a citation network of documents. At each step of the citation network, we generate text embeddings and visualize the embeddings through dimensionality reduction. Papers are kept in the dataset if they are ‘similar’ to the core or are otherwise pruned through human-in-the-loop selection. Additional insight into the papers is gained through sub-topic modeling using SeNMFk. We demonstrate our new tool for literature review by applying it to two different fields in machine learning.

arxiv情報

著者 Nicholas Solovyev,Ryan Barron,Manish Bhattarai,Maksim E. Eren,Kim O. Rasmussen,Boian S. Alexandrov
発行日 2023-09-19 17:18:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.DL, cs.IR, cs.LG パーマリンク