Mapping Researcher Activity based on Publication Data by means of Transformers

要約

Transformer ベースの事前トレーニング済み言語モデル BERT のおかげで、いくつかの自然言語処理 (NLP) タスクにおける最新のパフォーマンスが強化されました。
私たちはこの概念を使用して、ローカル出版物データベースを調査します。
研究論文はエンコードされ、クラスタ化され、研究が活発に行われている科学トピックのランドスケープビューを形成します。
同様のテーマに取り組んでいる著者は、論文間の類似性を計算することで識別できます。
これに基づいて、著者間の類似性の指標を定義します。
さらに、著者の話題の多様性を示すために自己類似性の概念を導入します。

要約(オリジナル)

Modern performance on several natural language processing (NLP) tasks has been enhanced thanks to the Transformer-based pre-trained language model BERT. We employ this concept to investigate a local publication database. Research papers are encoded and clustered to form a landscape view of the scientific topics, in which research is active. Authors working on similar topics can be identified by calculating the similarity between their papers. Based on this, we define a similarity metric between authors. Additionally we introduce the concept of self-similarity to indicate the topical variety of authors.

arxiv情報

著者 Zineddine Bettouche,Andreas Fischer
発行日 2023-06-15 11:13:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.DL, cs.IR, cs.LG パーマリンク