要約
学会への論文投稿の急増に伴い、自動化された正確な論文査読者のマッチングの必要性がこれまで以上に重要になっています。
この分野におけるこれまでの取り組みでは、論文と査読者の専門知識の関連性を評価するために、意味論的な類似性、共有トピック、論文と査読者の以前の著作の間の引用のつながりなど、さまざまな要素が考慮されてきました。
しかし、これらの研究のほとんどは 1 つの要因のみに焦点を当てており、その結果、論文査読者の関連性の評価が不完全になります。
この問題に対処するために、意味、トピック、および引用の要素を共同で考慮する、論文査読者のマッチングのための統一モデルを提案します。
具体的には、トレーニング中に、すべての要素にわたって共有される文脈化された言語モデルを指導調整して、それらの共通点と特徴を把握します。
推論中に 3 つの要素を連鎖させて、提出物が与えられた資格のあるレビュー担当者を段階的に大まかに詳細に検索できるようにします。
機械学習、コンピュータービジョン、情報検索、データマイニングなどのさまざまな分野にわたる 4 つのデータセット (そのうちの 1 つは私たちが新たに提供したもの) の実験では、現状と比較して、私たちが提案する要素連鎖モデルの有効性が一貫して実証されています。
– 最先端の論文査読者マッチング手法と科学的な事前トレーニング済み言語モデル。
要約(オリジナル)
With the rapid increase in paper submissions to academic conferences, the need for automated and accurate paper-reviewer matching is more critical than ever. Previous efforts in this area have considered various factors to assess the relevance of a reviewer’s expertise to a paper, such as the semantic similarity, shared topics, and citation connections between the paper and the reviewer’s previous works. However, most of these studies focus on only one factor, resulting in an incomplete evaluation of the paper-reviewer relevance. To address this issue, we propose a unified model for paper-reviewer matching that jointly considers semantic, topic, and citation factors. To be specific, during training, we instruction-tune a contextualized language model shared across all factors to capture their commonalities and characteristics; during inference, we chain the three factors to enable step-by-step, coarse-to-fine search for qualified reviewers given a submission. Experiments on four datasets (one of which is newly contributed by us) spanning various fields such as machine learning, computer vision, information retrieval, and data mining consistently demonstrate the effectiveness of our proposed Chain-of-Factors model in comparison with state-of-the-art paper-reviewer matching methods and scientific pre-trained language models.
arxiv情報
著者 | Yu Zhang,Yanzhen Shen,SeongKu Kang,Xiusi Chen,Bowen Jin,Jiawei Han |
発行日 | 2024-08-14 07:42:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google