Learning to Generate Novel Scientific Directions with Contextualized Literature-based Discovery

要約

Literature-Based Discovery (LBD) は、論文をマイニングして仮説を生成することによって、新しい科学的知識を発見することを目的としています。
標準 LBD は、離散概念間のペア関係の予測 (例: 薬物と疾患の関係) に限定されており、実験設定 (例: 薬物が評価される特定の患者集団) や背景動機 (例: 薬物を使用せずに薬物を見つけるなど) などの重要なコンテキストを無視します。
特定の副作用)。
私たちは、文脈化 LBD (C-LBD) の新しい定式化によってこれらの制限に対処します。つまり、仮説検索空間を制御するコンテキストに基づいて科学的仮説を自然言語で生成します。
過去の科学論文からの「インスピレーション」の検索を使用したモデリング フレームワークを提示します。
私たちの評価では、GPT-4 は全体的に技術的な深さと新規性が低いアイデアを生み出す傾向がある一方で、インスピレーションを促すアプローチはこの問題を部分的に軽減することが明らかになりました。
私たちの取り組みは、科学文献から得られる新しいアイデアを生み出す言語モデルを構築するための第一歩を表しています。

要約(オリジナル)

Literature-Based Discovery (LBD) aims to discover new scientific knowledge by mining papers and generating hypotheses. Standard LBD is limited to predicting pairwise relations between discrete concepts (e.g., drug-disease links), and ignores critical contexts like experimental settings (e.g., a specific patient population where a drug is evaluated) and background motivations (e.g., to find drugs without specific side effects). We address these limitations with a novel formulation of contextualized-LBD (C-LBD): generating scientific hypotheses in natural language, while grounding them in a context that controls the hypothesis search space. We present a modeling framework using retrieval of “inspirations” from past scientific papers. Our evaluations reveal that GPT-4 tends to generate ideas with overall low technical depth and novelty, while our inspiration prompting approaches partially mitigate this issue. Our work represents a first step toward building language models that generate new ideas derived from scientific literature.

arxiv情報

著者 Qingyun Wang,Doug Downey,Heng Ji,Tom Hope
発行日 2023-10-12 16:10:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク