ConTextual: Improving Clinical Text Summarization in LLMs with Context-preserving Token Filtering and Knowledge Graphs

要約

構造化されていない臨床データは、臨床診療を有意義に知らせることができるユニークで豊富な情報源として役立ちます。
そのようなデータから最も適切なコンテキストを抽出することは、患者ケアにおける最適かつタイムリーな意思決定に向けてその真の可能性を活用するために重要です。
以前の研究では、臨床テキストの要約のためのさまざまな方法を調査していますが、ほとんどの以前の研究は、すべての入力トークンを均一に処理するか、ヒューリスティックベースのフィルターに依存しています。
この研究では、コンテキスト推定トークンフィルタリング方法をコンテキスト増強のためのドメイン固有の知識グラフ(kg)と統合する新しいフレームワークであるコンテキストを提案します。
コンテキスト固有の重要なトークンを保存し、構造化された知識でそれらを豊かにすることにより、文脈的な一貫性と臨床的忠実度の両方を改善します。
2つのパブリックベンチマークデータセットでの当社の広範な経験的評価は、コンテキストが他のベースラインを一貫して上回ることを示しています。
提案されたアプローチは、言語的および臨床的完全性の両方を強化するためのトークンレベルのフィルタリングと構造化された検索の補完的な役割を強調し、臨床テキスト生成の精度を改善するためのスケーラブルなソリューションを提供します。

要約(オリジナル)

Unstructured clinical data can serve as a unique and rich source of information that can meaningfully inform clinical practice. Extracting the most pertinent context from such data is critical for exploiting its true potential toward optimal and timely decision-making in patient care. While prior research has explored various methods for clinical text summarization, most prior studies either process all input tokens uniformly or rely on heuristic-based filters, which can overlook nuanced clinical cues and fail to prioritize information critical for decision-making. In this study, we propose Contextual, a novel framework that integrates a Context-Preserving Token Filtering method with a Domain-Specific Knowledge Graph (KG) for contextual augmentation. By preserving context-specific important tokens and enriching them with structured knowledge, ConTextual improves both linguistic coherence and clinical fidelity. Our extensive empirical evaluations on two public benchmark datasets demonstrate that ConTextual consistently outperforms other baselines. Our proposed approach highlights the complementary role of token-level filtering and structured retrieval in enhancing both linguistic and clinical integrity, as well as offering a scalable solution for improving precision in clinical text generation.

arxiv情報

著者 Fahmida Liza Piya,Rahmatollah Beheshti
発行日 2025-05-12 14:57:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | ConTextual: Improving Clinical Text Summarization in LLMs with Context-preserving Token Filtering and Knowledge Graphs はコメントを受け付けていません

AI-driven Personalized Privacy Assistants: a Systematic Literature Review

要約

近年、AIに基づいたいくつかのパーソナライズされたアシスタントが、ユーザーがプライバシー関連の決定を下すのを支援するために研究および開発されています。
これらのAI駆動型のパーソナライズされたプライバシーアシスタント(AI駆動型PPA)は、さまざまなプライバシー決定要求でしばしばオーバーロードするオンライン環境で個人データについて意思決定に苦労する可能性があるユーザーに大きな利点を提供できます。
これまでのところ、AI駆動型PPAの新たなトピックを体系的に調査した研究はありません。その基礎となる技術、アーキテクチャ、機能(決定タイプ、または決定の正確性など)を分類しています。
このギャップを埋めるために、科学文献に見られる既存のソリューションをマッピングするための系統的文献レビュー(SLR)を提示します。
近年(2013-2025)に数百のユニークな研究論文を上映し、41の含まれる論文から分類を構築しました。
その結果、このSLRは、出版物、貢献、方法論的品質、およびその他の定量的洞察の観点から、AI駆動のPPAに関する既存の研究のいくつかの側面をレビューします。
さらに、AI駆動型PPAの包括的な分類を提供し、建築の選択、システムのコンテキスト、使用済みのAIの種類、データソース、決定の種類、意思決定の制御などを掘り下げます。
SLRに基づいて、研究のギャップと課題をさらに強調し、AI主導のPPAの設計と開発に関する推奨事項と、将来の研究の道を策定します。

要約(オリジナル)

In recent years, several personalized assistants based on AI have been researched and developed to help users make privacy-related decisions. These AI-driven Personalized Privacy Assistants (AI-driven PPAs) can provide significant benefits for users, who might otherwise struggle with making decisions about their personal data in online environments that often overload them with different privacy decision requests. So far, no studies have systematically investigated the emerging topic of AI-driven PPAs, classifying their underlying technologies, architecture and features, including decision types or the accuracy of their decisions. To fill this gap, we present a Systematic Literature Review (SLR) to map the existing solutions found in the scientific literature, which allows reasoning about existing approaches and open challenges for this research field. We screened several hundred unique research papers over the recent years (2013-2025), constructing a classification from 41 included papers. As a result, this SLR reviews several aspects of existing research on AI-driven PPAs in terms of types of publications, contributions, methodological quality, and other quantitative insights. Furthermore, we provide a comprehensive classification for AI-driven PPAs, delving into their architectural choices, system contexts, types of AI used, data sources, types of decisions, and control over decisions, among other facets. Based on our SLR, we further underline the research gaps and challenges and formulate recommendations for the design and development of AI-driven PPAs as well as avenues for future research.

arxiv情報

著者 Victor Morel,Leonardo Iwaya,Simone Fischer-Hübner
発行日 2025-05-12 14:59:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY | AI-driven Personalized Privacy Assistants: a Systematic Literature Review はコメントを受け付けていません

Chronocept: Instilling a Sense of Time in Machines

要約

人間の認知は、クロノ受容として知られる時間感と深く絡み合っています。
この感覚により、事実がどのくらいの期間有効であり、知識が時代遅れになったかを判断することができます。
視覚、言語、運動制御の進歩にもかかわらず、AIは依然として時間的妥当性について推論するのに苦労しています。
Chronoceptを紹介します。Chronoceptは、時間の経過に伴う連続確率分布として時間的妥当性をモデル化する最初のベンチマークです。
半分に分解された側頭軸に沿って取り付けられたスキューノーマル曲線を使用して、Chronoceptは出現、崩壊、およびピークの関連性の微妙なパターンをキャプチャします。
ベンチマークI(アトミックファクト)とベンチマークII(マルチセンテンスパッセージ)の2つのデータセットが含まれています。
注釈は、強力なアノテーター間協定を示しています(84%および89%)。
私たちのベースラインは、曲線パラメーターを予測します – 場所、スケール、歪度 – 解釈可能で一般化可能な学習とアウトパフォーマンスの分類ベースのアプローチを可能にします。
Chronoceptは、AIの時間的推論の基礎的ギャップを埋め、知識の基礎、事実確認、検索された生成(RAG)、および積極的なエージェントのアプリケーションをサポートします。
コードとデータは公開されています。

要約(オリジナル)

Human cognition is deeply intertwined with a sense of time, known as Chronoception. This sense allows us to judge how long facts remain valid and when knowledge becomes outdated. Despite progress in vision, language, and motor control, AI still struggles to reason about temporal validity. We introduce Chronocept, the first benchmark to model temporal validity as a continuous probability distribution over time. Using skew-normal curves fitted along semantically decomposed temporal axes, Chronocept captures nuanced patterns of emergence, decay, and peak relevance. It includes two datasets: Benchmark I (atomic facts) and Benchmark II (multi-sentence passages). Annotations show strong inter-annotator agreement (84% and 89%). Our baselines predict curve parameters – location, scale, and skewness – enabling interpretable, generalizable learning and outperforming classification-based approaches. Chronocept fills a foundational gap in AI’s temporal reasoning, supporting applications in knowledge grounding, fact-checking, retrieval-augmented generation (RAG), and proactive agents. Code and data are publicly available.

arxiv情報

著者 Krish Goel,Sanskar Pandey,KS Mahadevan,Harsh Kumar,Vishesh Khadaria
発行日 2025-05-12 15:07:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG | Chronocept: Instilling a Sense of Time in Machines はコメントを受け付けていません

Hybrid Local Causal Discovery

要約

局所的な因果発見は、ターゲット変数の直接的な原因と影響を観察されたデータから学習し、区別することを目的としています。
既存の制約に基づいた局所因果発見方法の使用およびまたは局所因果骨格の構築において使用されますが、いずれかのルールのみを使用することは、学習した局所因果骨格でカスケードエラーを生成する傾向があり、したがって、局所因果関係の推論に影響を与えます。
一方、スコアベースのグローバルな因果発見方法を局所的な因果発見に直接適用すると、局所等価クラスが存在するため、誤った結果をランダムに返す可能性があります。
上記の問題に対処するために、HLCDと呼ばれるハイブリッドローカル因果発見アルゴリズムを提案します。
具体的には、HLCDは当初、ORルールと組み合わせて制約ベースのアプローチを使用して候補のスケルトンを取得し、スコアベースの方法を使用して、候補のスケルトンの冗長部分を排除します。
さらに、局所的な因果配向フェーズでは、HLCDは、2つの間のローカル構造スコアを比較することにより、V構造と等価クラスを区別し、それによってローカルの等価クラスによって引き起こされる方向干渉を回避します。
14のベンチマークベイジアンネットワークデータセットで7つの最先端の競合他社を使用して広範な実験を実施しましたが、実験結果は、HLCDが既存のローカル因果発見アルゴリズムを大幅に上回ることを示しています。

要約(オリジナル)

Local causal discovery aims to learn and distinguish the direct causes and effects of a target variable from observed data. Existing constraint-based local causal discovery methods use AND or OR rules in constructing the local causal skeleton, but using either rule alone is prone to produce cascading errors in the learned local causal skeleton, and thus impacting the inference of local causal relationships. On the other hand, directly applying score-based global causal discovery methods to local causal discovery may randomly return incorrect results due to the existence of local equivalence classes. To address the above issues, we propose a Hybrid Local Causal Discovery algorithm, called HLCD. Specifically, HLCD initially utilizes a constraint-based approach combined with the OR rule to obtain a candidate skeleton and then employs a score-based method to eliminate redundant portions in the candidate skeleton. Furthermore, during the local causal orientation phase, HLCD distinguishes between V-structures and equivalence classes by comparing the local structure scores between the two, thereby avoiding orientation interference caused by local equivalence classes. We conducted extensive experiments with seven state-of-the-art competitors on 14 benchmark Bayesian network datasets, and the experimental results demonstrate that HLCD significantly outperforms existing local causal discovery algorithms.

arxiv情報

著者 Zhaolong Ling,Honghui Peng,Yiwen Zhang,Debo Cheng,Xingyu Wu,Peng Zhou,Kui Yu
発行日 2025-05-12 15:18:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI | Hybrid Local Causal Discovery はコメントを受け付けていません

Emotions in Artificial Intelligence

要約

この概念的貢献は、AIシステムが人間や動物が経験するように感情をどのようにエミュレートするかについての投機的な説明を提供します。
それは、完全な審議モデリングを必要とせずに生物学的に適応的な行動を可能にする、迅速な状況評価と行動選択のためのヒューリスティックとして自然感情が進化したという仮説に基づいた思考実験を提示します。
テキストは、複雑なアクションスペースで動作する人工システムがこれらの原則から同様に利益を得ることができるかどうかを調べます。
すべてのイベントと一緒に対応する感情的なタグを保存することにより、感情はエピソード記憶と織り交ぜられることが提案されています。
これにより、AISは現在の状況が過去の出来事に似ているかどうかを確立し、関連する感情ラベルを現在のコンテキストに投影することができます。
これらの感情的な手がかりは、ニーズ駆動型の感情的なヒントと組み合わされます。
組み合わせた感情状態は、アクション選択を調節することにより、現在の意思決定を促進します。
提案されたアーキテクチャの低い複雑さと経験的不活性は、感情的な表現と意識が、原則として、感情的なゾンビの理論的可能性を直交する可能性を浸透させるという証拠として強調されています。
これに基づいて、感情状態をエミュレートするAISの道徳的状態が批判的に検討されています。
感情の内部表現の単なる存在も意識だけでも、道徳的地位に十分ではないと主張されています。
むしろ、内なる感情状態の自己認識の能力は、必要な状態として推定されています。
複雑さベースの基準は、提示されたモデルでそのような認識を除外するために提案されています。
このフレームワークの概念的境界をテストするために、追加の思考実験が提示されています。

要約(オリジナル)

This conceptual contribution offers a speculative account of how AI systems might emulate emotions as experienced by humans and animals. It presents a thought experiment grounded in the hypothesis that natural emotions evolved as heuristics for rapid situational appraisal and action selection, enabling biologically adaptive behaviour without requiring full deliberative modeling. The text examines whether artificial systems operating in complex action spaces could similarly benefit from these principles. It is proposed that affect be interwoven with episodic memory by storing corresponding affective tags alongside all events. This allows AIs to establish whether present situations resemble past events and project the associated emotional labels onto the current context. These emotional cues are then combined with need-driven emotional hints. The combined emotional state facilitates decision-making in the present by modulating action selection. The low complexity and experiential inertness of the proposed architecture are emphasized as evidence that emotional expression and consciousness are, in principle, orthogonal-permitting the theoretical possibility of affective zombies. On this basis, the moral status of AIs emulating affective states is critically examined. It is argued that neither the mere presence of internal representations of emotion nor consciousness alone suffices for moral standing; rather, the capacity for self-awareness of inner emotional states is posited as a necessary condition. A complexity-based criterion is proposed to exclude such awareness in the presented model. Additional thought experiments are presented to test the conceptual boundaries of this framework.

arxiv情報

著者 Hermann Borotschnig
発行日 2025-05-12 15:28:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T01, 68T37, cs.AI, cs.CY, I.2.0 | Emotions in Artificial Intelligence はコメントを受け付けていません

A Case Study Investigating the Role of Generative AI in Quality Evaluations of Epics in Agile Software Development

要約

生成AIの幅広い可用性は、アジャイルソフトウェア開発など、さまざまな作業ドメインをサポートする新しい機会を提供します。
アジャイルエピックは、製品マネージャーが利害関係者に要件を伝えるための重要なアーティファクトです。
しかし、実際には、それらはしばしば不十分に定義されており、解約、配送の遅れ、コストのオーバーランにつながります。
この業界のケーススタディでは、大規模な言語モデル(LLM)がグローバル企業のアジャイルエピック品質を評価する機会を調査します。
17人の製品マネージャーを対象としたユーザー調査の結果、LLM評価をどのようにして作業慣行に統合できるかを示しています。
高レベルの満足度は、アジャイル叙事詩がAI評価の新しい実行可能な応用であることを示しています。
ただし、私たちの調査結果は、そのような評価の将来のアジャイルワークプラクティスへの統合について実務家と研究者の両方に知らせることができる課題、制限、および養子縁組の障壁の概要も概説しています。

要約(オリジナル)

The broad availability of generative AI offers new opportunities to support various work domains, including agile software development. Agile epics are a key artifact for product managers to communicate requirements to stakeholders. However, in practice, they are often poorly defined, leading to churn, delivery delays, and cost overruns. In this industry case study, we investigate opportunities for large language models (LLMs) to evaluate agile epic quality in a global company. Results from a user study with 17 product managers indicate how LLM evaluations could be integrated into their work practices, including perceived values and usage in improving their epics. High levels of satisfaction indicate that agile epics are a new, viable application of AI evaluations. However, our findings also outline challenges, limitations, and adoption barriers that can inform both practitioners and researchers on the integration of such evaluations into future agile work practices.

arxiv情報

著者 Werner Geyer,Jessica He,Daita Sarkar,Michelle Brachman,Chris Hammond,Jennifer Heins,Zahra Ashktorab,Carlos Rosemberg,Charlie Hill
発行日 2025-05-12 15:31:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.HC, cs.SE | A Case Study Investigating the Role of Generative AI in Quality Evaluations of Epics in Agile Software Development はコメントを受け付けていません

Benchmarking Retrieval-Augmented Generation for Chemistry

要約

検索された生成(RAG)は、特に専門的で動的な情報を要求する科学的領域で、外部の知識を持つ大規模な言語モデル(LLM)を強化するための強力なフレームワークとして浮上しています。
その約束にもかかわらず、化学ドメインでのRAGの適用は、主に高品質のドメイン固有のコーパスと十分にキュレーションされた評価ベンチマークの欠如のために、目立たないままです。
この作業では、ChemRag-Benchを紹介します。ChemRag-Benchは、化学関連のタスクの多様なセットでRAGの有効性を体系的に評価するように設計された包括的なベンチマークです。
付随する化学コーパスは、科学文献、Pubchemデータベース、PubMed要約、教科書、ウィキペディアエントリなど、異種の知識源を統合します。
さらに、5つの検索アルゴリズムと8つのLLMをサポートするモジュール式および拡張可能なRAGツールキットであるChemRag-Toolkitを提示します。
ChemRag-Toolkitを使用して、RAGがかなりのパフォーマンスを得ると、直接推論方法よりも17.4%の平均相対改善を達成することを実証します。
さらに、レトリバーアーキテクチャ、コーパス選択、および回収されたパッセージの数について詳細な分析を実施し、化学ドメインにおけるRAGシステムの将来の研究と展開を導くための実践的な推奨事項に至ります。
コードとデータはhttps://chemrag.github.ioで入手できます。

要約(オリジナル)

Retrieval-augmented generation (RAG) has emerged as a powerful framework for enhancing large language models (LLMs) with external knowledge, particularly in scientific domains that demand specialized and dynamic information. Despite its promise, the application of RAG in the chemistry domain remains underexplored, primarily due to the lack of high-quality, domain-specific corpora and well-curated evaluation benchmarks. In this work, we introduce ChemRAG-Bench, a comprehensive benchmark designed to systematically assess the effectiveness of RAG across a diverse set of chemistry-related tasks. The accompanying chemistry corpus integrates heterogeneous knowledge sources, including scientific literature, the PubChem database, PubMed abstracts, textbooks, and Wikipedia entries. In addition, we present ChemRAG-Toolkit, a modular and extensible RAG toolkit that supports five retrieval algorithms and eight LLMs. Using ChemRAG-Toolkit, we demonstrate that RAG yields a substantial performance gain — achieving an average relative improvement of 17.4% over direct inference methods. We further conduct in-depth analyses on retriever architectures, corpus selection, and the number of retrieved passages, culminating in practical recommendations to guide future research and deployment of RAG systems in the chemistry domain. The code and data is available at https://chemrag.github.io.

arxiv情報

著者 Xianrui Zhong,Bowen Jin,Siru Ouyang,Yanzhen Shen,Qiao Jin,Yin Fang,Zhiyong Lu,Jiawei Han
発行日 2025-05-12 15:34:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.IR | Benchmarking Retrieval-Augmented Generation for Chemistry はコメントを受け付けていません

OnPrem.LLM: A Privacy-Conscious Document Intelligence Toolkit

要約

Onprem.llmは、オフラインまたは制限付き環境で敏感な非公開データに大規模な言語モデル(LLM)を適用するためのPythonベースのツールキットです。
このシステムは、プライバシーを提供するユースケース向けに設計されており、ドキュメント処理とストレージ、検索の高等発電(RAG)、情報抽出、要約、分類、および最小設定でのプロンプト/出力処理のための事前に構築されたパイプラインを提供します。
ONPREM.LLMは、llama.cpp、ollama、vllm、huggingのフェイストランスを含む複数のLLMバックエンドをサポートしています。
完全にローカルな実行のために設計されていますが、OnPrem.llmは許可された場合、幅広いクラウドLLMプロバイダーとの統合もサポートし、パフォーマンスとデータコントロールのバランスをとるハイブリッド展開を可能にします。
ノーコードWebインターフェイスは、非技術的なユーザーへのアクセシビリティを拡張します。

要約(オリジナル)

We present OnPrem.LLM, a Python-based toolkit for applying large language models (LLMs) to sensitive, non-public data in offline or restricted environments. The system is designed for privacy-preserving use cases and provides prebuilt pipelines for document processing and storage, retrieval-augmented generation (RAG), information extraction, summarization, classification, and prompt/output processing with minimal configuration. OnPrem.LLM supports multiple LLM backends — including llama.cpp, Ollama, vLLM, and Hugging Face Transformers — with quantized model support, GPU acceleration, and seamless backend switching. Although designed for fully local execution, OnPrem.LLM also supports integration with a wide range of cloud LLM providers when permitted, enabling hybrid deployments that balance performance with data control. A no-code web interface extends accessibility to non-technical users.

arxiv情報

著者 Arun S. Maiya
発行日 2025-05-12 15:36:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG | OnPrem.LLM: A Privacy-Conscious Document Intelligence Toolkit はコメントを受け付けていません

Mapping Biomedical Ontology Terms to IDs: Effect of Domain Prevalence on Prediction Accuracy

要約

この研究では、人間の表現型オントロジー(HPO)、遺伝子オントロジー(GO)、およびUniprotKB用語全体に対応するオントロジーIDに生物医学的オントロジーの用語をマッピングする能力(LLM)の能力を評価します。
PubMed Central(PMC)データセットのオントロジーIDの数を生物医学文献の有病率の代理として使用して、オントロジーIDの有病率とマッピング精度との関係を調べました。
結果は、オントロジーIDの有病率が、HPO用語のHPO ID、Go IDS、およびタンパク質名への正確なマッピングをUniprotKBアクセッション番号に強く予測することを示しています。
生物医学文献におけるオントロジーIDのより高い有病率は、より高いマッピング精度と相関していました。
受信機の動作特性(ROC)曲線に基づく予測モデルにより、この関係が確認されました。
対照的に、このパターンは、タンパク質名をヒトゲノム組織(Hugo)遺伝子記号にマッピングすることには適用されませんでした。
GPT-4は、タンパク質名をHugo遺伝子記号にマッピングするのに高いベースライン性能(95%)を達成し、マッピングの精度は有病率の影響を受けませんでした。
文献におけるヒューゴ遺伝子シンボルの高い有病率により、これらのシンボルが語彙化され、GPT-4がタンパク質名をHugo遺伝子記号に高精度でマッピングできるようにすることを提案します。
これらの調査結果は、オントロジーの用語のマッピングにおけるLLMSの制限を、低価格オントロジーIDにマッピングすることを強調し、生物医学用途向けのLLMSのトレーニングと評価にオントロジーIDの有病率を組み込むことの重要性を強調しています。

要約(オリジナル)

This study evaluates the ability of large language models (LLMs) to map biomedical ontology terms to their corresponding ontology IDs across the Human Phenotype Ontology (HPO), Gene Ontology (GO), and UniProtKB terminologies. Using counts of ontology IDs in the PubMed Central (PMC) dataset as a surrogate for their prevalence in the biomedical literature, we examined the relationship between ontology ID prevalence and mapping accuracy. Results indicate that ontology ID prevalence strongly predicts accurate mapping of HPO terms to HPO IDs, GO terms to GO IDs, and protein names to UniProtKB accession numbers. Higher prevalence of ontology IDs in the biomedical literature correlated with higher mapping accuracy. Predictive models based on receiver operating characteristic (ROC) curves confirmed this relationship. In contrast, this pattern did not apply to mapping protein names to Human Genome Organisation’s (HUGO) gene symbols. GPT-4 achieved a high baseline performance (95%) in mapping protein names to HUGO gene symbols, with mapping accuracy unaffected by prevalence. We propose that the high prevalence of HUGO gene symbols in the literature has caused these symbols to become lexicalized, enabling GPT-4 to map protein names to HUGO gene symbols with high accuracy. These findings highlight the limitations of LLMs in mapping ontology terms to low-prevalence ontology IDs and underscore the importance of incorporating ontology ID prevalence into the training and evaluation of LLMs for biomedical applications.

arxiv情報

著者 Thanh Son Do,Daniel B. Hier,Tayo Obafemi-Ajayi
発行日 2025-05-12 15:43:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, I.2 | Mapping Biomedical Ontology Terms to IDs: Effect of Domain Prevalence on Prediction Accuracy はコメントを受け付けていません

Multimodal Survival Modeling in the Age of Foundation Models

要約

がんゲノムアトラス(TCGA)は、新しい発見を可能にし、その調和したゲノミクス、臨床、および画像データを通じて大規模な参照として機能しました。
以前の研究では、ユニモーダルまたはマルチモーダルTCGAデータの特注の癌生存予測モデルを訓練しています。
生物医学の深い学習における最新のパラダイムは、特定のモデリングタスクに不可知論的な意味のある特徴の埋め込みを導き出すための基礎モデル(FMS)の開発です。
生物医学的なテキストでは、特にFMSの開発が増加しています。
TCGAには病理学が報告するようにフリーテキストデータが含まれていますが、これらは歴史的に十分に活用されていません。
ここでは、FMSによって抽出されたゼロショット埋め込み上で、古典的なマルチモーダルサバイバルモデルをトレーニングする可能性を調査します。
マルチモーダル融合の容易さと加法効果を示し、単峰性モデルを上回ります。
病理学のレポートテキストを含めることの利点を実証し、モデルベースのテキストの要約と幻覚の効果を厳密に評価します。
全体として、病理学レポートからFMSと情報抽出を活用することにより、サバイバルモデリングを近代化します。

要約(オリジナル)

The Cancer Genome Atlas (TCGA) has enabled novel discoveries and served as a large-scale reference through its harmonized genomics, clinical, and image data. Prior studies have trained bespoke cancer survival prediction models from unimodal or multimodal TCGA data. A modern paradigm in biomedical deep learning is the development of foundation models (FMs) to derive meaningful feature embeddings, agnostic to a specific modeling task. Biomedical text especially has seen growing development of FMs. While TCGA contains free-text data as pathology reports, these have been historically underutilized. Here, we investigate the feasibility of training classical, multimodal survival models over zero-shot embeddings extracted by FMs. We show the ease and additive effect of multimodal fusion, outperforming unimodal models. We demonstrate the benefit of including pathology report text and rigorously evaluate the effect of model-based text summarization and hallucination. Overall, we modernize survival modeling by leveraging FMs and information extraction from pathology reports.

arxiv情報

著者 Steven Song,Morgan Borjigin-Wang,Irene Madejski,Robert L. Grossman
発行日 2025-05-12 15:47:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | Multimodal Survival Modeling in the Age of Foundation Models はコメントを受け付けていません