Graph Neural Network-Based Reinforcement Learning for Controlling Biological Networks: The GATTACA Framework

要約

ある細胞型から別の細胞型への人工的な変換である細胞初期化は、複雑な疾患に対する治療の可能性があるため、研究上の関心が高まっている。しかし、古典的なウェットラボ実験によるリプログラミング戦略の発見は、長い時間と高いコストによって妨げられている。本研究では、深層強化学習(DRL)を用いて、遺伝子制御ネットワークやシグナル伝達経路ネットワークのような複雑な生物システムのブールネットワークモデルを制御することを探求する。本研究では、非同期更新モードにおけるブール型ネットワークモデルの新しい制御問題を、細胞リプログラミングの文脈で定式化する。また、スケーラビリティを向上させるために、以前に紹介した擬似アトラクターの概念を考慮し、擬似アトラクターの状態を効果的に同定するための手順を改良する。最後に、制御問題を解くための計算フレームワークを考案する。生物学的システムの構造を活用するため、DRLエージェントが学習する行動値関数の人工ニューラルネットワーク近似器に、グラフ畳み込みを用いたグラフ・ニューラル・ネットワークを組み込む。文献にある多数の大規模な実世界生物ネットワークを用いた実験により、本アプローチのスケーラビリティと有効性を実証する。

要約(オリジナル)

Cellular reprogramming, the artificial transformation of one cell type into another, has been attracting increasing research attention due to its therapeutic potential for complex diseases. However, discovering reprogramming strategies through classical wet-lab experiments is hindered by lengthy time commitments and high costs. In this study, we explore the use of deep reinforcement learning (DRL) to control Boolean network models of complex biological systems, such as gene regulatory networks and signalling pathway networks. We formulate a novel control problem for Boolean network models under the asynchronous update mode in the context of cellular reprogramming. To facilitate scalability, we consider our previously introduced concept of a pseudo-attractor and we improve our procedure for effective identification of pseudo-attractor states. Finally, we devise a computational framework to solve the control problem. To leverage the structure of biological systems, we incorporate graph neural networks with graph convolutions into the artificial neural network approximator for the action-value function learned by the DRL agent. Experiments on a number of large real-world biological networks from literature demonstrate the scalability and effectiveness of our approach.

arxiv情報

著者 Andrzej Mizera,Jakub Zarzycki
発行日 2025-05-05 15:07:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG, q-bio.MN | Graph Neural Network-Based Reinforcement Learning for Controlling Biological Networks: The GATTACA Framework はコメントを受け付けていません

Enhancing LLMs’ Clinical Reasoning with Real-World Data from a Nationwide Sepsis Registry

要約

大規模言語モデル(LLM)は、一般的な領域において素晴らしい推論能力を示しているが、実臨床における有効性は依然として限定的である。これは、学習中に実臨床データに十分に触れることができないためであると考えられる。この問題に対処するため、我々は実臨床データを活用することで、LLMの臨床推論能力を強化することを提案する。我々は、全国的な敗血症レジストリから推論に重点を置いた質問を構築し、強化学習を用いてこれらの質問に対するPhi-4を微調整し、C-Reasonを作成した。C-Reasonは、定量的指標と専門家の評価の両方によって証明されるように、領域内テストセットで強力な臨床推論能力を示した。さらに、C-Reasonの推論能力は、異なるタスクと患者コホートを含む敗血症データセット、抗生物質の使用に関する自由形式の相談タスク、および他の疾患にも汎化された。今後の研究では、より強力で汎用的な臨床推論モデルを開発するために、大規模な複数疾患の臨床データセットを用いてLLMを訓練することに焦点を当てるべきである。

要約(オリジナル)

Although large language models (LLMs) have demonstrated impressive reasoning capabilities across general domains, their effectiveness in real-world clinical practice remains limited. This is likely due to their insufficient exposure to real-world clinical data during training, as such data is typically not included due to privacy concerns. To address this, we propose enhancing the clinical reasoning capabilities of LLMs by leveraging real-world clinical data. We constructed reasoning-intensive questions from a nationwide sepsis registry and fine-tuned Phi-4 on these questions using reinforcement learning, resulting in C-Reason. C-Reason exhibited strong clinical reasoning capabilities on the in-domain test set, as evidenced by both quantitative metrics and expert evaluations. Furthermore, its enhanced reasoning capabilities generalized to a sepsis dataset involving different tasks and patient cohorts, an open-ended consultations on antibiotics use task, and other diseases. Future research should focus on training LLMs with large-scale, multi-disease clinical datasets to develop more powerful, general-purpose clinical reasoning models.

arxiv情報

著者 Junu Kim,Chaeeun Shim,Sungjin Park,Su Yeon Lee,Gee Young Suh,Chae-Man Lim,Seong Jin Choi,Song Mi Moon,Kyoung-Ho Song,Eu Suk Kim,Hong Bin Kim,Sejoong Kim,Chami Im,Dong-Wan Kang,Yong Soo Kim,Hee-Joon Bae,Sung Yoon Lim,Han-Gil Jeong,Edward Choi
発行日 2025-05-05 15:23:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG | Enhancing LLMs’ Clinical Reasoning with Real-World Data from a Nationwide Sepsis Registry はコメントを受け付けていません

Surrogate modeling of Cellular-Potts Agent-Based Models as a segmentation task using the U-Net neural network architecture

要約

セルラー・ポッツ・モデルは、複雑な多細胞生物システムをシミュレートするための計算モデルを開発するための強力かつユビキタスなフレームワークである。セルラー・ポッツ・モデル(CPM)は、偏微分方程式(PDE)で記述される多数の個々のモデル・エージェントと拡散場の間の相互作用を明示的にモデル化するため、しばしば計算コストが高い。本研究では、周期的境界条件を考慮したU-Netアーキテクチャを用いた畳み込みニューラルネットワーク(CNN)サロゲートモデルを開発する。このモデルを用いて、以前血管新生を調べるために使用したメカニスティックCPMの評価を加速する。サロゲートモデルは、100ステップ先の計算(モンテカルロステップ、MCS)を予測するように訓練され、CPMコード実行に比べてシミュレーション評価を590倍高速化した。複数の再帰的な評価において、我々のモデルは、血管の新生、伸長と吻合、血管の裂け目の収縮など、オリジナルのCellular-Pottsモデルによって示された創発的な挙動を効果的に捉える。このアプローチは、ディープラーニングがCPMシミュレーションのための効率的な代理モデルとして機能する可能性を示し、より大きな空間的・時間的スケールにおける生物学的プロセスの計算コストのかかるCPMの評価をより高速に行うことを可能にする。

要約(オリジナル)

The Cellular-Potts model is a powerful and ubiquitous framework for developing computational models for simulating complex multicellular biological systems. Cellular-Potts models (CPMs) are often computationally expensive due to the explicit modeling of interactions among large numbers of individual model agents and diffusive fields described by partial differential equations (PDEs). In this work, we develop a convolutional neural network (CNN) surrogate model using a U-Net architecture that accounts for periodic boundary conditions. We use this model to accelerate the evaluation of a mechanistic CPM previously used to investigate \textit{in vitro} vasculogenesis. The surrogate model was trained to predict 100 computational steps ahead (Monte-Carlo steps, MCS), accelerating simulation evaluations by a factor of 590 times compared to CPM code execution. Over multiple recursive evaluations, our model effectively captures the emergent behaviors demonstrated by the original Cellular-Potts model of such as vessel sprouting, extension and anastomosis, and contraction of vascular lacunae. This approach demonstrates the potential for deep learning to serve as efficient surrogate models for CPM simulations, enabling faster evaluation of computationally expensive CPM of biological processes at greater spatial and temporal scales.

arxiv情報

著者 Tien Comlekoglu,J. Quetzalcóatl Toledo-Marín,Tina Comlekoglu,Douglas W. DeSimone,Shayn M. Peirce,Geoffrey Fox,James A. Glazier
発行日 2025-05-05 15:26:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG, q-bio.QM | Surrogate modeling of Cellular-Potts Agent-Based Models as a segmentation task using the U-Net neural network architecture はコメントを受け付けていません

Token-Efficient RL for LLM Reasoning

要約

我々は、LoRAのファインチューニングとの互換性に特に重点を置き、厳しいメモリと計算量の制限の下で大規模言語モデル(LLM)の推論用に調整された強化学習(RL)戦略を提案する。全列更新や個別の批評家ネットワークに依存するのではなく、メモリ使用量を削減し、学習を安定化させるために、出力トークンの情報量の少ないサブセットで動作する批評家フリーの手法を設計する。グループ相対政策最適化の確率的変形であるS-GRPOと、きめ細かなクレジット割り当てのためのトークンレベル接頭辞マッチング手法であるT-SPMOを紹介する。Qwen2-1.5Bに適用したところ、我々の手法はSVAMPベンチマークの精度を46%から70%以上に向上させ、多桁の乗算で強力な性能を示した。驚くべきことに、LoRAの下でのフルトークンGRPOは、基本モデルよりも改善されなかった。これは、選択的なトークンレベル最適化が、低パラメータ学習レジームにおいて暗黙の正則化器として機能する可能性を示唆している。

要約(オリジナル)

We propose reinforcement learning (RL) strategies tailored for reasoning in large language models (LLMs) under strict memory and compute limits, with a particular focus on compatibility with LoRA fine-tuning. Rather than relying on full-sequence updates or separate critic networks, we design critic-free methods that operate on a small, informative subset of output tokens to reduce memory usage and stabilize training. We introduce S-GRPO, a stochastic variant of Group Relative Policy Optimization, and T-SPMO, a token-level prefix matching approach for fine-grained credit assignment. Applied to Qwen2-1.5B, our methods raise accuracy on the SVAMP benchmark from 46% to over 70% and show strong performance on multi-digit multiplication. Surprisingly, full-token GRPO under LoRA fails to improve over the base model, suggesting that selective token-level optimization may act as an implicit regularizer in low-parameter training regimes.

arxiv情報

著者 Alan Lee,Harry Tong
発行日 2025-05-05 15:36:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG | Token-Efficient RL for LLM Reasoning はコメントを受け付けていません

FormalMATH: Benchmarking Formal Mathematical Reasoning of Large Language Models

要約

形式的な数学的推論は、人工知能にとって依然として重要な課題であるが、既存のベンチマークの範囲と規模の限界によって妨げられている。この課題に対処するために、我々はFormalMATHを発表する。FormalMATHは、高校生のオリンピックの課題から、多様な領域(代数、応用数学、微積分、整数論、離散数学など)にまたがる学部レベルの定理まで、5,560の形式的に検証された問題からなる大規模なLean4ベンチマークである。(1)文の自動形式化のための特殊な大規模言語モデル(LLM)、(2)マルチLLM意味検証、(3)市販のLLMベースの証明器を使用した否定ベースの反証フィルタリング戦略。このアプローチでは、元の自然言語問題への忠実性を確保しつつ、手作業による検証の前に72.09%の文を保持することで、専門家のアノテーションコストを削減する。最先端のLLMベースの定理証明器を評価した結果、重大な限界が明らかになった。最も強力なモデルでさえ、実用的なサンプリング予算下では16.46%の成功率しか達成できず、顕著なドメインの偏り(例えば、代数学では優れているが微積分学では失敗する)と、単純化された自動化戦術への過度の依存を示す。特筆すべきは、自然言語による解答ガイダンスと思考連鎖推論シナリオにおける証明の成功率の間に、直感に反する逆相関があることで、人間が書いた非公式な推論は、形式的な推論設定において明確さよりもノイズをもたらすことを示唆している。我々は、FormalMATHが形式的な数学的推論をベンチマークするための強固なベンチマークを提供すると信じている。

要約(オリジナル)

Formal mathematical reasoning remains a critical challenge for artificial intelligence, hindered by limitations of existing benchmarks in scope and scale. To address this, we present FormalMATH, a large-scale Lean4 benchmark comprising 5,560 formally verified problems spanning from high-school Olympiad challenges to undergraduate-level theorems across diverse domains (e.g., algebra, applied mathematics, calculus, number theory, and discrete mathematics). To mitigate the inefficiency of manual formalization, we introduce a novel human-in-the-loop autoformalization pipeline that integrates: (1) specialized large language models (LLMs) for statement autoformalization, (2) multi-LLM semantic verification, and (3) negation-based disproof filtering strategies using off-the-shelf LLM-based provers. This approach reduces expert annotation costs by retaining 72.09% of statements before manual verification while ensuring fidelity to the original natural-language problems. Our evaluation of state-of-the-art LLM-based theorem provers reveals significant limitations: even the strongest models achieve only 16.46% success rate under practical sampling budgets, exhibiting pronounced domain bias (e.g., excelling in algebra but failing in calculus) and over-reliance on simplified automation tactics. Notably, we identify a counterintuitive inverse relationship between natural-language solution guidance and proof success in chain-of-thought reasoning scenarios, suggesting that human-written informal reasoning introduces noise rather than clarity in the formal reasoning settings. We believe that FormalMATH provides a robust benchmark for benchmarking formal mathematical reasoning.

arxiv情報

著者 Zhouliang Yu,Ruotian Peng,Keyi Ding,Yizhe Li,Zhongyuan Peng,Minghao Liu,Yifan Zhang,Zheng Yuan,Huajian Xin,Wenhao Huang,Yandong Wen,Ge Zhang,Weiyang Liu
発行日 2025-05-05 15:37:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG | FormalMATH: Benchmarking Formal Mathematical Reasoning of Large Language Models はコメントを受け付けていません

Knowledge Graphs for Enhancing Large Language Models in Entity Disambiguation

要約

近年の大規模言語モデル(LLM)の進歩により、LLMは自然言語処理タスクの有力なソリューションとして位置づけられている。特筆すべきは、LLMはゼロショットまたは数ショットでこれらの問題にアプローチできるため、タスク固有のモデルを訓練したり微調整したりする必要がないことである。しかし、LLMは、幻覚や、学習データ中の特定のドメインからの古い知識や欠落した情報の存在など、いくつかの課題に直面している。これらの問題は、新しいデータでモデルを再トレーニングすることで簡単に解決できるものではなく、時間とコストのかかるプロセスである。これらの問題を軽減するために、LLMを充実させるための構造化された外部情報源として知識グラフ(KG)が提案されている。この考え方に基づき、本研究では、ゼロショットED(Entity Disambiguation)のためのLLMを強化するためにKGを利用する。この目的のために、我々はKGのエンティティクラスの階層表現を利用し、候補空間を徐々に刈り込み、またエンティティの説明を入力プロンプトに付加的な事実知識で豊かにする。一般的なEDデータセットを用いた評価により、提案手法は非強化LLMや記述のみの強化LLMを凌駕し、タスクに特化したモデルよりも高い適応性を持つことが示される。さらに、エラー分析を行い、KGの意味的表現力がED性能に与える影響について議論する。

要約(オリジナル)

Recent advances in Large Language Models (LLMs) have positioned them as a prominent solution for Natural Language Processing tasks. Notably, they can approach these problems in a zero or few-shot manner, thereby eliminating the need for training or fine-tuning task-specific models. However, LLMs face some challenges, including hallucination and the presence of outdated knowledge or missing information from specific domains in the training data. These problems cannot be easily solved by retraining the models with new data as it is a time-consuming and expensive process. To mitigate these issues, Knowledge Graphs (KGs) have been proposed as a structured external source of information to enrich LLMs. With this idea, in this work we use KGs to enhance LLMs for zero-shot Entity Disambiguation (ED). For that purpose, we leverage the hierarchical representation of the entities’ classes in a KG to gradually prune the candidate space as well as the entities’ descriptions to enrich the input prompt with additional factual knowledge. Our evaluation on popular ED datasets shows that the proposed method outperforms non-enhanced and description-only enhanced LLMs, and has a higher degree of adaptability than task-specific models. Furthermore, we conduct an error analysis and discuss the impact of the leveraged KG’s semantic expressivity on the ED performance.

arxiv情報

著者 Pons Gerard,Bilalli Besim,Queralt Anna
発行日 2025-05-05 15:40:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.DB, cs.LG | Knowledge Graphs for Enhancing Large Language Models in Entity Disambiguation はコメントを受け付けていません

SDA-GRIN for Adaptive Spatial-Temporal Multivariate Time Series Imputation

要約

様々なアプリケーションにおいて、多変量時系列はしばしば欠損データに悩まされる。この問題は、データに依存するシステムを大きく混乱させる可能性がある。空間的および時間的な依存関係は、欠損サンプルをインピュテーションするために活用することができる。既存のインピュテーション手法は、空間的な依存関係の動的な変化を無視することが多い。SDA-GRINは、時間と共にグラフ構造を適応させるために、マルチヘッドアテンションメカニズムを活用する。SDA-GRINは多変量時系列を時系列グラフのシーケンスとしてモデル化し、リカレントメッセージパッシングアーキテクチャを用いてインピュテーションを行う。SDA-GRINを4つの実世界データセットで評価する:SDA-GRINはAQIで9.51%、AQI-36で9.40%MSEを改善した。PEMS-BAYデータセットでは、MSEで1.94%の改善を達成した。詳細なアブレーション研究では、ウィンドウサイズと欠損データが本手法の性能に及ぼす影響を実証している。プロジェクトページ:https://ameskandari.github.io/sda-grin/

要約(オリジナル)

In various applications, the multivariate time series often suffers from missing data. This issue can significantly disrupt systems that rely on the data. Spatial and temporal dependencies can be leveraged to impute the missing samples. Existing imputation methods often ignore dynamic changes in spatial dependencies. We propose a Spatial Dynamic Aware Graph Recurrent Imputation Network (SDA-GRIN) which is capable of capturing dynamic changes in spatial dependencies.SDA-GRIN leverages a multi-head attention mechanism to adapt graph structures with time. SDA-GRIN models multivariate time series as a sequence of temporal graphs and uses a recurrent message-passing architecture for imputation. We evaluate SDA-GRIN on four real-world datasets: SDA-GRIN improves MSE by 9.51% for the AQI and 9.40% for AQI-36. On the PEMS-BAY dataset, it achieves a 1.94% improvement in MSE. Detailed ablation study demonstrates the effect of window sizes and missing data on the performance of the method. Project page:https://ameskandari.github.io/sda-grin/

arxiv情報

著者 Amir Eskandari,Aman Anand,Drishti Sharma,Farhana Zulkernine
発行日 2025-05-05 15:55:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG | SDA-GRIN for Adaptive Spatial-Temporal Multivariate Time Series Imputation はコメントを受け付けていません

The use of Artificial Intelligence for Intervention and Assessment in Individuals with ASD

要約

本稿では、自閉症スペクトラム(ASD)患者の診断、評価、介入のためのツールとしての人工知能(AI)の利用について探求する。特に、高度な機械学習技術とデータ分析を活用した早期診断におけるAIの役割に焦点を当てている。最近の研究では、ディープラーニング・アルゴリズムが、生体データ分析、ビデオベースの相互作用評価、言語的特徴抽出を通じて行動パターンを特定し、従来の方法と比較してより正確でタイムリーな診断を提供できることが実証されている。さらに、AIは診断ツールを自動化し、主観的なバイアスを減らし、ASDモニタリングのための個別化された評価プロトコルの開発を可能にする。同時にこの論文では、AIを活用した介入技術について検討し、教育ロボットや適応型コミュニケーションツールに重点を置いている。NAOやKasparのようなソーシャルロボットアシスタントは、学習を強化する構造化された反復的な相互作用を提供することで、子供の社会的スキルを高めることが示されている。さらに、AI主導の代替コミュニケーション(AAC)システムは、ASDの子どもたちがより効果的に自己表現できるようにし、機械学習チャットボットは、パーソナライズされた応答を通じて言語発達のサポートを提供する。本研究では、長期的な評価や個々のニーズへのカスタマイズといった課題に取り組みながら、これらのAIアプリケーションの有効性を裏付ける研究成果を紹介している。結論として、ASDの診断と介入における革新的なツールとしてのAIの意義を強調し、その長期的な影響を評価するためのさらなる研究を提唱している。

要約(オリジナル)

This paper explores the use of Artificial Intelligence (AI) as a tool for diagnosis, assessment, and intervention for individuals with Autism Spectrum Disorder (ASD). It focuses particularly on AI’s role in early diagnosis, utilizing advanced machine learning techniques and data analysis. Recent studies demonstrate that deep learning algorithms can identify behavioral patterns through biometric data analysis, video-based interaction assessments, and linguistic feature extraction, providing a more accurate and timely diagnosis compared to traditional methods. Additionally, AI automates diagnostic tools, reducing subjective biases and enabling the development of personalized assessment protocols for ASD monitoring. At the same time, the paper examines AI-powered intervention technologies, emphasizing educational robots and adaptive communication tools. Social robotic assistants, such as NAO and Kaspar, have been shown to enhance social skills in children by offering structured, repetitive interactions that reinforce learning. Furthermore, AI-driven Augmentative and Alternative Communication (AAC) systems allow children with ASD to express themselves more effectively, while machine-learning chatbots provide language development support through personalized responses. The study presents research findings supporting the effectiveness of these AI applications while addressing challenges such as long-term evaluation and customization to individual needs. In conclusion, the paper highlights the significance of AI as an innovative tool in ASD diagnosis and intervention, advocating for further research to assess its long-term impact.

arxiv情報

著者 Aggeliki Sideraki,Christos-Nikolaos Anagnostopoulos
発行日 2025-05-05 15:58:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CY | The use of Artificial Intelligence for Intervention and Assessment in Individuals with ASD はコメントを受け付けていません

Bye-bye, Bluebook? Automating Legal Procedure with Large Language Models

要約

法律実務では、手続き規則を注意深く守る必要がある。米国では、『ブルーブック』に記載されている規則ほど複雑なものはほとんどない:A Uniform System of Citation)にあるものほど複雑なものはない。このシステムの500ページ以上にも及ぶ複雑な書式指示を遵守することは、何千人もの学生ローレビュー編集者の存在意義であり、あらゆる法律家の悩みの種である。大規模言語モデル(LLM)がこのような複雑なシステムの手順を遵守できるかどうかを評価するために、我々は866のBluebookタスクのオリジナルデータセットを構築し、OpenAI、Anthropic、Google、Meta、DeepSeekのフラッグシップLLMをテストする。我々は、(1)これらのモデルが完全に準拠したBluebookの引用を生成するのは、69%から74%に過ぎないこと、(2)Bluebookの基礎となるルールシステムのコンテキスト内学習は、77%までしか精度を上げないことを示す。これらの結果は、手続きに忠実であることが最も重要である法律の側面を自動化するために、既製のLLMを使用することに注意を促すものである。

要約(オリジナル)

Legal practice requires careful adherence to procedural rules. In the United States, few are more complex than those found in The Bluebook: A Uniform System of Citation. Compliance with this system’s 500+ pages of byzantine formatting instructions is the raison d’etre of thousands of student law review editors and the bete noire of lawyers everywhere. To evaluate whether large language models (LLMs) are able to adhere to the procedures of such a complicated system, we construct an original dataset of 866 Bluebook tasks and test flagship LLMs from OpenAI, Anthropic, Google, Meta, and DeepSeek. We show (1) that these models produce fully compliant Bluebook citations only 69%-74% of the time and (2) that in-context learning on the Bluebook’s underlying system of rules raises accuracy only to 77%. These results caution against using off-the-shelf LLMs to automate aspects of the law where fidelity to procedure is paramount.

arxiv情報

著者 Matthew Dahl
発行日 2025-05-05 16:18:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL, cs.CY | Bye-bye, Bluebook? Automating Legal Procedure with Large Language Models はコメントを受け付けていません

Giving Simulated Cells a Voice: Evolving Prompt-to-Intervention Models for Cellular Control

要約

生物システムを形態形成的な結果のような望ましい状態に導くことは、医学や合成生物学に広範な影響を及ぼす基本的な課題である。大規模言語モデル(LLM)は、AIシステムにおいて解釈可能な制御のためのインターフェースとしての自然言語を可能にしてきたが、生物学的あるいは細胞ダイナミクスの操縦のためのメディエーターとしての利用は、ほとんど未解明のままである。 本研究では、自然言語プロンプトを空間ベクトル場に変換し、シミュレーションされた細胞集団に指示を与える機能的パイプラインを紹介する。我々のアプローチは、大規模な言語モデルと進化可能なニューラルコントローラー(Prompt-to-Intervention:P2I)を組み合わせたもので、進化戦略によって最適化され、シミュレートされた2次元環境においてクラスタリングや散乱などの行動を生成する。 我々は、制約された語彙と単純化された細胞モデルであっても、進化したP2Iネットワークが、平易な言語で表現されたユーザー定義の目標に細胞のダイナミクスをうまく合わせることができることを実証する。この研究は、言語入力からシミュレーションされた生体電気的介入、そして行動出力までの完全なループを提供し、自然言語駆動型の細胞制御を可能にする将来のシステムの基盤を提供する。

要約(オリジナル)

Guiding biological systems toward desired states, such as morphogenetic outcomes, remains a fundamental challenge with far-reaching implications for medicine and synthetic biology. While large language models (LLMs) have enabled natural language as an interface for interpretable control in AI systems, their use as mediators for steering biological or cellular dynamics remains largely unexplored. In this work, we present a functional pipeline that translates natural language prompts into spatial vector fields capable of directing simulated cellular collectives. Our approach combines a large language model with an evolvable neural controller (Prompt-to-Intervention, or P2I), optimized via evolutionary strategies to generate behaviors such as clustering or scattering in a simulated 2D environment. We demonstrate that even with constrained vocabulary and simplified cell models, evolved P2I networks can successfully align cellular dynamics with user-defined goals expressed in plain language. This work offers a complete loop from language input to simulated bioelectric-like intervention to behavioral output, providing a foundation for future systems capable of natural language-driven cellular control.

arxiv情報

著者 Nam H. Le,Patrick Erikson,Yanbo Zhang,Michael Levin,Josh Bongard
発行日 2025-05-05 16:21:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.NE, cs.RO, q-bio.TO | Giving Simulated Cells a Voice: Evolving Prompt-to-Intervention Models for Cellular Control はコメントを受け付けていません