Chaining thoughts and LLMs to learn DNA structural biophysics

要約

さまざまな実験データを統合し、検証可能な仮説を生み出すことのできるツール、AIサイエンティストの今後の発展には、計り知れない可能性が秘められている。これまでのところ、特注の機械学習モデルは、特異な科学的タスクに特化するために作成されてきたが、それ以外は汎用モデルの柔軟性に欠けていた。ここでは、汎用の大規模言語モデルであるchatGPT 3.5-turboを、DNAの構造生物物理学を学習するために微調整できることを示す。思考の連鎖応答を返すようにモデルを微調整することと、サブタスク用に微調整されたモデルを連結することの両方が、DNA配列とその構造を解析し設計する能力を向上させることを見出した。

要約(オリジナル)

The future development of an AI scientist, a tool that is capable of integrating a variety of experimental data and generating testable hypotheses, holds immense potential. So far, bespoke machine learning models have been created to specialize in singular scientific tasks, but otherwise lack the flexibility of a general purpose model. Here, we show that a general purpose large language model, chatGPT 3.5-turbo, can be fine-tuned to learn the structural biophysics of DNA. We find that both fine-tuning models to return chain-of-thought responses and chaining together models fine-tuned for subtasks have an enhanced ability to analyze and design DNA sequences and their structures.

arxiv情報

著者 Tyler D. Ross,Ashwin Gopinath
発行日 2024-03-02 22:38:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG, q-bio.QM パーマリンク