Small Contributions, Small Networks: Efficient Neural Network Pruning Based on Relative Importance

要約

最近の進歩により、ニューラル ネットワークは前例のないサイズに拡張され、幅広いタスクにわたって驚くべきパフォーマンスが達成されました。
ただし、リソースに制約のあるデバイスにこれらの大規模モデルを展開すると、大量のストレージとコンピューティング要件が発生するため、重大な課題が生じます。
ニューラル ネットワーク プルーニングは、モデルのサイズと複雑さを軽減することでこれらの制限を軽減する効果的な手法として登場しました。
この論文では、情報理論と統計分析に基づいた、活性化統計に基づく直感的で解釈可能な枝刈り手法を紹介します。
私たちのアプローチは、ニューロン活性化の統計的特性を利用して、ニューロン出力への寄与を最小限に抑えた重みを特定して削除します。
具体的には、データセット全体にわたる重み寄与の分布を構築し、そのパラメーターを利用して枝刈りプロセスをガイドします。
さらに、枝刈り手法の有効性を高めるために追加の正則化項を組み込んだ枝刈りを意識したトレーニング戦略を提案します。
複数のデータセットとネットワーク アーキテクチャに関する広範な実験により、私たちの手法がいくつかのベースラインおよび最先端の枝刈り手法よりも一貫して優れていることが実証されました。

要約(オリジナル)

Recent advancements have scaled neural networks to unprecedented sizes, achieving remarkable performance across a wide range of tasks. However, deploying these large-scale models on resource-constrained devices poses significant challenges due to substantial storage and computational requirements. Neural network pruning has emerged as an effective technique to mitigate these limitations by reducing model size and complexity. In this paper, we introduce an intuitive and interpretable pruning method based on activation statistics, rooted in information theory and statistical analysis. Our approach leverages the statistical properties of neuron activations to identify and remove weights with minimal contributions to neuron outputs. Specifically, we build a distribution of weight contributions across the dataset and utilize its parameters to guide the pruning process. Furthermore, we propose a Pruning-aware Training strategy that incorporates an additional regularization term to enhance the effectiveness of our pruning method. Extensive experiments on multiple datasets and network architectures demonstrate that our method consistently outperforms several baseline and state-of-the-art pruning techniques.

arxiv情報

著者 Mostafa Hussien,Mahmoud Afifi,Kim Khoa Nguyen,Mohamed Cheriet
発行日 2024-10-21 16:18:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.NE | Small Contributions, Small Networks: Efficient Neural Network Pruning Based on Relative Importance はコメントを受け付けていません

GenAI Assisting Medical Training

要約

静脈穿刺やカニューレ挿入などの医療処置は看護師にとって不可欠であり、正確なスキルが要求されます。
また、クラスあたりの教師の数とタスクの複雑さにより、このスキルを学習することは教育者にとっての課題となります。
この研究は、静脈穿刺やカニューレ挿入などの医療処置に関するリアルタイムのフィードバックを提供する生成 AI 手法を統合することで、学生のスキル習得を支援し、教育者の負担を軽減することを目的としています。

要約(オリジナル)

Medical procedures such as venipuncture and cannulation are essential for nurses and require precise skills. Learning this skill, in turn, is a challenge for educators due to the number of teachers per class and the complexity of the task. The study aims to help students with skill acquisition and alleviate the educator’s workload by integrating generative AI methods to provide real-time feedback on medical procedures such as venipuncture and cannulation.

arxiv情報

著者 Stefan Fritsch,Matthias Tschoepe,Vitor Fortes Rey,Lars Krupp,Agnes Gruenerbl,Eloise Monger,Sarah Travenna
発行日 2024-10-21 16:31:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI | GenAI Assisting Medical Training はコメントを受け付けていません

Adaptive $Q$-Network: On-the-fly Target Selection for Deep Reinforcement Learning

要約

深層強化学習 (RL) はハイパーパラメータに非常に敏感であることでよく知られており、目前の問題に合わせてパラメータを最適化するには実践者に多大な努力が必要です。
これにより、現実世界のシナリオにおける RL の適用性も制限されます。
近年、この問題に対処しようとする自動強化学習 (AutoRL) の分野の人気が高まっています。
ただし、これらのアプローチは通常、追加のサンプルに依存してパフォーマンスの高いハイパーパラメータを選択するため、サンプルの効率と実用性が妨げられます。
さらに、ほとんどの AutoRL 手法は既存の AutoML 手法に大きく基づいており、元々はその非定常性による RL 固有の追加の課題を無視して開発されました。
この研究では、Adaptive $Q$-Network (AdaQN) と呼ばれる AutoRL の新しいアプローチを提案します。これは、追加のサンプルを必要とせずに最適化手順の非定常性を考慮するように RL に合わせて調整されています。
AdaQN は、複数の $Q$ 関数を学習します。各関数は異なるハイパーパラメータでトレーニングされ、共有ターゲットとして最小の近似誤差を持つ $Q$ 関数を使用してオンラインで更新されます。
私たちの選択スキームは、RL 最適化手順によって引き起こされる非定常性に対処しながら、批評家ベースの RL アルゴリズムと直交しながら、さまざまなハイパーパラメーターを同時に処理します。
私たちは、AdaQN が理論的に健全であることを実証し、MuJoCo 制御問題と Atari $2600$ ゲームで経験的に検証し、サンプル効率、全体的なパフォーマンス、確率論に対する堅牢性、トレーニングの安定性におけるメリットを示しました。

要約(オリジナル)

Deep Reinforcement Learning (RL) is well known for being highly sensitive to hyperparameters, requiring practitioners substantial efforts to optimize them for the problem at hand. This also limits the applicability of RL in real-world scenarios. In recent years, the field of automated Reinforcement Learning (AutoRL) has grown in popularity by trying to address this issue. However, these approaches typically hinge on additional samples to select well-performing hyperparameters, hindering sample-efficiency and practicality. Furthermore, most AutoRL methods are heavily based on already existing AutoML methods, which were originally developed neglecting the additional challenges inherent to RL due to its non-stationarities. In this work, we propose a new approach for AutoRL, called Adaptive $Q$-Network (AdaQN), that is tailored to RL to take into account the non-stationarity of the optimization procedure without requiring additional samples. AdaQN learns several $Q$-functions, each one trained with different hyperparameters, which are updated online using the $Q$-function with the smallest approximation error as a shared target. Our selection scheme simultaneously handles different hyperparameters while coping with the non-stationarity induced by the RL optimization procedure and being orthogonal to any critic-based RL algorithm. We demonstrate that AdaQN is theoretically sound and empirically validate it in MuJoCo control problems and Atari $2600$ games, showing benefits in sample-efficiency, overall performance, robustness to stochasticity and training stability.

arxiv情報

著者 Théo Vincent,Fabian Wahren,Jan Peters,Boris Belousov,Carlo D’Eramo
発行日 2024-10-21 16:32:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | Adaptive $Q$-Network: On-the-fly Target Selection for Deep Reinforcement Learning はコメントを受け付けていません

Learning How to Vote With Principles: Axiomatic Insights Into the Collective Decisions of Neural Networks

要約

集団決定における透明性のニーズを満たしながら、ニューラル ネットワークを投票理論に適用できるでしょうか?
私たちは公理的ディープ投票を提案します。これは、確立された投票理論の公理的方法を使用して、選好を集約するニューラル ネットワークを構築および評価するためのフレームワークです。
私たちの調査結果は次のとおりです: (1) ニューラル ネットワークは、精度が高いにもかかわらず、投票ルールの中核となる公理と一致しないことが多く、結果の模倣と推論との間に乖離があることが明らかになります。
(2) 公理固有のデータを使用したトレーニングでは、それらの公理との整合性は強化されません。
(3) 公理を満たすことのみを最適化することによって、ニューラル ネットワークは、多くの場合、既存の投票ルールを上回り、実質的に異なる新しい投票ルールを合成できます。
これにより、両方の分野に関する洞察が得られます。AI の場合、バイアスや価値観の一致などの重要な概念が数学的に厳密な方法で研究されます。
投票理論に関しては、投票ルールの空間の新しい領域が探求されます。

要約(オリジナル)

Can neural networks be applied in voting theory, while satisfying the need for transparency in collective decisions? We propose axiomatic deep voting: a framework to build and evaluate neural networks that aggregate preferences, using the well-established axiomatic method of voting theory. Our findings are: (1) Neural networks, despite being highly accurate, often fail to align with the core axioms of voting rules, revealing a disconnect between mimicking outcomes and reasoning. (2) Training with axiom-specific data does not enhance alignment with those axioms. (3) By solely optimizing axiom satisfaction, neural networks can synthesize new voting rules that often surpass and substantially differ from existing ones. This offers insights for both fields: For AI, important concepts like bias and value-alignment are studied in a mathematically rigorous way; for voting theory, new areas of the space of voting rules are explored.

arxiv情報

著者 Levin Hornischer,Zoi Terzopoulou
発行日 2024-10-21 16:35:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, I.2.6 | Learning How to Vote With Principles: Axiomatic Insights Into the Collective Decisions of Neural Networks はコメントを受け付けていません

Harmful Fine-tuning Attacks and Defenses for Large Language Models: A Survey

要約

最近の調査によると、サービスとしての微調整の初期段階のビジネス モデルは、安全性に関する重大な懸念を露呈していることが実証されています。ユーザーがアップロードしたいくつかの有害なデータを微調整すると、モデルの安全性の調整が損なわれる可能性があります。
この攻撃は有害な微調整として知られ、コミュニティの間で幅広い研究上の関心を集めています。
ただし、この攻撃はまだ新しいため、 \textbf{私たちの悲惨な投稿経験から、研究コミュニティ内で一般的な誤解があることがわかりました。} 私たちはこの論文で、攻撃設定に関するいくつかの共通の懸念を解消し、研究を正式に確立することを目的としています。
問題。
具体的には、まず問題の脅威モデルを提示し、有害な微調整攻撃とその亜種を紹介します。
次に、問題の攻撃/防御/機械的分析に関する既存の文献を系統的に調査します。
最後に、この分野の発展に貢献する可能性のある将来の研究の方向性を概説します。
さらに、査読プロセスの査読者が実験/攻撃/防御設定の現実性に疑問を抱くときに参照すると役立つ可能性がある、興味深い質問のリストを示します。
関連する論文の厳選されたリストが維持されており、\url{https://github.com/git-disl/awesome_LLM-harmful-fine-tuning-papers} でアクセスできます。

要約(オリジナル)

Recent research demonstrates that the nascent fine-tuning-as-a-service business model exposes serious safety concerns — fine-tuning over a few harmful data uploaded by the users can compromise the safety alignment of the model. The attack, known as harmful fine-tuning, has raised a broad research interest among the community. However, as the attack is still new, \textbf{we observe from our miserable submission experience that there are general misunderstandings within the research community.} We in this paper aim to clear some common concerns for the attack setting, and formally establish the research problem. Specifically, we first present the threat model of the problem, and introduce the harmful fine-tuning attack and its variants. Then we systematically survey the existing literature on attacks/defenses/mechanical analysis of the problem. Finally, we outline future research directions that might contribute to the development of the field. Additionally, we present a list of questions of interest, which might be useful to refer to when reviewers in the peer review process question the realism of the experiment/attack/defense setting. A curated list of relevant papers is maintained and made accessible at: \url{https://github.com/git-disl/awesome_LLM-harmful-fine-tuning-papers}.

arxiv情報

著者 Tiansheng Huang,Sihao Hu,Fatih Ilhan,Selim Furkan Tekin,Ling Liu
発行日 2024-10-21 16:51:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.LG | Harmful Fine-tuning Attacks and Defenses for Large Language Models: A Survey はコメントを受け付けていません

IoT-Based Preventive Mental Health Using Knowledge Graphs and Standards for Better Well-Being

要約

持続可能な開発目標(SDGs)は、アジェンダ 2030 を目標とした開発のロードマップを国連に提供します。
SDG3「健康と福祉」は、あらゆる年齢層の健康的な生活を保証し、福祉を促進します。
デジタルテクノロジーはSDG3をサポートできます。
より良い予防健康を奨励することで、燃え尽き症候群やうつ病さえも軽減できる可能性があります。
患者には自分の健康を管理するための知識と集中力が不足しているため、手遅れになる前に患者を助ける必要があります。
米国では、ポジティブ心理学やマインドフルネスなどの新しいトレンドが強く奨励されています。
デジタル ツイン (DT) は、生理学的信号 (ウェアラブル経由で収集されたものなど) を使用して感情を継続的に監視するのに役立ちます。
DT はモニタリングを容易にし、継続的な健康に関する洞察を提供して、より適切なパーソナライゼーションによって生活の質と幸福を向上させます。
ヘルスケア DT の課題は、データ形式、通信プロトコル、データ交換メカニズムの標準化です。
一例として、ISO には ISO/IEC JTC 1/SC 41 モノのインターネット (IoT) および DT ワーキング グループがあり、「ISO/IEC 21823-3:2021 IoT – IoT システムの相互運用性 – パート 3 セマンティック相互運用性」などの規格を備えています。
」、「ISO/IEC CD 30178 – IoT – データ形式、値、およびコーディング」。
これらのデータ統合と知識の課題を達成するために、私たちはメンタルヘルスを向上させるメンタルヘルス ナレッジ グラフ (オントロジーとデータセット) を設計しました。
例として、チョコレートにはマグネシウムが含まれており、うつ病に推奨されるなどの形式知が記載されています。
ナレッジ グラフ (KG) は、LOV4IoT オントロジー カタログ (感情、うつ病、メンタルヘルス) 内に分類されたオントロジー ベースのメンタルヘルス プロジェクトから知識を取得します。
さらに、可能な場合、KG は標準にマッピングされます。
医療機器やセンサーを表すには、SAREF4EHAW などの ETSI SmartM2M の標準を使用できますが、メンタルヘルスに関連する ITU/WHO、ISO、W3C、NIST、IEEE の標準も考慮できます。

要約(オリジナル)

Sustainable Development Goals (SDGs) give the UN a road map for development with Agenda 2030 as a target. SDG3 ‘Good Health and Well-Being’ ensures healthy lives and promotes well-being for all ages. Digital technologies can support SDG3. Burnout and even depression could be reduced by encouraging better preventive health. Due to the lack of patient knowledge and focus to take care of their health, it is necessary to help patients before it is too late. New trends such as positive psychology and mindfulness are highly encouraged in the USA. Digital Twins (DTs) can help with the continuous monitoring of emotion using physiological signals (e.g., collected via wearables). DTs facilitate monitoring and provide constant health insight to improve quality of life and well-being with better personalization. Healthcare DTs challenges are standardizing data formats, communication protocols, and data exchange mechanisms. As an example, ISO has the ISO/IEC JTC 1/SC 41 Internet of Things (IoT) and DTs Working Group, with standards such as ‘ISO/IEC 21823-3:2021 IoT – Interoperability for IoT Systems – Part 3 Semantic interoperability’, ‘ISO/IEC CD 30178 – IoT – Data format, value and coding’. To achieve those data integration and knowledge challenges, we designed the Mental Health Knowledge Graph (ontology and dataset) to boost mental health. As an example, explicit knowledge is described such as chocolate contains magnesium which is recommended for depression. The Knowledge Graph (KG) acquires knowledge from ontology-based mental health projects classified within the LOV4IoT ontology catalog (Emotion, Depression, and Mental Health). Furthermore, the KG is mapped to standards when possible. Standards from ETSI SmartM2M can be used such as SAREF4EHAW to represent medical devices and sensors, but also ITU/WHO, ISO, W3C, NIST, and IEEE standards relevant to mental health can be considered.

arxiv情報

著者 Amelie Gyrard,Seyedali Mohammadi,Manas Gaur,Antonio Kung
発行日 2024-10-21 16:55:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CY, cs.LG | IoT-Based Preventive Mental Health Using Knowledge Graphs and Standards for Better Well-Being はコメントを受け付けていません

Information for Conversation Generation: Proposals Utilising Knowledge Graphs

要約

LLM は、会話生成に頻繁に使用されるツールです。
追加情報がないと、LLM は、関連する内容や幻覚が欠如していること、感情的能力が低いと認識していること、一貫した性格を維持できないことなどにより、低品質の応答を生成する可能性があります。
ナレッジ グラフは外部知識の一般的に使用される形式であり、これらの課題に対する解決策を提供する可能性があります。
この文書では、ナレッジ グラフを利用して LLM 生成を強化する 3 つの提案を紹介します。
まず、動的なナレッジ グラフの埋め込みと推奨により、新しい情報の統合と、応答生成のための関連知識の選択が可能になります。
第 2 に、追加の特徴として感情的価値を持つエンティティを保存すると、ユーザー入力とより感情的に一致する知識が提供される可能性があります。
第三に、物語の吹き出しを通じてキャラクター情報を統合すると、キャラクターの一貫性が維持され、新しい情報を容易に組み込める構造が導入されます。

要約(オリジナル)

LLMs are frequently used tools for conversational generation. Without additional information LLMs can generate lower quality responses due to lacking relevant content and hallucinations, as well as the perception of poor emotional capability, and an inability to maintain a consistent character. Knowledge graphs are commonly used forms of external knowledge and may provide solutions to these challenges. This paper introduces three proposals, utilizing knowledge graphs to enhance LLM generation. Firstly, dynamic knowledge graph embeddings and recommendation could allow for the integration of new information and the selection of relevant knowledge for response generation. Secondly, storing entities with emotional values as additional features may provide knowledge that is better emotionally aligned with the user input. Thirdly, integrating character information through narrative bubbles would maintain character consistency, as well as introducing a structure that would readily incorporate new information.

arxiv情報

著者 Alex Clay,Ernesto Jiménez-Ruiz
発行日 2024-10-21 16:59:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | Information for Conversation Generation: Proposals Utilising Knowledge Graphs はコメントを受け付けていません

Are Large Language Models Chameleons? An Attempt to Simulate Social Surveys

要約

大規模言語モデル (LLM) は社会調査をシミュレートできますか?
この質問に答えるために、私たちは LLM に主観的な質問に答えるよう求められる何百万ものシミュレーションを実施しました。
さまざまな LLM の回答を欧州社会調査 (ESS) データと比較すると、バイアスと変動に対するプロンプトの影響が根本的なものであることが示唆され、文化、年齢、性別による主要なバイアスが浮き彫りになっています。
さらに、LLM の回答と調査データの間の差異を測定するための統計的手法について議論し、LLM で生成された回答の分散が小さい可能性が高いため、Jaccard の類似性にヒントを得た新しい尺度を提案しました。
私たちの実験では、LLM の模倣能力はせいぜい近似値であるため、LLM を使用して社会調査をシミュレートする前に、プロンプトの堅牢性と変動性を分析することが重要であることも明らかにしました。

要約(オリジナル)

Can large language models (LLMs) simulate social surveys? To answer this question, we conducted millions of simulations in which LLMs were asked to answer subjective questions. A comparison of different LLM responses with the European Social Survey (ESS) data suggests that the effect of prompts on bias and variability is fundamental, highlighting major cultural, age, and gender biases. We further discussed statistical methods for measuring the difference between LLM answers and survey data and proposed a novel measure inspired by Jaccard similarity, as LLM-generated responses are likely to have a smaller variance. Our experiments also reveal that it is important to analyze the robustness and variability of prompts before using LLMs to simulate social surveys, as their imitation abilities are approximate at best.

arxiv情報

著者 Mingmeng Geng,Sihong He,Roberto Trotta
発行日 2024-10-21 17:05:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CY, cs.LG | Are Large Language Models Chameleons? An Attempt to Simulate Social Surveys はコメントを受け付けていません

Compute-Constrained Data Selection

要約

データを選択すると、LLM を微調整するために必要なトレーニング データの量を減らすことができます。
ただし、データ選択の有効性は、そのコンピューティングに直接比例します。
コンピューティングに制約のある微調整という実際的な課題に動機付けられ、データの選択とトレーニングの両方のコストが予算化される設定を検討します。
まず、コストを意識した効用関数を使用してデータ選択の問題を形式化し、初期選択コストとトレーニング利得のトレードオフとしてデータ選択問題をモデル化します。
微調整トークン、モデル サイズ、データ選択コンピューティングをスケーリングすることでコンピューティング バジェットを変化させながら、複数のタスクにわたる包括的な実験を実行します。
これらの実験は、現実世界の実験におけるこのモデルの妥当性を示しています。
興味深いことに、多くの強力なデータ選択方法がコンピューティング最適化されることはほとんどなく、理論的および経験的観点の両方から、より安価なデータ選択の代替手段が主流であることがわかりました。

要約(オリジナル)

Data selection can reduce the amount of training data needed to finetune LLMs; however, the efficacy of data selection scales directly with its compute. Motivated by the practical challenge of compute-constrained finetuning, we consider the setting in which both the cost of selecting data and training are budgeted for. We first formalize the problem of data selection with a cost-aware utility function, and model the data selection problem as trading off initial-selection cost for training gain. We run a comprehensive sweep of experiments across multiple tasks, varying compute budget by scaling finetuning tokens, model sizes, and data selection compute. These experiments show the validity of this model in real-world experiments. Interestingly we find that many powerful data selection methods are almost never compute-optimal, and that cheaper data selection alternatives dominate both from a theoretical and empirical perspective.

arxiv情報

著者 Junjie Oscar Yin,Alexander M. Rush
発行日 2024-10-21 17:11:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG | Compute-Constrained Data Selection はコメントを受け付けていません

Comprehensive benchmarking of large language models for RNA secondary structure prediction

要約

DNA およびタンパク質の大規模言語モデル (LLM) の成功に触発されて、RNA 用のいくつかの LLM が最近開発されました。
RNA-LLM は、RNA 配列の大規模なデータセットを使用して、意味論的に豊富な数値ベクトルで各 RNA 塩基を表現する方法を自己教師付きの方法で学習します。
これは、高品質の RNA 表現を取得することで、データコストのかかる下流のタスクを強化できるという仮説に基づいて行われます。
中でも二次構造の予測は、RNAの機能機構を解明するための基本的な課題です。
この研究では、統合された深層学習フレームワークでの RNA 二次構造予測タスクについて比較する、いくつかの事前トレーニング済み RNA-LLM の包括的な実験分析を紹介します。
RNA-LLM は、ベンチマーク データセットで一般化の難易度を上げながら評価されました。
結果は、2 つの LLM が他のモデルよりも明らかに優れていることを示し、相同性の低いシナリオでの一般化に対する重大な課題を明らかにしました。

要約(オリジナル)

Inspired by the success of large language models (LLM) for DNA and proteins, several LLM for RNA have been developed recently. RNA-LLM uses large datasets of RNA sequences to learn, in a self-supervised way, how to represent each RNA base with a semantically rich numerical vector. This is done under the hypothesis that obtaining high-quality RNA representations can enhance data-costly downstream tasks. Among them, predicting the secondary structure is a fundamental task for uncovering RNA functional mechanisms. In this work we present a comprehensive experimental analysis of several pre-trained RNA-LLM, comparing them for the RNA secondary structure prediction task in an unified deep learning framework. The RNA-LLM were assessed with increasing generalization difficulty on benchmark datasets. Results showed that two LLM clearly outperform the other models, and revealed significant challenges for generalization in low-homology scenarios.

arxiv情報

著者 L. I. Zablocki,L. A. Bugnon,M. Gerard,L. Di Persia,G. Stegmayer,D. H. Milone
発行日 2024-10-21 17:12:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, q-bio.BM | Comprehensive benchmarking of large language models for RNA secondary structure prediction はコメントを受け付けていません