TIFIN India at SemEval-2025: Harnessing Translation to Overcome Multilingual IR Challenges in Fact-Checked Claim Retrieval

要約

私たちは、以前に事実にチェックされた主張を単一言語的および横断的な設定で取得するという課題に対処します。これは、偽情報の世界的な有病率を考えると重要なタスクです。
私たちのアプローチは、2段階の戦略に従います。微調整された埋め込みモデルとLLMベースのRerankerを使用した信頼性の高いベースライン検索システムです。
私たちの重要な貢献は、LLMベースの翻訳が多言語情報の検索のハードルを克服する方法を実証することです。
さらに、消費者GPUでパイプラインの大部分を複製できるようにすることに焦点を当てます。
私たちの最終的な統合システムは、それぞれ単一言語および相互テストセットで0.938と0.81025の10スコア@10スコアを達成しました。

要約(オリジナル)

We address the challenge of retrieving previously fact-checked claims in monolingual and crosslingual settings – a critical task given the global prevalence of disinformation. Our approach follows a two-stage strategy: a reliable baseline retrieval system using a fine-tuned embedding model and an LLM-based reranker. Our key contribution is demonstrating how LLM-based translation can overcome the hurdles of multilingual information retrieval. Additionally, we focus on ensuring that the bulk of the pipeline can be replicated on a consumer GPU. Our final integrated system achieved a success@10 score of 0.938 and 0.81025 on the monolingual and crosslingual test sets, respectively.

arxiv情報

著者 Prasanna Devadiga,Arya Suneesh,Pawan Kumar Rajpoot,Bharatdeep Hazarika,Aditya U Baliga
発行日 2025-04-23 11:34:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | TIFIN India at SemEval-2025: Harnessing Translation to Overcome Multilingual IR Challenges in Fact-Checked Claim Retrieval はコメントを受け付けていません

ParetoHqD: Fast Offline Multiobjective Alignment of Large Language Models using Pareto High-quality Data

要約

複数の人間の期待と価値を持つ大規模な言語モデルを調整することは、さまざまなユーザーニーズに適切にサービスを提供するために重要です。
この目的のために、オフラインの多目的アライメントアルゴリズムなどのオフラインの多目的アライメントアルゴリズムは、強力なパフォーマンスと効率を示しています。
ただし、不均衡な報酬スコアを使用した不適切な好みの表現とトレーニングにより、そのようなアルゴリズムのパフォーマンスが制限されます。
この作業では、人間の好みを客観的な空間の好みの方向として表現し、パレート戦線近くのデータを「高品質」のデータとして表現することにより、上記の問題に対処するパレートHQDを導入します。
各好みについて、ParetoHQDは2段階の監視された微調整プロセスに従います。各ステージは、好みの方向に最適な個々のパレート高品質のトレーニングセットを使用します。
実験結果は、2つの多目的アライメントタスクで5つのベースラインを超えるパレートHQDの優位性を実証しています。

要約(オリジナル)

Aligning large language models with multiple human expectations and values is crucial for ensuring that they adequately serve a variety of user needs. To this end, offline multiobjective alignment algorithms such as the Rewards-in-Context algorithm have shown strong performance and efficiency. However, inappropriate preference representations and training with imbalanced reward scores limit the performance of such algorithms. In this work, we introduce ParetoHqD that addresses the above issues by representing human preferences as preference directions in the objective space and regarding data near the Pareto front as ”high-quality” data. For each preference, ParetoHqD follows a two-stage supervised fine-tuning process, where each stage uses an individual Pareto high-quality training set that best matches its preference direction. The experimental results have demonstrated the superiority of ParetoHqD over five baselines on two multiobjective alignment tasks.

arxiv情報

著者 Haoran Gu,Handing Wang,Yi Mei,Mengjie Zhang,Yaochu Jin
発行日 2025-04-23 11:35:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG | ParetoHqD: Fast Offline Multiobjective Alignment of Large Language Models using Pareto High-quality Data はコメントを受け付けていません

Modelling Multimodal Integration in Human Concept Processing with Vision-Language Models

要約

言語モデルからのテキスト表現は、言語処理に関与する人間の神経活動を著しく予測していることが証明されており、最近の変圧器ベースのモデルは、下流のタスクでの以前のアーキテクチャを上回り、脳反応の予測を上回っています。
ただし、言語のみのモデルによって学んだ単語表現は、他のモダリティからの感覚情報を欠いているという点で制限される場合があります。
ここでは、現在の事前に訓練された視覚言語モデル(VLM)を活用して、それらが動作させる視覚言語情報の統合が、言語のみの入力で訓練されたモデルで得られるモデルよりも人間の脳活動に沿った表現につながるかどうかを調査します。
参加者が完全な文または写真のいずれかのコンテキストで概念語を読む間、記録されたfMRI応答に焦点を当てます。
我々の結果は、VLM表現は、言語のみのモデルと言語処理に機能的に関連する脳領域の活性化を伴う言語のみのモデルよりも強く相関することを明らかにしています。
さらに、トランスベースのビジョン言語エンコーダー(LXMERTやVisualBertなど)が生成VLMよりも脳に合った表現を生成することがわかります。
最後に、私たちのアブレーション分析は、単象徴モジュールで既にエンコードされているのではなく、マルチモーダル前削除中に具体的に取得したセマンティック情報の結果を評価するVLMの一部によって達成された高い脳の整合性を示唆しています。
全体として、私たちの調査結果は、人間の脳の活性化を予測する際のマルチモーダルモデルの利点を示しています。これは、言語と視覚の統合のモデリングが、人間の概念表現のマルチモーダル性を捉える可能性があることを明らかにしています。

要約(オリジナル)

Text representations from language models have proven remarkably predictive of human neural activity involved in language processing, with the recent transformer-based models outperforming previous architectures in downstream tasks and prediction of brain responses. However, the word representations learnt by language-only models may be limited in that they lack sensory information from other modalities, which several cognitive and neuroscience studies showed to be reflected in human meaning representations. Here, we leverage current pre-trained vision-language models (VLMs) to investigate whether the integration of visuo-linguistic information they operate leads to representations that are more aligned with human brain activity than those obtained by models trained with language-only input. We focus on fMRI responses recorded while participants read concept words in the context of either a full sentence or a picture. Our results reveal that VLM representations correlate more strongly than those by language-only models with activations in brain areas functionally related to language processing. Additionally, we find that transformer-based vision-language encoders — e.g., LXMERT and VisualBERT — yield more brain-aligned representations than generative VLMs, whose autoregressive abilities do not seem to provide an advantage when modelling single words. Finally, our ablation analyses suggest that the high brain alignment achieved by some of the VLMs we evaluate results from semantic information acquired specifically during multimodal pretraining as opposed to being already encoded in their unimodal modules. Altogether, our findings indicate an advantage of multimodal models in predicting human brain activations, which reveals that modelling language and vision integration has the potential to capture the multimodal nature of human concept representations.

arxiv情報

著者 Anna Bavaresco,Marianne de Heer Kloots,Sandro Pezzelle,Raquel Fernández
発行日 2025-04-23 12:14:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Modelling Multimodal Integration in Human Concept Processing with Vision-Language Models はコメントを受け付けていません

Lawma: The Power of Specialization for Legal Annotation

要約

法的テキストの注釈と分類は、実証的な法的研究の中心的な要素です。
伝統的に、これらのタスクはしばしば訓練を受けた研究助手に委任されています。
言語モデリングの進歩に動機付けられているため、経験的な法学者は、人間の注釈のかなりのコストを緩和することを望んで、商業モデルの促進にますます目を向けています。
使用が増えているにもかかわらず、法的注釈のために大規模な言語モデルを最大限に活用する方法を理解することは限られたままです。
このギャップを埋めるために、260の法的注釈タスクで構成されるベンチマークであるCaselawqaを導入します。
GPT-4.5やClaude 3.7 Sonnetなどの商用モデルは、法的作業に必要なパフォーマンスには一般的には、自明でありながら非常に多様な精度を達成することを実証します。
次に、小さく、軽く微調整されたモデルが商業モデルよりも優れていることを示します。
通常、数百から千のラベルのある例は、通常、より高い精度を達成するのに十分です。
私たちの仕事は、商業モデルを促すという主要な実践に代わる実行可能な代替案を指摘しています。
いくつかの利用可能なラベル付きデータを使用した具体的な法的注釈タスクの場合、研究者は微調整されたオープンソースモデルを使用する方が良いでしょう。

要約(オリジナル)

Annotation and classification of legal text are central components of empirical legal research. Traditionally, these tasks are often delegated to trained research assistants. Motivated by the advances in language modeling, empirical legal scholars are increasingly turning to prompting commercial models, hoping that it will alleviate the significant cost of human annotation. Despite growing use, our understanding of how to best utilize large language models for legal annotation remains limited. To bridge this gap, we introduce CaselawQA, a benchmark comprising 260 legal annotation tasks, nearly all new to the machine learning community. We demonstrate that commercial models, such as GPT-4.5 and Claude 3.7 Sonnet, achieve non-trivial yet highly variable accuracy, generally falling short of the performance required for legal work. We then demonstrate that small, lightly fine-tuned models outperform commercial models. A few hundred to a thousand labeled examples are usually enough to achieve higher accuracy. Our work points to a viable alternative to the predominant practice of prompting commercial models. For concrete legal annotation tasks with some available labeled data, researchers are likely better off using a fine-tuned open-source model.

arxiv情報

著者 Ricardo Dominguez-Olmedo,Vedant Nanda,Rediet Abebe,Stefan Bechtold,Christoph Engel,Jens Frankenreiter,Krishna Gummadi,Moritz Hardt,Michael Livermore
発行日 2025-04-23 12:18:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG | Lawma: The Power of Specialization for Legal Annotation はコメントを受け付けていません

NovelQA: Benchmarking Question Answering on Documents Exceeding 200K Tokens

要約

大規模な言語モデル(LLMS)の最近の進歩により、特に長文との理解において、自然言語処理の境界が推進されています。
ただし、これらのモデルの長いコンテキスト能力の評価は、現在のベンチマークの制限により、依然として課題のままです。
このギャップに対処するために、複雑で拡張された物語を持つLLMSを評価するために調整されたベンチマークであるNovelqaを紹介します。
英語の小説から構築されたNovelqaは、複雑さ、長さ、物語の一貫性のユニークなブレンドを提供し、LLMSの深いテキスト理解を評価するための理想的なツールになります。
このペーパーでは、包括的な手動注釈プロセスと、微妙な理解の評価を目的としたさまざまな質問タイプに焦点を当てたNovelqaの設計と構築について詳しく説明しています。
Novelqaに関する長いコンテキストLLMの評価は、その長所と短所に関する重要な洞察を明らかにしています。
特に、モデルは、マルチホップの推論、詳細指向の質問、および平均長さが200,000トークンを超える非常に長い入力の処理に苦労しています。
結果は、LLMSの実質的な進歩の必要性を強調して、長文と書かれた理解を高め、計算文学分析に効果的に貢献しています。

要約(オリジナル)

Recent advancements in Large Language Models (LLMs) have pushed the boundaries of natural language processing, especially in long-context understanding. However, the evaluation of these models’ long-context abilities remains a challenge due to the limitations of current benchmarks. To address this gap, we introduce NovelQA, a benchmark tailored for evaluating LLMs with complex, extended narratives. Constructed from English novels, NovelQA offers a unique blend of complexity, length, and narrative coherence, making it an ideal tool for assessing deep textual understanding in LLMs. This paper details the design and construction of NovelQA, focusing on its comprehensive manual annotation process and the variety of question types aimed at evaluating nuanced comprehension. Our evaluation of long-context LLMs on NovelQA reveals significant insights into their strengths and weaknesses. Notably, the models struggle with multi-hop reasoning, detail-oriented questions, and handling extremely long inputs, with average lengths exceeding 200,000 tokens. Results highlight the need for substantial advancements in LLMs to enhance their long-context comprehension and contribute effectively to computational literary analysis.

arxiv情報

著者 Cunxiang Wang,Ruoxi Ning,Boqi Pan,Tonghui Wu,Qipeng Guo,Cheng Deng,Guangsheng Bao,Xiangkun Hu,Zheng Zhang,Qian Wang,Yue Zhang
発行日 2025-04-23 12:52:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | NovelQA: Benchmarking Question Answering on Documents Exceeding 200K Tokens はコメントを受け付けていません

A Post-trainer’s Guide to Multilingual Training Data: Uncovering Cross-lingual Transfer Dynamics

要約

大規模な言語モデルが世界中で役立つためには、多言語データに関する指示に従うために微調整されています。
このような訓練後の遍在にもかかわらず、横断的移動を可能にするダイナミクスの明確な理解はとらえどころのないままです。
この研究では、現実的なトレーニング後の設定における言語間転送(CLT)ダイナミクスを調べます。
シングルタスクとマルチタスクの命令チューニング設定で、さまざまなレベルの複雑さ(要約、指示フォロー、および数学的推論)を備えた3つの生成タスクに関する多言語データの慎重に制御された混合物でトレーニングされた最大35Bパラメーターの2つのモデルファミリーを研究します。
全体として、トレーニング後の設定の組み合わせによって変化する分離変数では、横断的転送と多言語パフォーマンスのダイナミクスは分離変数では説明できないことがわかります。
最後に、実際に効果的な横断移転につながる条件を特定します。

要約(オリジナル)

In order for large language models to be useful across the globe, they are fine-tuned to follow instructions on multilingual data. Despite the ubiquity of such post-training, a clear understanding of the dynamics that enable cross-lingual transfer remains elusive. This study examines cross-lingual transfer (CLT) dynamics in realistic post-training settings. We study two model families of up to 35B parameters in size trained on carefully controlled mixtures of multilingual data on three generative tasks with varying levels of complexity (summarization, instruction following, and mathematical reasoning) in both single-task and multi-task instruction tuning settings. Overall, we find that the dynamics of cross-lingual transfer and multilingual performance cannot be explained by isolated variables, varying depending on the combination of post-training settings. Finally, we identify the conditions that lead to effective cross-lingual transfer in practice.

arxiv情報

著者 Luisa Shimabucoro,Ahmet Ustun,Marzieh Fadaee,Sebastian Ruder
発行日 2025-04-23 12:52:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | A Post-trainer’s Guide to Multilingual Training Data: Uncovering Cross-lingual Transfer Dynamics はコメントを受け付けていません

MOOSComp: Improving Lightweight Long-Context Compressor via Mitigating Over-Smoothing and Incorporating Outlier Scores

要約

大規模な言語モデルの最近の進歩により、長いコンテキスト入力を処理する能力が大幅に改善されましたが、特にリソースが制約した環境では、推論時間とリソースの消費の増加によって実用的なアプリケーションが挑戦されています。
これらの課題に対処するために、過剰なスモーティングの問題を軽減し、ーン代のスコアを組み込むことにより、BERTベースのコンプレッサーのパフォーマンスを向上させるトークン分類ベースの長いコンプレッションメソッドであるMoosCompを提案します。
トレーニングフェーズでは、クラス間のコサイン類似性損失項を追加して、過度に類似したトークン表現を罰し、トークン分類の精度を改善します。
圧縮段階では、タスクに依存しない圧縮で破棄される傾向があるまれであるが重要なトークンを保持するために、外れ値スコアを導入します。
これらのスコアは分類器の出力と統合されており、コンプレッサーをさまざまなタスクに一般化しやすくします。
長いコンテストの理解と推論ベンチマークで、さまざまな圧縮比で優れた性能が達成されます。
さらに、この方法では、リソース制約のあるモバイルデバイスで4倍の圧縮率で3.3倍のスピードアップを取得します。

要約(オリジナル)

Recent advances in large language models have significantly improved their ability to process long-context input, but practical applications are challenged by increased inference time and resource consumption, particularly in resource-constrained environments. To address these challenges, we propose MOOSComp, a token-classification-based long-context compression method that enhances the performance of a BERT-based compressor by mitigating the over-smoothing problem and incorporating outlier scores. In the training phase, we add an inter-class cosine similarity loss term to penalize excessively similar token representations, thereby improving the token classification accuracy. During the compression phase, we introduce outlier scores to preserve rare but critical tokens that are prone to be discarded in task-agnostic compression. These scores are integrated with the classifier’s output, making the compressor more generalizable to various tasks. Superior performance is achieved at various compression ratios on long-context understanding and reasoning benchmarks. Moreover, our method obtains a speedup of 3.3x at a 4x compression ratio on a resource-constrained mobile device.

arxiv情報

著者 Fengwei Zhou,Jiafei Song,Wenjin Jason Li,Gengjian Xue,Zhikang Zhao,Yichao Lu,Bailin Na
発行日 2025-04-23 15:02:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG | MOOSComp: Improving Lightweight Long-Context Compressor via Mitigating Over-Smoothing and Incorporating Outlier Scores はコメントを受け付けていません

LLM-assisted Graph-RAG Information Extraction from IFC Data

要約

IFCデータは、建設業界での共同作業の一般的な建築情報標準となっています。
ただし、IFCデータは、同じ製品情報を表す複数の方法を可能にするため、非常に複雑になる可能性があります。
この研究では、LLMSの機能を利用して、グラフ検索された生成(Graph-Rag)手法でIFCデータを解析して、構築オブジェクトのプロパティとその関係を取得します。
IFCデータの複雑な階層による制限にもかかわらず、グラフラグ解析により、グラフベースの知識を持つGPT-4Oのような生成LLMが強化され、複雑なパイプラインを必要とせずに自然言語のクエリ応答検索を可能にすることが示されます。

要約(オリジナル)

IFC data has become the general building information standard for collaborative work in the construction industry. However, IFC data can be very complicated because it allows for multiple ways to represent the same product information. In this research, we utilise the capabilities of LLMs to parse the IFC data with Graph Retrieval-Augmented Generation (Graph-RAG) technique to retrieve building object properties and their relations. We will show that, despite limitations due to the complex hierarchy of the IFC data, the Graph-RAG parsing enhances generative LLMs like GPT-4o with graph-based knowledge, enabling natural language query-response retrieval without the need for a complex pipeline.

arxiv情報

著者 Sima Iranmanesh,Hadeel Saadany,Edlira Vakaj
発行日 2025-04-23 15:31:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | LLM-assisted Graph-RAG Information Extraction from IFC Data はコメントを受け付けていません

GreenMind: A Next-Generation Vietnamese Large Language Model for Structured and Logical Reasoning

要約

Chain-Of-Thought(COT)は、最終回答を生成する前に中間推論ステップを必要とするLLMタスクに取り組むための堅牢なアプローチです。
このホワイトペーパーでは、グループの相対的な政策最適化に基づいた微調整戦略に触発されたベトナムの推論モデルであるGreenmind-Medium-14B-R1を紹介します。
また、高品質のベトナム合成された推論データセットを活用し、2つの報酬関数を設計して、この手法の主な制限に取り組むことに取り組んでいます。(i)トークンのサンプリング中に偏った言語キャラクターの存在を明示的に検出し、(ii)、発電されたコンテンツが最終的に測定されないように、文化器ベースのモデルを確実にするために、文字器ベースのモデルを削除します。
VLSP 2023チャレンジのベトナムデータセットの実験結果は、モデルが以前の作業よりも優れており、その応答の言語的一貫性を高めることを示しています。
さらに、評価をSeaexam-A多言語の多重選択データセットに拡張し、少数のショットプロンプトテクニックと比較して推論方法の有効性を示しています。

要約(オリジナル)

Chain-of-Thought (CoT) is a robust approach for tackling LLM tasks that require intermediate reasoning steps prior to generating a final answer. In this paper, we present GreenMind-Medium-14B-R1, the Vietnamese reasoning model inspired by the finetuning strategy based on Group Relative Policy Optimization. We also leverage a high-quality Vietnamese synthesized reasoning dataset and design two reward functions to tackle the main limitations of this technique: (i) language mixing, where we explicitly detect the presence of biased language characters during the process of sampling tokens, and (ii) we leverage Sentence Transformer-based models to ensure that the generated reasoning content maintains factual correctness and does not distort the final output. Experimental results on the Vietnamese dataset from the VLSP 2023 Challenge demonstrate that our model outperforms prior works and enhances linguistic consistency in its responses. Furthermore, we extend our evaluation to SeaExam-a multilingual multiple-choice dataset, showing the effectiveness of our reasoning method compared to few-shot prompting techniques.

arxiv情報

著者 Luu Quy Tung,Hoang Quoc Viet,Vo Trong Thu
発行日 2025-04-23 15:48:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | GreenMind: A Next-Generation Vietnamese Large Language Model for Structured and Logical Reasoning はコメントを受け付けていません

Comparative Performance Evaluation of Large Language Models for Extracting Molecular Interactions and Pathway Knowledge

要約

背景:生体分子間の相互作用と調節関係の特定は、複雑な生物学的系と多様な生物学的機能の根底にあるメカニズムを理解する上で極めて重要な役割を果たします。
しかし、このような分子相互作用の収集は、過去の専門家のキュレーションに大きく依存しており、労働集約的で時間がかかります。
これらの課題を軽減するために、この重要な知識のゲノムスケール抽出を自動化するために、大規模な言語モデル(LLM)の機能を活用することを提案します。
結果:この研究では、タンパク質相互作用の認識、低用量放射線の影響を受けた経路に関連する遺伝子の識別、遺伝子調節関係の描写など、生物学的タスクに対処する際のさまざまなLLMの有効性を調査します。
全体として、より大きなモデルは優れた性能を示し、遺伝子とタンパク質間の複雑な相互作用の抽出を伴う特定のタスクの可能性を示しています。
これらのモデルは、異なる遺伝子およびタンパク質グループの詳細情報を持っていましたが、多様な機能を持つグループを特定し、高度に相関した遺伝子調節関係を認識する際に課題に直面しました。
結論:確立された分子相互作用と経路データベースを使用して最先端のモデルの包括的な評価を実施することにより、我々の研究では、LLMが関心のある経路に関連する遺伝子/タンパク質を特定し、相互作用をある程度予測できることが明らかになりました。
さらに、これらのモデルは重要な洞察を提供することができ、AIアシストされた知識発見を通じて生物学的システムの理解を深めることに目立つ進歩を遂げます。

要約(オリジナル)

Background: Identification of the interactions and regulatory relations between biomolecules play pivotal roles in understanding complex biological systems and the mechanisms underlying diverse biological functions. However, the collection of such molecular interactions has heavily relied on expert curation in the past, making it labor-intensive and time-consuming. To mitigate these challenges, we propose leveraging the capabilities of large language models (LLMs) to automate genome-scale extraction of this crucial knowledge. Results: In this study, we investigate the efficacy of various LLMs in addressing biological tasks, such as the recognition of protein interactions, identification of genes linked to pathways affected by low-dose radiation, and the delineation of gene regulatory relationships. Overall, the larger models exhibited superior performance, indicating their potential for specific tasks that involve the extraction of complex interactions among genes and proteins. Although these models possessed detailed information for distinct gene and protein groups, they faced challenges in identifying groups with diverse functions and in recognizing highly correlated gene regulatory relationships. Conclusions: By conducting a comprehensive assessment of the state-of-the-art models using well-established molecular interaction and pathway databases, our study reveals that LLMs can identify genes/proteins associated with pathways of interest and predict their interactions to a certain extent. Furthermore, these models can provide important insights, marking a noteworthy stride toward advancing our understanding of biological systems through AI-assisted knowledge discovery.

arxiv情報

著者 Gilchan Park,Byung-Jun Yoon,Xihaier Luo,Vanessa López-Marrero,Shinjae Yoo,Shantenu Jha
発行日 2025-04-23 16:14:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG | Comparative Performance Evaluation of Large Language Models for Extracting Molecular Interactions and Pathway Knowledge はコメントを受け付けていません