NMCSE: Noise-Robust Multi-Modal Coupling Signal Estimation Method via Optimal Transport for Cardiovascular Disease Detection

要約

心電図(ECG)および音韻(PCG)シグナルは、電気的な心臓の心臓変換を表す潜在的な結合信号によってリンクされています。
心血管疾患(CVD)検出には価値がありますが、この結合シグナルは、ノイズを増幅し、臨床的有用性を制限するデコンボリューション方法を使用して伝統的に推定されています。
このホワイトペーパーでは、ノイズ – ロバストマルチモーダルカップリング信号推定(NMCSE)を提案します。これは、最適な輸送理論を介して分布の一致として問題を再定式化します。
振幅と時間的アライメントを共同で最適化することにより、NMCSEは追加の前処理なしにノイズ増幅を軽減します。
時間空間機能抽出ネットワークと統合されたNMCSEは、堅牢なマルチモーダルCVD検出を可能にします。
Physionet 2016データセットでの実験は、現実的な病院の騒音を使用して、NMCSEがすべてのテストされた信号対雑音比にわたってより高いピアソン相関係数を維持しながら、平均2乗エラーで推定誤差を約30%減らすことを示しています。
私たちのアプローチは、CVD検出で97.38%の精度と0.98 AUCを達成し、最先端の方法を上回り、実際の臨床アプリケーションの堅牢なパフォーマンスを実証します。

要約(オリジナル)

Electrocardiogram (ECG) and Phonocardiogram (PCG) signals are linked by a latent coupling signal representing the electrical-to-mechanical cardiac transformation. While valuable for cardiovascular disease (CVD) detection, this coupling signal is traditionally estimated using deconvolution methods that amplify noise, limiting clinical utility. In this paper, we propose Noise-Robust Multi-Modal Coupling Signal Estimation (NMCSE), which reformulates the problem as distribution matching via optimal transport theory. By jointly optimizing amplitude and temporal alignment, NMCSE mitigates noise amplification without additional preprocessing. Integrated with our Temporal-Spatial Feature Extraction network, NMCSE enables robust multi-modal CVD detection. Experiments on the PhysioNet 2016 dataset with realistic hospital noise demonstrate that NMCSE reduces estimation errors by approximately 30% in Mean Squared Error while maintaining higher Pearson Correlation Coefficients across all tested signal-to-noise ratios. Our approach achieves 97.38% accuracy and 0.98 AUC in CVD detection, outperforming state-of-the-art methods and demonstrating robust performance for real-world clinical applications.

arxiv情報

著者 Peihong Zhang,Zhixin Li,Rui Sang,Yuxuan Liu,Yiqiang Cai,Yizhou Tan,Shengchen Li
発行日 2025-06-02 11:15:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, eess.SP | NMCSE: Noise-Robust Multi-Modal Coupling Signal Estimation Method via Optimal Transport for Cardiovascular Disease Detection はコメントを受け付けていません

CNNSum: Exploring Long-Context Summarization with Large Language Models in Chinese Novels

要約

大規模な言語モデル(LLMS)は、さまざまな長期のタスクでよく研究されています。
ただし、長いコンテキストの要約データセットの希少性は、この分野の進歩を妨げます。
これに対処するために、中国の小説に基づいたマルチスケールの長いコンテキスト要約ベンチマークであるCNNSUMを紹介します。これは、合計695サンプルの4つのサブセットにわたって人間主導の注釈が特徴で、長さは16Kから128Kの範囲です。
多数のLLMをベンチマークし、異常な出力タイプを要約するために詳細な人間の評価を実施します。
さらに、長いコンテキストの要約を改善する方法を広範囲に探求します。
私たちの研究では、(1)高度なLLMが多くの主観的な解説を生成し、あいまいな要約につながる可能性があります。
(2)現在、長いコンテキストの要約は、主にメモリ能力に依存しています。
大規模なLLMの利点は利用が困難であるため、小さなLLMSはより費用対効果が高くなります。
(3)さまざまなバージョンモデルと組み合わせたさまざまなプロンプトタイプは、パフォーマンスのギャップが大きい場合があります。
さらに微調整すると、これらは軽減でき、ベースバージョンモデルのパフォーマンスが向上します。
(4)ロープベースのスケーリングされたLLMSは、強力な外挿ポテンシャルを示します。
ショートコンテキストデータを使用すると、長いコンテキストの要約パフォーマンスが大幅に向上する可能性があります。
ただし、他の補間方法をさらに適用するには、慎重に選択する必要があります。
(5)CNNSUMは、他のベンチマークよりも信頼性の高い評価結果を提供します。
将来の研究を進めるためにcnnsumをリリースします。(https://github.com/cxsghost/cnnsum)

要約(オリジナル)

Large language models (LLMs) have been well-researched in various long-context tasks. However, the scarcity of long-context summarization datasets hinders progress in this area. To address this, we introduce CNNSum, a multi-scale long-context summarization benchmark based on Chinese novels, featuring human-driven annotations across four subsets totaling 695 samples, with lengths ranging from 16k to 128k. We benchmark numerous LLMs and conduct detailed human assessments to summarize abnormal output types. Furthermore, we extensively explore how to improve long-context summarization. In our study: (1) Advanced LLMs may generate much subjective commentary, leading to vague summaries. (2) Currently, long-context summarization mainly relies on memory ability. The advantages of Large LLMs are hard to utilize, thus small LLMs are more cost-effective. (3) Different prompt types paired with various version models may cause large performance gaps. In further fine-tuning, these can be mitigated, and the Base version models perform better. (4) LLMs with RoPE-base scaled exhibit strong extrapolation potential; using short-context data can significantly improve long-context summarization performance. However, further applying other interpolation methods requires careful selection. (5) CNNSum provides more reliable evaluation results than other benchmarks. We release CNNSum to advance future research.(https://github.com/CxsGhost/CNNSum)

arxiv情報

著者 Lingxiao Wei,He Yan,Xiangju Lu,Junmin Zhu,Jun Wang,Wei Zhang
発行日 2025-06-02 11:31:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | CNNSum: Exploring Long-Context Summarization with Large Language Models in Chinese Novels はコメントを受け付けていません

Enhancing Transformers for Generalizable First-Order Logical Entailment

要約

トランスフォーマーは、基本的な深い学習アーキテクチャとして、推論に大きな能力を実証しています。
このペーパーでは、パラメーター化された知識とそれを改善する方法を使用した変圧器の一般化可能な1次論理推論能力について説明します。
トランスの1次推論の能力は、知識グラフのクエリに答える際のパフォーマンスによって定量的に測定される一次論理的密接を行うことができるかどうかによってさらに捉えられます。
(1)分散式の一般化で研究された2種類の分布シフトと、(2)知識グラフクエリ応答のタスクで説明されている目に見えない知識とクエリの設定との接続を確立します。
包括的なデータセットの結果は、トランスがこのタスクのために特に設計された以前の方法よりも優れていることを示し、トランスの推論能力に関する入力クエリ構文、トークン埋め込み、トランスアーキテクチャの影響に関する詳細な経験的証拠を提供しました。
興味深いことに、我々の結果は、以前のプラクティスにおける位置エンコードの不一致とトランスアーキテクチャのその他の設計の選択を明らかにしました。
これに動機付けられて、私たちは、一般化可能な一次論理的密接のパフォーマンスを大幅に改善する論理認識アーキテクチャであるTegaを提案します。

要約(オリジナル)

Transformers, as the fundamental deep learning architecture, have demonstrated great capability in reasoning. This paper studies the generalizable first-order logical reasoning ability of transformers with their parameterized knowledge and how to improve it. Transformers’ capability of first-order reasoning is further captured by whether they can conduct first-order logical entailment, which is quantitatively measured by their performance in answering knowledge graph queries. We establish the connections between (1) two types of distribution shifts studied in out-of-distribution generalization and (2) unseen knowledge and query settings discussed in the task of knowledge graph query answering, which makes it possible to characterize the fine-grained generalizability. Results on our comprehensive dataset showed that transformers outperform previous methods designed particularly for this task and provided detailed empirical evidence about the impact of the input query syntax, token embedding, and transformer architectures on the reasoning capability of transformers. Interestingly, our results revealed the mismatch of positional encoding and other design choices of transformer architectures in previous practices. Motivated by this, we propose TEGA, a logic-aware architecture that significantly improves the performance in generalizable first-order logical entailment.

arxiv情報

著者 Tianshi Zheng,Jiazheng Wang,Zihao Wang,Jiaxin Bai,Hang Yin,Zheye Deng,Yangqiu Song,Jianxin Li
発行日 2025-06-02 11:36:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | Enhancing Transformers for Generalizable First-Order Logical Entailment はコメントを受け付けていません

E^2GraphRAG: Streamlining Graph-based RAG for High Efficiency and Effectiveness

要約

GraphRagのようなグラフベースのRAGメソッドは、階層エンティティグラフを構築することにより、知識ベースの有望なグローバルな理解を示しています。
しかし、彼らはしばしば非効率性に苦しみ、手動で事前に定義されたクエリモードに依存しており、実用的な使用が制限されます。
この論文では、効率と有効性の両方を改善する合理化されたグラフベースのRAGフレームワークであるE^2Graphragを提案します。
インデックス段階では、E^2Graphragは、大きな言語モデルを備えた要約ツリーを構築し、ドキュメントチャンクに基づいてスペイシーを持つエンティティグラフを構築します。
次に、エンティティとチャンク間の双方向インデックスを構築して、多くの関係を獲得し、ローカルおよびグローバル検索の両方で迅速に検索できるようにします。
検索段階では、グラフ構造を活用してローカルモードとグローバルモードを取得して選択する適応型検索戦略を設計します。
実験では、e^2graphragは、競争力のあるQAパフォーマンスを維持しながら、GraphRagよりも最大10倍高速なインデックス作成を実現し、検索中のLightragよりも100倍高速化することが示されています。

要約(オリジナル)

Graph-based RAG methods like GraphRAG have shown promising global understanding of the knowledge base by constructing hierarchical entity graphs. However, they often suffer from inefficiency and rely on manually pre-defined query modes, limiting practical use. In this paper, we propose E^2GraphRAG, a streamlined graph-based RAG framework that improves both Efficiency and Effectiveness. During the indexing stage, E^2GraphRAG constructs a summary tree with large language models and an entity graph with SpaCy based on document chunks. We then construct bidirectional indexes between entities and chunks to capture their many-to-many relationships, enabling fast lookup during both local and global retrieval. For the retrieval stage, we design an adaptive retrieval strategy that leverages the graph structure to retrieve and select between local and global modes. Experiments show that E^2GraphRAG achieves up to 10 times faster indexing than GraphRAG and 100 times speedup over LightRAG in retrieval while maintaining competitive QA performance.

arxiv情報

著者 Yibo Zhao,Jiapeng Zhu,Ye Guo,Kangkang He,Xiang Li
発行日 2025-06-02 11:43:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI | E^2GraphRAG: Streamlining Graph-based RAG for High Efficiency and Effectiveness はコメントを受け付けていません

Enhancing LLM-based Hatred and Toxicity Detection with Meta-Toxic Knowledge Graph

要約

ソーシャルメディアプラットフォームの急速な成長は、オンラインコンテンツの毒性に関する大きな懸念を提起しています。
大規模な言語モデル(LLM)が毒性検出に使用される場合、2つの重要な課題が現れます。1)ドメイン固有の毒性知識がないことは、偽陰性につながります。
2)LLMの毒性音声に対する過度の感度は、誤検知をもたらし、言語の自由を制限します。
これらの問題に対処するために、メタトックスと呼ばれる新しい方法を提案し、憎しみと毒性の検出を強化するために、メタ毒性の知識グラフでグラフ検索を活用します。
まず、LLMSを利用して3段階のパイプラインを介して有毒な情報を抽出し、有毒なベンチマークデータセットをコーパンとして機能させることにより、包括的なメタ毒性知識グラフを構築します。
次に、正確で関連する有毒知識を補足するために、検索およびランキングプロセスを介してグラフを照会します。
複数のデータセットにわたる広範な実験と詳細なケーススタディは、メタトックスが誤った陽性率を大幅に低下させ、全体的な毒性検出パフォーマンスを高めることを示しています。
私たちのコードは、https://github.com/yibozhao624/metatoxで入手できます。

要約(オリジナル)

The rapid growth of social media platforms has raised significant concerns regarding online content toxicity. When Large Language Models (LLMs) are used for toxicity detection, two key challenges emerge: 1) the absence of domain-specific toxic knowledge leads to false negatives; 2) the excessive sensitivity of LLMs to toxic speech results in false positives, limiting freedom of speech. To address these issues, we propose a novel method called MetaTox, leveraging graph search on a meta-toxic knowledge graph to enhance hatred and toxicity detection. First, we construct a comprehensive meta-toxic knowledge graph by utilizing LLMs to extract toxic information through a three-step pipeline, with toxic benchmark datasets serving as corpora. Second, we query the graph via retrieval and ranking processes to supplement accurate, relevant toxic knowledge. Extensive experiments and in-depth case studies across multiple datasets demonstrate that our MetaTox significantly decreases the false positive rate while boosting overall toxicity detection performance. Our code is available at https://github.com/YiboZhao624/MetaTox.

arxiv情報

著者 Yibo Zhao,Jiapeng Zhu,Can Xu,Yao Liu,Xiang Li
発行日 2025-06-02 11:45:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | Enhancing LLM-based Hatred and Toxicity Detection with Meta-Toxic Knowledge Graph はコメントを受け付けていません

SepLLM: Accelerate Large Language Models by Compressing One Segment into One Separator

要約

大規模な言語モデル(LLM)は、さまざまな自然言語処理タスクにわたって並外れたパフォーマンスを示しています。
しかし、それらのかなりのサイズは、特に計算上の要求と推論の速度において、彼らの二次の複雑さのためにかなりの課題をもたらします。
この作業では、重要なパターンを特定しました。特定の一見意味のないセパレータートークン(すなわち、句読点)は、意味的に意味のあるトークンと比較して注意スコアに不釣り合いに貢献します。
この観察結果は、これらのセパレータートークン間のセグメントの情報を、重大な情報損失なしにセパレータートークン自体に効果的に凝縮できることを示唆しています。
この洞察に導かれて、これらのセグメントを圧縮して冗長トークンを排除することにより推論を加速するプラグアンドプレイフレームワークであるSepllmを紹介します。
さらに、トレーニングの加速に効率的なカーネルを実装します。
トレーニングなし、クレイチからのトレーニング、およびトレーニング後の設定にわたる実験結果は、SEPLLMの有効性を示しています。
特に、LLAMA-3-8Bバックボーンを使用して、SEPLLMは、同等のパフォーマンスを維持しながら、GSM8K-COTベンチマークでKVキャッシュを50%以上削減します。
さらに、ストリーミング設定では、SEPLLMは、一貫した言語モデリング機能を維持しながら、最大400万トークン以上のシーケンスを効果的に処理します。

要約(オリジナル)

Large Language Models (LLMs) have exhibited exceptional performance across a spectrum of natural language processing tasks. However, their substantial sizes pose considerable challenges, particularly in computational demands and inference speed, due to their quadratic complexity. In this work, we have identified a key pattern: certain seemingly meaningless separator tokens (i.e., punctuations) contribute disproportionately to attention scores compared to semantically meaningful tokens. This observation suggests that information of the segments between these separator tokens can be effectively condensed into the separator tokens themselves without significant information loss. Guided by this insight, we introduce SepLLM, a plug-and-play framework that accelerates inference by compressing these segments and eliminating redundant tokens. Additionally, we implement efficient kernels for training acceleration. Experimental results across training-free, training-from-scratch, and post-training settings demonstrate SepLLM’s effectiveness. Notably, using the Llama-3-8B backbone, SepLLM achieves over 50% reduction in KV cache on the GSM8K-CoT benchmark while maintaining comparable performance. Furthermore, in streaming settings, SepLLM effectively processes sequences of up to 4 million tokens or more while maintaining consistent language modeling capabilities.

arxiv情報

著者 Guoxuan Chen,Han Shi,Jiawei Li,Yihang Gao,Xiaozhe Ren,Yimeng Chen,Xin Jiang,Zhenguo Li,Weiyang Liu,Chao Huang
発行日 2025-06-02 11:46:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG | SepLLM: Accelerate Large Language Models by Compressing One Segment into One Separator はコメントを受け付けていません

PepTune: De Novo Generation of Therapeutic Peptides with Multi-Objective-Guided Discrete Diffusion

要約

治療ペプチドの笑顔の同時生成と最適化のための多目的離散拡散モデルであるPeptuneを提示します。
マスクされた離散言語モデル(MDLM)フレームワークに基づいて構築されたPeptuneは、新しい結合依存マスキングスケジュールと無効な損失関数を備えた有効なペプチド構造を保証します。
拡散プロセスを導くために、検査と搾取のバランスをとる推論時の多目的ガイダンスアルゴリズムであるモンテカルロツリーガイダンス(MCTG)を紹介します。
MCTGは、分類器ベースの報酬を検索ツリーの拡張と統合し、勾配推定の課題とデータスパースを克服します。
Peptuneを使用して、さまざまな疾患関連ターゲットの標的結合親和性、膜透過性、溶解度、溶血、および非フーリングなど、複数の治療特性に対して同時に最適化された多様な化学的に修飾されたペプチドを生成します。
合計で、我々の結果は、マスクされた離散拡散のMCTGが、離散状態空間での多目的シーケンス設計の強力でモジュール式アプローチであることを示しています。

要約(オリジナル)

We present PepTune, a multi-objective discrete diffusion model for simultaneous generation and optimization of therapeutic peptide SMILES. Built on the Masked Discrete Language Model (MDLM) framework, PepTune ensures valid peptide structures with a novel bond-dependent masking schedule and invalid loss function. To guide the diffusion process, we introduce Monte Carlo Tree Guidance (MCTG), an inference-time multi-objective guidance algorithm that balances exploration and exploitation to iteratively refine Pareto-optimal sequences. MCTG integrates classifier-based rewards with search-tree expansion, overcoming gradient estimation challenges and data sparsity. Using PepTune, we generate diverse, chemically-modified peptides simultaneously optimized for multiple therapeutic properties, including target binding affinity, membrane permeability, solubility, hemolysis, and non-fouling for various disease-relevant targets. In total, our results demonstrate that MCTG for masked discrete diffusion is a powerful and modular approach for multi-objective sequence design in discrete state spaces.

arxiv情報

著者 Sophia Tang,Yinuo Zhang,Pranam Chatterjee
発行日 2025-06-02 12:07:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, q-bio.BM | PepTune: De Novo Generation of Therapeutic Peptides with Multi-Objective-Guided Discrete Diffusion はコメントを受け付けていません

Inverse Entropic Optimal Transport Solves Semi-supervised Learning via Data Likelihood Maximization

要約

学習条件付き分布$ \ pi^*(\ cdot | x)$は機械学習の中心的な問題であり、通常、ペアのデータ$(x、y)\ sim \ pi^*$を使用した教師の方法を介してアプローチされます。
ただし、特にドメイン翻訳などの問題では、ペアのデータサンプルを取得することはしばしば困難です。
これには、限られたペアデータと追加の対応のないi.i.d.
サンプル$ x \ sim \ pi^*_ x $および$ y \ sim \ pi^*_ y $からの限界分布から。
このような複合データの使用は複雑であり、多くの場合、ヒューリスティックなアプローチに依存しています。
この問題に取り組むために、データの最尤法を使用して、ペアのデータ$ \ textBf {Seamlessly} $を統合する新しい学習パラダイムを提案します。
私たちのアプローチは、逆エントロピー最適輸送(OT)と興味深く接続していることを実証します。
この発見により、$ \ pi^*(\ cdot | x)$を取得するために、$ \ textbf {end-to-end} $学習アルゴリズムを確立するために、計算OTの最近の進歩を適用することができます。
さらに、ユニバーサル近似プロパティを導き出し、私たちのアプローチが任意の小さなエラーで真の条件分布を理論的に回復できることを実証します。
さらに、経験的テストを通じて、私たちの方法は、ペア付きデータと対応のないデータを同時に使用して条件付き分布を効果的に学習することを実証します。

要約(オリジナル)

Learning conditional distributions $\pi^*(\cdot|x)$ is a central problem in machine learning, which is typically approached via supervised methods with paired data $(x,y) \sim \pi^*$. However, acquiring paired data samples is often challenging, especially in problems such as domain translation. This necessitates the development of $\textit{semi-supervised}$ models that utilize both limited paired data and additional unpaired i.i.d. samples $x \sim \pi^*_x$ and $y \sim \pi^*_y$ from the marginal distributions. The usage of such combined data is complex and often relies on heuristic approaches. To tackle this issue, we propose a new learning paradigm that integrates both paired and unpaired data $\textbf{seamlessly}$ using the data likelihood maximization techniques. We demonstrate that our approach also connects intriguingly with inverse entropic optimal transport (OT). This finding allows us to apply recent advances in computational OT to establish an $\textbf{end-to-end}$ learning algorithm to get $\pi^*(\cdot|x)$. In addition, we derive the universal approximation property, demonstrating that our approach can theoretically recover true conditional distributions with arbitrarily small error. Furthermore, we demonstrate through empirical tests that our method effectively learns conditional distributions using paired and unpaired data simultaneously.

arxiv情報

著者 Mikhail Persiianov,Arip Asadulaev,Nikita Andreev,Nikita Starodubcev,Dmitry Baranchuk,Anastasis Kratsios,Evgeny Burnaev,Alexander Korotin
発行日 2025-06-02 12:23:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | Inverse Entropic Optimal Transport Solves Semi-supervised Learning via Data Likelihood Maximization はコメントを受け付けていません

Depth-Constrained ASV Navigation with Deep RL and Limited Sensing

要約

自律型地表車(ASV)は、海事作戦で重要な役割を果たしますが、浅い水環境でのナビゲーションは、動的な障害と深さの制約のために依然として困難です。
従来のナビゲーション戦略は、限られたセンサー情報と闘い、安全で効率的な操作を困難にしています。
このホワイトペーパーでは、深さの制約の下でASVナビゲーションの強化学習(RL)フレームワークを提案します。ここでは、車両がターゲットに到達する必要がありますが、下向きの単一ビームエコーサウンダー(SBES)からタイムステップごとに単一の深度測定のみを避けます。
環境意識を高めるために、ガウスプロセス(GP)の回帰をRLフレームワークに統合し、エージェントがまばらなソナーの測定値から潜水孔の深さマップを徐々に推定できるようにします。
このアプローチは、環境のより豊かな表現を提供することにより、意思決定を改善します。
さらに、効果的なSIMからリアルへの転送を実証し、訓練されたポリシーが実際の水生条件に適切に一般化することを保証します。
実験結果は、浅い水環境に挑戦するために安全性を維持しながら、ASVナビゲーションパフォーマンスを改善する方法の能力を検証します。

要約(オリジナル)

Autonomous Surface Vehicles (ASVs) play a crucial role in maritime operations, yet their navigation in shallow-water environments remains challenging due to dynamic disturbances and depth constraints. Traditional navigation strategies struggle with limited sensor information, making safe and efficient operation difficult. In this paper, we propose a reinforcement learning (RL) framework for ASV navigation under depth constraints, where the vehicle must reach a target while avoiding unsafe areas with only a single depth measurement per timestep from a downward-facing Single Beam Echosounder (SBES). To enhance environmental awareness, we integrate Gaussian Process (GP) regression into the RL framework, enabling the agent to progressively estimate a bathymetric depth map from sparse sonar readings. This approach improves decision-making by providing a richer representation of the environment. Furthermore, we demonstrate effective sim-to-real transfer, ensuring that trained policies generalize well to real-world aquatic conditions. Experimental results validate our method’s capability to improve ASV navigation performance while maintaining safety in challenging shallow-water environments.

arxiv情報

著者 Amirhossein Zhalehmehrabi,Daniele Meli,Francesco Dal Santo,Francesco Trotti,Alessandro Farinelli
発行日 2025-06-02 12:35:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | Depth-Constrained ASV Navigation with Deep RL and Limited Sensing はコメントを受け付けていません

Bone Soups: A Seek-and-Soup Model Merging Approach for Controllable Multi-Objective Generation

要約

ユーザー情報のニーズは、多くの場合、非常に多様で多様です。
現在の研究における重要な課題は、テスト時間中に多様なユーザーの需要に対応するための迅速な適応を可能にしながら、制御可能な多目的生成を達成する方法です。
報酬のあるスープなどの既存のソリューションは、単一の目的で個別に調整された言語モデルのマージに焦点を当てています。
実装が容易で広く使用されていますが、これらのアプローチは、モデルチューニングに対する競合する目標の影響を無視するため、最適なパフォーマンスを達成するための制限に直面しています。
この問題に対処するために、骨スープを提案します。これは、複数の目的の影響を考慮して、最初に一連のバックボーンモデルを探してからスープを作成する(つまり、バックボーンモデルをマージする)骨スープを提案します。
具体的には、骨スープは、多目的強化学習を使用して、さまざまな目的で複数のバックボーンモデルをトレーニングすることから始まります。
各バックボーンモデルは、バックボーン報酬信号の組み合わせによって導かれます。
これらのモデルがパレートフロントに最適であることを確認するために、バックボーンの報酬は、標準の報酬関数を基底ベクトルに組み合わせることで作成され、ルールベースの構築方法を通じて変更できます。
骨スープは、対称循環マトリックスマッピングを活用して、ユーザーの好みに応じてバックボーンモデルをマージするために使用されるマージ係数を生成します。
広範な実験結果は、骨スープが制御可能な多目的生成において強力な制御性とパレートの最適性を示すことを示しており、テスト時に多様なユーザーニーズに対処するためのより効果的で効率的なアプローチを提供します。

要約(オリジナル)

User information needs are often highly diverse and varied. A key challenge in current research is how to achieve controllable multi-objective generation while enabling rapid adaptation to accommodate diverse user demands during test time. Existing solutions, such as Rewarded Soup, focus on merging language models individually tuned on single objectives. While easy to implement and widely used, these approaches face limitations in achieving optimal performance due to their disregard for the impacts of competing objectives on model tuning. To address this issue, we propose Bone Soup, a novel model merging approach that first seeks a series of backbone models by considering the impacts of multiple objectives and then makes the soup (i.e., merge the backbone models). Specifically, Bone Soup begins by training multiple backbone models for different objectives using multi-objective reinforcement learning. Each backbone model is guided by a combination of backbone reward signals. To ensure that these models are optimal for the Pareto front, the backbone rewards are crafted by combining standard reward functions into basis vectors, which can then be modified through a rule-based construction method. Bone Soup leverages a symmetric circulant matrix mapping to generate the merging coefficients, which are used to merge the backbone models according to user preferences. Extensive experimental results demonstrate that Bone Soup exhibits strong controllability and Pareto optimality in controllable multi-objective generation, providing a more effective and efficient approach to addressing diverse user needs at test time.

arxiv情報

著者 Guofu Xie,Xiao Zhang,Ting Yao,Yunsheng Shi
発行日 2025-06-02 12:51:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG | Bone Soups: A Seek-and-Soup Model Merging Approach for Controllable Multi-Objective Generation はコメントを受け付けていません