Exploring the Potential for Large Language Models to Demonstrate Rational Probabilistic Beliefs

要約

大規模な言語モデル(LLMS)の一般的な能力の進歩により、情報検索の使用、および自動決定システムのコンポーネントとして使用されています。
これらのモデルにおける確率的推論の忠実な表現は、これらのタスクで信頼できる、説明可能で効果的なパフォーマンスを確保するために不可欠かもしれません。
LLMSが複雑な推論と十分に調整された不確実性の定量化を実行できることを示唆する以前の研究にもかかわらず、このクラスのモデルの現在のバージョンには、確率的信念の合理的で首尾一貫した表現を提供する能力がないことがわかります。
これを実証するために、不確定な真理値を持つクレームの新しいデータセットを導入し、不確実性の定量化のための多くの確立された手法を適用して、LLMの能力を測定して、確率的推論の基本的特性を順守します。

要約(オリジナル)

Advances in the general capabilities of large language models (LLMs) have led to their use for information retrieval, and as components in automated decision systems. A faithful representation of probabilistic reasoning in these models may be essential to ensure trustworthy, explainable and effective performance in these tasks. Despite previous work suggesting that LLMs can perform complex reasoning and well-calibrated uncertainty quantification, we find that current versions of this class of model lack the ability to provide rational and coherent representations of probabilistic beliefs. To demonstrate this, we introduce a novel dataset of claims with indeterminate truth values and apply a number of well-established techniques for uncertainty quantification to measure the ability of LLM’s to adhere to fundamental properties of probabilistic reasoning.

arxiv情報

著者 Gabriel Freedman,Francesca Toni
発行日 2025-04-18 11:50:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | Exploring the Potential for Large Language Models to Demonstrate Rational Probabilistic Beliefs はコメントを受け付けていません

Order is All You Need for Categorical Data Clustering

要約

定性的評価属性で構成されるカテゴリデータは、機械学習タスクで遍在しています。
明確に定義されたメトリック空間がないため、カテゴリのデータ分布を直感的に理解することは困難です。
クラスタリングは、データ分布の理解に適した一般的なデータ分析手法です。
ただし、クラスタリングの成功は、多くの場合、合理的な距離メトリックに依存しています。これは、たまたまカテゴリーデータが自然に欠けているものです。
したがって、このホワイトペーパーでは、属性値間の順序関係がクラスタリングの精度の決定的な要因であるという新しい発見を紹介し、クラスタリングの本質はサンプルへの入場の観点からクラスターを注文することであるため、カテゴリデータクラスターを理解するための鍵でもあります。
注文を取得するために、クラスターと注文の共同学習を可能にする新しい学習パラダイムを提案します。
代わりに、注文に基づいて構築された距離メトリックに基づいてデータをクラスターに分割し、クラスターに従って最も可能性の高い注文を推定します。
このアルゴリズムは、収束保証を使用して優れたクラスタリング精度を達成し、学習した注文は、カテゴリデータの直感的でないクラスター分布の理解を促進します。
アブレーション研究、統計的証拠、およびケーススタディに関する広範な実験により、価値順序の重要性と方法提案に関する新しい洞察が検証されました。
ソースコードは、https://anonymous.4open.science/r/ocl-demoで一時的に開かれています。

要約(オリジナル)

Categorical data composed of qualitative valued attributes are ubiquitous in machine learning tasks. Due to the lack of well-defined metric space, categorical data distributions are difficult to be intuitively understood. Clustering is a popular data analysis technique suitable for data distribution understanding. However, the success of clustering often relies on reasonable distance metrics, which happens to be what categorical data naturally lack. This paper therefore introduces a new finding that the order relation among attribute values is the decisive factor in clustering accuracy, and is also the key to understanding categorical data clusters, because the essence of clustering is to order the clusters in terms of their admission to samples. To obtain the orders, we propose a new learning paradigm that allows joint learning of clusters and the orders. It alternatively partitions the data into clusters based on the distance metric built upon the orders and estimates the most likely orders according to the clusters. The algorithm achieves superior clustering accuracy with a convergence guarantee, and the learned orders facilitate the understanding of the non-intuitive cluster distribution of categorical data. Extensive experiments with ablation studies, statistical evidence, and case studies have validated the new insight into the importance of value order and the method proposition. The source code is temporarily opened in https://anonymous.4open.science/r/OCL-demo.

arxiv情報

著者 Yiqun Zhang,Mingjie Zhao,Hong Jia,Yang Lu,Mengke Li,Yiu-ming Cheung
発行日 2025-04-18 12:15:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ML | Order is All You Need for Categorical Data Clustering はコメントを受け付けていません

Multi-Type Context-Aware Conversational Recommender Systems via Mixture-of-Experts

要約

会話の推奨システムは、自然言語の会話を可能にし、より魅力的で効果的な推奨シナリオにつながります。
推奨システムの会話には通常、限られたコンテキスト情報が含まれているため、多くの既存の会話型推奨システムには、コンテキスト情報を豊かにするために外部ソースが組み込まれています。
ただし、さまざまな種類のコンテキスト情報を組み合わせる方法は依然として課題です。
このホワイトペーパーでは、MCCRSと呼ばれるマルチタイプのコンテキスト対応会話推奨システムを提案し、会話型推奨システムを改善するために、専門家の混合物を介してマルチタイプのコンテキスト情報を効果的に融合させます。
MCCRSには、構造化された知識グラフ、非構造化された会話履歴、非構造化されたアイテムレビューなど、構造化された情報と構造化されていない情報の両方が組み込まれています。
それは数人の専門家で構成されており、各専門家は特定のドメインに特化しています(つまり、特定のコンテキスト情報の1つ)。
その後、複数の専門家がチェアボットによって調整され、最終結果が生成されます。
提案されているMCCRSモデルは、さまざまなコンテキスト情報を利用し、さまざまな専門家の専門化に続いてチェアボットが続き、単一のコンテキスト情報でモデルボトルネックを破ります。
実験結果は、提案されたMCCRS法が既存のベースラインと比較して大幅に高いパフォーマンスを達成することを示しています。

要約(オリジナル)

Conversational recommender systems enable natural language conversations and thus lead to a more engaging and effective recommendation scenario. As the conversations for recommender systems usually contain limited contextual information, many existing conversational recommender systems incorporate external sources to enrich the contextual information. However, how to combine different types of contextual information is still a challenge. In this paper, we propose a multi-type context-aware conversational recommender system, called MCCRS, effectively fusing multi-type contextual information via mixture-of-experts to improve conversational recommender systems. MCCRS incorporates both structured information and unstructured information, including the structured knowledge graph, unstructured conversation history, and unstructured item reviews. It consists of several experts, with each expert specialized in a particular domain (i.e., one specific contextual information). Multiple experts are then coordinated by a ChairBot to generate the final results. Our proposed MCCRS model takes advantage of different contextual information and the specialization of different experts followed by a ChairBot breaks the model bottleneck on a single contextual information. Experimental results demonstrate that our proposed MCCRS method achieves significantly higher performance compared to existing baselines.

arxiv情報

著者 Jie Zou,Cheng Lin,Weikang Guo,Zheng Wang,Jiwei Wei,Yang Yang,Hengtao Shen
発行日 2025-04-18 12:28:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.IR | Multi-Type Context-Aware Conversational Recommender Systems via Mixture-of-Experts はコメントを受け付けていません

Is In-Context Learning Sufficient for Instruction Following in LLMs?

要約

コンテキスト内学習(ICL)により、LLMSは体重を変更せずに例から学習できます。これは、多くの例から学習できる潜在的な長いコンテキストLLMの特に有望な能力です。
最近、リン等。
(2024)urialを提案しました。これは、ベースLLMSを整列させるために3つのコンテキストの例のみを使用した方法であり、パフォーマンス後の非自明な指導を達成しました。
この作業では、特により有能なベースLLMを使用して、確立されたベンチマークMTベンチでの微調整と比較して、効果的ではあるが、ウリアルとのICLアラインメントがまだ不パフォーマンスの低いことを示しています。
次に、コンテキスト内アライメントを成功させるために最も関連性の高い要素を明らかにし、デコードパラメーターの重要な役割を見つけます。
これらの洞察に基づいて、貪欲な検索、コンテキストのデモンストレーションを介して高品質の潜在的に慎重に選択され、指示モデルのパフォーマンスに近づくことで、urialのアプローチが実際に改善できることを示しています。
最後に、ICLがIFTの実行可能な代替手段になる可能性のある低データ制度での命令のために、ICLと命令微調整(IFT)の体系的な比較を知るために、最初のものを提供します。
全体として、私たちの仕事は、AlignmentテクニックとしてのICLの理解とIFTとの関係を進めています。
https://github.com/tml-epfl/icl-alignmentでコードを提供します。

要約(オリジナル)

In-context learning (ICL) allows LLMs to learn from examples without changing their weights: this is a particularly promising capability for long-context LLMs that can potentially learn from many examples. Recently, Lin et al. (2024) proposed URIAL, a method using only three in-context examples to align base LLMs, achieving non-trivial instruction following performance. In this work, we show that, while effective, ICL alignment with URIAL still underperforms compared to instruction fine-tuning on the established benchmark MT-Bench, especially with more capable base LLMs. We then uncover the most relevant elements for successful in-context alignment, finding the crucial role of the decoding parameters. Based on these insights, we show that the approach of URIAL can indeed be improved by adding high-quality, potentially carefully selected via greedy search, demonstrations in context, getting closer to the performance of instruct models. Finally, we provide the first, to our knowledge, systematic comparison of ICL and instruction fine-tuning (IFT) for instruction following in the low data regime, where ICL can be a viable alternative to IFT. Overall, our work advances the understanding of ICL as an alignment technique and its relationship to IFT. We provide our code at https://github.com/tml-epfl/icl-alignment.

arxiv情報

著者 Hao Zhao,Maksym Andriushchenko,Francesco Croce,Nicolas Flammarion
発行日 2025-04-18 12:31:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG | Is In-Context Learning Sufficient for Instruction Following in LLMs? はコメントを受け付けていません

Do Prompt Patterns Affect Code Quality? A First Empirical Assessment of ChatGPT-Generated Code

要約

大規模な言語モデル(LLM)は、特にコード生成において、ソフトウェア開発を急速に変換しました。
しかし、幻覚や品質の問題に陥りやすい彼らの一貫性のないパフォーマンスは、プログラムの理解を複雑にし、保守性を妨げます。
調査によると、迅速なエンジニアリング – 関連する出力を生成するためにLLMを指示するために入力を設計する実践は、これらの課題に対処するのに役立ちます。
この点で、研究者は、ユーザーがリクエストの策定を導くことを目的とした構造化されたテンプレート、迅速なパターンを導入しました。
ただし、コードの品質に対する迅速なパターンの影響は、まだ徹底的に調査されていません。
この関係の理解の向上は、コード生成にLLMを効果的に使用する方法に関する集合的な知識を進め、それによって現代のソフトウェア開発における理解可能性を向上させるために不可欠です。
このペーパーでは、Dev-GPTデータセットを使用して、コードの品質、特に保守性、セキュリティ、信頼性に対する迅速なパターンの影響を経験的に調査します。
結果は、ゼロショットプロンプトが最も一般的であり、その後、チェーンと少数のショットを備えたゼロショットが続くことを示しています。
品質メトリック全体の7583コードファイルの分析により、最小限の問題が明らかになり、Kruskal-Wallisテストはパターン間の有意差がないことを示しており、迅速な構造がChatGPTアシストコード生成のこれらの品質メトリックに実質的に影響を与えない可能性があることを示唆しています。

要約(オリジナル)

Large Language Models (LLMs) have rapidly transformed software development, especially in code generation. However, their inconsistent performance, prone to hallucinations and quality issues, complicates program comprehension and hinders maintainability. Research indicates that prompt engineering-the practice of designing inputs to direct LLMs toward generating relevant outputs-may help address these challenges. In this regard, researchers have introduced prompt patterns, structured templates intended to guide users in formulating their requests. However, the influence of prompt patterns on code quality has yet to be thoroughly investigated. An improved understanding of this relationship would be essential to advancing our collective knowledge on how to effectively use LLMs for code generation, thereby enhancing their understandability in contemporary software development. This paper empirically investigates the impact of prompt patterns on code quality, specifically maintainability, security, and reliability, using the Dev-GPT dataset. Results show that Zero-Shot prompting is most common, followed by Zero-Shot with Chain-of-Thought and Few-Shot. Analysis of 7583 code files across quality metrics revealed minimal issues, with Kruskal-Wallis tests indicating no significant differences among patterns, suggesting that prompt structure may not substantially impact these quality metrics in ChatGPT-assisted code generation.

arxiv情報

著者 Antonio Della Porta,Stefano Lambiase,Fabio Palomba
発行日 2025-04-18 12:37:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.SE | Do Prompt Patterns Affect Code Quality? A First Empirical Assessment of ChatGPT-Generated Code はコメントを受け付けていません

Diffusion Transformers for Tabular Data Time Series Generation

要約

表形式のデータ生成は、アプリケーションのシナリオが異なるため、最近、関心が高まっています。
ただし、シリーズの各要素が他の要素に依存している合計データの時系列を生成することは、ほとんど未踏のドメインのままです。
このギャップは、おそらく異なる問題を共同で解決することの難しさによるものであり、その主なものは表形式データの不均一性(非時間依存的アプローチに共通する問題)と時系列の変動長です。
この論文では、表形式のデータ系列生成のための拡散トランス(DITS)ベースのアプローチを提案します。
画像とビデオの生成におけるDITの最近の成功に触発されて、このフレームワークを拡張して、不均一なデータと可変長シーケンスに対処します。
6つのデータセットでの広範な実験を使用して、提案されたアプローチが以前の作業を大きなマージンで上回ることを示しています。

要約(オリジナル)

Tabular data generation has recently attracted a growing interest due to its different application scenarios. However, generating time series of tabular data, where each element of the series depends on the others, remains a largely unexplored domain. This gap is probably due to the difficulty of jointly solving different problems, the main of which are the heterogeneity of tabular data (a problem common to non-time-dependent approaches) and the variable length of a time series. In this paper, we propose a Diffusion Transformers (DiTs) based approach for tabular data series generation. Inspired by the recent success of DiTs in image and video generation, we extend this framework to deal with heterogeneous data and variable-length sequences. Using extensive experiments on six datasets, we show that the proposed approach outperforms previous work by a large margin.

arxiv情報

著者 Fabrizio Garuti,Enver Sangineto,Simone Luetto,Lorenzo Forni,Rita Cucchiara
発行日 2025-04-18 12:55:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | Diffusion Transformers for Tabular Data Time Series Generation はコメントを受け付けていません

Large Language Models Will Change The Way Children Think About Technology And Impact Every Interaction Paradigm

要約

この論文は、大規模な言語モデルの潜在的に劇的な影響が、私たちの子供がどのように学習し、どのようにテクノロジーとのやり取りを期待するかについての希望に満ちた視点を示しています。
これまでの教育に対するLLMSの効果をレビューし、これらの効果が発生している今後の変更と比較して軽微であると主張します。
これらの変化の効果を実証する小さなシナリオと自己表現研究を提示し、インタラクティブなシステム設計者が将来対応しなければならない5つの重要な考慮事項を定義します。

要約(オリジナル)

This paper presents a hopeful perspective on the potentially dramatic impacts of Large Language Models on how we children learn and how they will expect to interact with technology. We review the effects of LLMs on education so far, and make the case that these effects are minor compared to the upcoming changes that are occurring. We present a small scenario and self-ethnographic study demonstrating the effects of these changes, and define five significant considerations that interactive systems designers will have to accommodate in the future.

arxiv情報

著者 Russell Beale
発行日 2025-04-18 13:01:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.HC | Large Language Models Will Change The Way Children Think About Technology And Impact Every Interaction Paradigm はコメントを受け付けていません

Trace Gadgets: Minimizing Code Context for Machine Learning-Based Vulnerability Prediction

要約

インターネットにさらされたWebアプリケーションとAPIエンドポイントの数が増加し続けるにつれて、悪用可能な脆弱性の数も増加します。
そのような脆弱性を手動で識別することは退屈です。
一方、静的セキュリティスキャナーは多くの誤検知を生成する傾向があります。
機械学習ベースのアプローチは有望ですが、通常、トレーニングとテストデータが密接に関連しているシナリオでのみうまく機能します。
MLベースの脆弱性検出の重要な課題は、過度に長いコンテキストが機械学習モデル、特に小さいモデルのコード理解能力に悪影響を与えるため、適切な簡潔なコードコンテキストを提供することです。
この作業では、非関連コードを削除してコードコンテキストを最小化する新しいコード表現であるTraceガジェットを紹介します。
トレースガジェットは、脆弱性へのパスをカバーするステートメントを正確にキャプチャします。
MLモデルの入力として、Traceガジェットは最小限であるが完全なコンテキストを提供し、それにより検出性能が向上します。
さらに、MLベースの脆弱性検出器のパフォーマンスをさらに向上させるために、手動でキュレーションされたラベルを使用して、実世界のアプリケーションから生成された大規模なデータセットを収集します。
私たちの結果は、TRACEガジェットを使用する場合、以前のコード表現と比較してトレースガジェットを使用する場合に最適なパフォーマンスを示し、GitHubのCodeQLなどの業界標準の静的スキャナーの検出機能を上回り、完全に見えないデータセットで少なくとも4%上回っています。
フレームワークを実際のアプリケーションに適用することにより、広く展開されたソフトウェアで以前は未知の脆弱性を特定して報告します。

要約(オリジナル)

As the number of web applications and API endpoints exposed to the Internet continues to grow, so does the number of exploitable vulnerabilities. Manually identifying such vulnerabilities is tedious. Meanwhile, static security scanners tend to produce many false positives. While machine learning-based approaches are promising, they typically perform well only in scenarios where training and test data are closely related. A key challenge for ML-based vulnerability detection is providing suitable and concise code context, as excessively long contexts negatively affect the code comprehension capabilities of machine learning models, particularly smaller ones. This work introduces Trace Gadgets, a novel code representation that minimizes code context by removing non-related code. Trace Gadgets precisely capture the statements that cover the path to the vulnerability. As input for ML models, Trace Gadgets provide a minimal but complete context, thereby improving the detection performance. Moreover, we collect a large-scale dataset generated from real-world applications with manually curated labels to further improve the performance of ML-based vulnerability detectors. Our results show that state-of-the-art machine learning models perform best when using Trace Gadgets compared to previous code representations, surpassing the detection capabilities of industry-standard static scanners such as GitHub’s CodeQL by at least 4% on a fully unseen dataset. By applying our framework to real-world applications, we identify and report previously unknown vulnerabilities in widely deployed software.

arxiv情報

著者 Felix Mächtle,Nils Loose,Tim Schulz,Florian Sieck,Jan-Niclas Serr,Ralf Möller,Thomas Eisenbarth
発行日 2025-04-18 13:13:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR | Trace Gadgets: Minimizing Code Context for Machine Learning-Based Vulnerability Prediction はコメントを受け付けていません

Revisiting Uncertainty Quantification Evaluation in Language Models: Spurious Interactions with Response Length Bias Results

要約

言語モデル(LMS)の不確実性の定量化(UQ)は、安全性と信頼性を改善するために重要です。
多くの場合、AUROCなどのパフォーマンスメトリックを使用して、UQメソッド(たとえば、負のシーケンス確率)がタスクの正しさ関数(Rouge-Lなど)とどの程度うまく相関しているかを評価します。
この論文では、特定のUQメソッドのパフォーマンスを膨らませることにより、一般的に使用される正確性関数バイアスUQ評価をバイアスすることを示します。
字句ベースの埋め込みベースのメトリックからLLM-As-a-Judgeアプローチまで、4つのデータセットx 4モデルx 6 UQメソッドを越えて、7つの正しさ関数を評価します。
私たちの分析では、これらの正しさ関数の誤差の長さのバイアスは、UQメソッドの長さバイアスと相互作用することにより、UQ評価を歪ませることが明らかになりました。
LLM-as-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-a-dudgeアプローチは、これらのバイアスを緩和する潜在的な解決策を特定します。

要約(オリジナル)

Uncertainty Quantification (UQ) in Language Models (LMs) is crucial for improving their safety and reliability. Evaluations often use performance metrics like AUROC to assess how well UQ methods (e.g., negative sequence probabilities) correlate with task correctness functions (e.g., ROUGE-L). In this paper, we show that commonly used correctness functions bias UQ evaluations by inflating the performance of certain UQ methods. We evaluate 7 correctness functions — from lexical-based and embedding-based metrics to LLM-as-a-judge approaches — across 4 datasets x 4 models x 6 UQ methods. Our analysis reveals that length biases in the errors of these correctness functions distort UQ assessments by interacting with length biases in UQ methods. We identify LLM-as-a-judge approaches as among the least length-biased choices and hence a potential solution to mitigate these biases.

arxiv情報

著者 Andrea Santilli,Adam Golinski,Michael Kirchhof,Federico Danieli,Arno Blaas,Miao Xiong,Luca Zappella,Sinead Williamson
発行日 2025-04-18 13:13:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG | Revisiting Uncertainty Quantification Evaluation in Language Models: Spurious Interactions with Response Length Bias Results はコメントを受け付けていません

HybridoNet-Adapt: A Domain-Adapted Framework for Accurate Lithium-Ion Battery RUL Prediction

要約

リチウムイオンバッテリー(LIB)の残りの耐用年数(RUL)の正確な予測は、運用上の信頼性と安全性を確保するために不可欠です。
ただし、多くの既存の方法では、トレーニングとテストデータが同じ分布に従い、目に見えないターゲットドメインに一般化する能力を制限すると想定しています。
これに対処するために、ドメイン適応(DA)手法を組み込んだ新しいRUL予測フレームワークを提案します。
当社のフレームワークでは、ノイズリダクション、特徴抽出、およびハイブリドネットAdaghtと呼ばれる堅牢なディープ学習モデルを使用した正規化など、信号前処理パイプラインを統合します。
このモデルは、LSTM、マルチヘッドの注意、および特徴抽出のためのニューラルオード層の組み合わせを特徴としており、その後にトレーニング可能なトレードオフパラメーターを備えた2つの予測モジュールが続きます。
一般化を改善するために、ドメインの敵対的なニューラルネットワーク(DANN)に触発されたDA戦略を採用し、敵対的な損失を最大平均矛盾(MMD)に置き換えて、ドメイン障害の特徴を学習します。
実験結果は、ハイブリドネット適応がXgboostや弾性ネットなどの従来のモデル、およびデュアル入力DNNなどの深い学習ベースラインを大幅に上回ることを示しており、スケーラブルで信頼性の高いバッテリーヘルス管理(BHM)の可能性を示しています。

要約(オリジナル)

Accurate prediction of the Remaining Useful Life (RUL) in Lithium ion battery (LIB) health management systems is essential for ensuring operational reliability and safety. However, many existing methods assume that training and testing data follow the same distribution, limiting their ability to generalize to unseen target domains. To address this, we propose a novel RUL prediction framework that incorporates a domain adaptation (DA) technique. Our framework integrates a signal preprocessing pipeline including noise reduction, feature extraction, and normalization with a robust deep learning model called HybridoNet Adapt. The model features a combination of LSTM, Multihead Attention, and Neural ODE layers for feature extraction, followed by two predictor modules with trainable trade-off parameters. To improve generalization, we adopt a DA strategy inspired by Domain Adversarial Neural Networks (DANN), replacing adversarial loss with Maximum Mean Discrepancy (MMD) to learn domain-invariant features. Experimental results show that HybridoNet Adapt significantly outperforms traditional models such as XGBoost and Elastic Net, as well as deep learning baselines like Dual input DNN, demonstrating its potential for scalable and reliable battery health management (BHM).

arxiv情報

著者 Khoa Tran,Bao Huynh,Tri Le,Lam Pham,Vy-Rin Nguyen,Hung-Cuong Trinh,Duong Tran Anh
発行日 2025-04-18 13:22:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | HybridoNet-Adapt: A Domain-Adapted Framework for Accurate Lithium-Ion Battery RUL Prediction はコメントを受け付けていません