Rejection via Learning Density Ratios

要約

拒否による分類は、モデルが予測を行うことを控えることを可能にする学習パラダイムとして現れます。
支配的なアプローチは、典型的な損失関数を強化することにより、監督された学習パイプラインを変更し、モデルの拒否を誤った予測よりも低い損失をもたらすことです。
代わりに、別の分布視点を提案します。ここでは、前処理されたモデルのパフォーマンスを最大化する理想化されたデータ分布を見つけようとします。
これは、$ \ varphi $ -divergenceの正規化項で損失のリスクを最適化することで形式化できます。
この理想的な分布を通じて、この分布とデータ分布の間の密度比を利用することにより、拒否決定を下すことができます。
$ \ varphi $ -divergencesが$ \ alpha $ -divergenceのファミリーによって指定されている設定に焦点を当てます。
私たちのフレームワークは、クリーンでノイズの多いデータセットで経験的にテストされています。

要約(オリジナル)

Classification with rejection emerges as a learning paradigm which allows models to abstain from making predictions. The predominant approach is to alter the supervised learning pipeline by augmenting typical loss functions, letting model rejection incur a lower loss than an incorrect prediction. Instead, we propose a different distributional perspective, where we seek to find an idealized data distribution which maximizes a pretrained model’s performance. This can be formalized via the optimization of a loss’s risk with a $\varphi$-divergence regularization term. Through this idealized distribution, a rejection decision can be made by utilizing the density ratio between this distribution and the data distribution. We focus on the setting where our $\varphi$-divergences are specified by the family of $\alpha$-divergence. Our framework is tested empirically over clean and noisy datasets.

arxiv情報

著者 Alexander Soen,Hisham Husain,Philip Schulz,Vu Nguyen
発行日 2025-05-08 14:06:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML | Rejection via Learning Density Ratios はコメントを受け付けていません

ICNN-enhanced 2SP: Leveraging input convex neural networks for solving two-stage stochastic programming

要約

2段階の確率的プログラミング(2SP)は、不確実性の下での意思決定をモデル化するための基本的なフレームワークを提供しますが、リコース機能評価の計算の複雑さのために、スケーラビリティは依然として課題のままです。
神経2段の確率的プログラミング(Neur2SP)などの既存の学習ベースの方法(NEUR2SP)は、リコース関数としてニューラルネットワーク(NNS)を使用しますが、計算集中的な混合整数プログラミング(MIP)製剤に依存しています。
ICNN強化2SPを提案します。これは、入力凸ニューラルネットワーク(ICNN)を活用して、線形プログラミング(LP)の表現可能性を活用して、凸型2SP問題における表現可能性を提案します。
凸性を整理し、LPを通じて正確な推論を可能にすることにより、このアプローチは、2SPフレームワーク内のICNN代理の正確な埋め込みを保持しながら、従来のMIPベースの定式化に固有の整数変数の必要性を排除します。
これにより、ソリューション品質を維持する、より計算効率の良い代替品が得られます。
包括的な実験により、ICNNは、MIPベースの対応物と同等の検証精度を達成しながら、トレーニング時間がわずかに長くなることが明らかになりました。
ベンチマークの問題を越えて、ICNN強化2SPは、MIPベースの製剤よりもソリューションの品質を維持しながら、ソリューションよりもかなり速いソリューション時間を示すことが多く、これらの利点は問題スケールが増加するにつれて大幅に顕著になります。
最も挑戦的なインスタンスでは、この方法では、最大100 $ \ Times $のスピードアップと、MIPベースの製剤よりも優れたソリューション品質を実現します。

要約(オリジナル)

Two-stage stochastic programming (2SP) offers a basic framework for modelling decision-making under uncertainty, yet scalability remains a challenge due to the computational complexity of recourse function evaluation. Existing learning-based methods like Neural Two-Stage Stochastic Programming (Neur2SP) employ neural networks (NNs) as recourse function surrogates but rely on computationally intensive mixed-integer programming (MIP) formulations. We propose ICNN-enhanced 2SP, a method that leverages Input Convex Neural Networks (ICNNs) to exploit linear programming (LP) representability in convex 2SP problems. By architecturally enforcing convexity and enabling exact inference through LP, our approach eliminates the need for integer variables inherent to the conventional MIP-based formulation while retaining an exact embedding of the ICNN surrogate within the 2SP framework. This results in a more computationally efficient alternative that maintains solution quality. Comprehensive experiments reveal that ICNNs incur only marginally longer training times while achieving validation accuracy on par with their MIP-based counterparts. Across benchmark problems, ICNN-enhanced 2SP often exhibits considerably faster solution times than the MIP-based formulations while preserving solution quality, with these advantages becoming significantly more pronounced as problem scale increases. For the most challenging instances, the method achieves speedups of up to 100$\times$ and solution quality superior to MIP-based formulations.

arxiv情報

著者 Yu Liu,Fabricio Oliveira
発行日 2025-05-08 14:06:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.OC | ICNN-enhanced 2SP: Leveraging input convex neural networks for solving two-stage stochastic programming はコメントを受け付けていません

A Two-Sample Test of Text Generation Similarity

要約

デジタル化されたテキストデータの急増には、観測されたテキストパターンで信頼できる推論方法が必要です。
この記事では、ドキュメントの2つのグループ間の類似性を比較するための新しい2サンプルテキストテストを提案しています。
仮説は、テキストデータを生成する確率的マッピングが2つのドキュメントグループで同一であるかどうかです。
提案されたテストは、ドキュメントのエントロピーを比較することにより、テキストの類似性を評価することを目的としています。
エントロピーは、ニューラルネットワークベースの言語モデルを使用して推定されます。
テスト統計は、推定および推論フレームワークから導き出されます。このフレームワークでは、エントロピーが最初に推定セットを使用して近似され、その後に残りのデータセットに推論が行われます。
理論的には、軽度の条件下では、テスト統計が漸近的に正規分布に従うことを示しました。
P値を統一された決定に組み合わせたテスト能力を強化するために、複数のデータ分割戦略が提案されています。
さまざまなシミュレーション研究と実際のデータの例は、提案された2サンプルテキストテストが名目1つのエラー率を維持しながら、既存の方法と比較してより大きな電力を提供することを実証しました。
提案された方法は、ドキュメントクラス、特に大規模なテキスト情報が非常に重要な分野での違いを主張するための新しいソリューションを提供します。

要約(オリジナル)

The surge in digitized text data requires reliable inferential methods on observed textual patterns. This article proposes a novel two-sample text test for comparing similarity between two groups of documents. The hypothesis is whether the probabilistic mapping generating the textual data is identical across two groups of documents. The proposed test aims to assess text similarity by comparing the entropy of the documents. Entropy is estimated using neural network-based language models. The test statistic is derived from an estimation-and-inference framework, where the entropy is first approximated using an estimation set, followed by inference on the remaining data set. We showed theoretically that under mild conditions, the test statistic asymptotically follows a normal distribution. A multiple data-splitting strategy is proposed to enhance test power, which combines p-values into a unified decision. Various simulation studies and a real data example demonstrated that the proposed two-sample text test maintains the nominal Type one error rate while offering greater power compared to existing methods. The proposed method provides a novel solution to assert differences in document classes, particularly in fields where large-scale textual information is crucial.

arxiv情報

著者 Jingbin Xu,Chen Qian,Meimei Liu,Feng Guo
発行日 2025-05-08 14:15:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML | A Two-Sample Test of Text Generation Similarity はコメントを受け付けていません

A Connection Between Learning to Reject and Bhattacharyya Divergences

要約

拒否することを学習することで、モデルが予測を行うことを控えることができる学習パラダイムを提供します。
リジェクトを学習する1つの方法は、理想的な限界分布(W.R.T.入力ドメイン)を学習することです。これは、仮説的な最良の限界分布を特徴付け、密度比を介して真の周辺分布と比較します。
この論文では、入力とラベルの両方にわたって共同理想的な分布を学習することを検討します。
拒否とさまざまな統計的発散のしきい値の間のリンクを開発します。
さらに、ログロスのバリアントを考慮すると、共同理想分布を考慮することで得られる除去器は、クラスプロビリティ間の歪んだバタチャリヤの分岐のしきい値に対応することがわかります。
これは、限界的なケースとは対照的です – これは、最適な拒絶の典型的な特性、Chowのルールと同等です。これは、Kullback -Leiblerの発散のしきい値に対応しています。
一般に、Bhattacharyyaの発散を介して拒否することは、Chowのルールよりも攻撃的ではないことがわかります。

要約(オリジナル)

Learning to reject provide a learning paradigm which allows for our models to abstain from making predictions. One way to learn the rejector is to learn an ideal marginal distribution (w.r.t. the input domain) – which characterizes a hypothetical best marginal distribution – and compares it to the true marginal distribution via a density ratio. In this paper, we consider learning a joint ideal distribution over both inputs and labels; and develop a link between rejection and thresholding different statistical divergences. We further find that when one considers a variant of the log-loss, the rejector obtained by considering the joint ideal distribution corresponds to the thresholding of the skewed Bhattacharyya divergence between class-probabilities. This is in contrast to the marginal case – that is equivalent to a typical characterization of optimal rejection, Chow’s Rule – which corresponds to a thresholding of the Kullback-Leibler divergence. In general, we find that rejecting via a Bhattacharyya divergence is less aggressive than Chow’s Rule.

arxiv情報

著者 Alexander Soen
発行日 2025-05-08 14:18:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.IT, cs.LG, math.IT, stat.ML | A Connection Between Learning to Reject and Bhattacharyya Divergences はコメントを受け付けていません

Morphologically Symmetric Reinforcement Learning for Ambidextrous Bimanual Manipulation

要約

人間は自然に総操作スキルで両側対称性を示し、左手と右手の間の簡単な行動を楽に反映しています。
また、両側の対称性を特徴とするバイアルロボットは、このプロパティを同様に活用して、どちらの手でもタスクを実行する必要があります。
多くの場合、優れた器用なスキルのために支配的な手を支持する人間とは異なり、ロボットは理想的には、平等な習熟度で両手利きの操作を実行する必要があります。
この目的のために、ロボットの固有の両側対称性を誘導バイアスとして活用する両手利きの二操剤の強化学習フレームワークであるSymdex(Symmetric Dexterity)を紹介します。
Symdexは、複雑な双方向の操作タスクを、それぞれの専用のポリシーと列車の列車に分解します。
等量性ニューラルネットワークを介して両側対称性を活用することにより、片方の腕からの経験は、反対側の腕によって本質的に活用されます。
次に、サブタスクポリシーを、ハンドタスクの割り当てとは無関係のグローバルな両手利きのポリシーに蒸留します。
6つの挑戦的なシミュレートされた操作タスクでSymdexを評価し、そのうちの2つで実世界の展開を成功させます。
私たちのアプローチは、左手と右手が異なる役割を実行する複雑なタスクのベースラインを強く上回ります。
さらに、Symdexのスケーラビリティを4アーム操作セットアップに拡張することにより、Symdexのスケーラビリティを実証します。このセットアップでは、対称性が認識しているポリシーにより、効果的なマルチアームコラボレーションと調整が可能になります。
我々の結果は、政策学習における帰納的バイアスとしての構造対称性が、多様な器用な操作タスク全体のサンプル効率、堅牢性、および一般化をどのように高めるかを強調しています。

要約(オリジナル)

Humans naturally exhibit bilateral symmetry in their gross manipulation skills, effortlessly mirroring simple actions between left and right hands. Bimanual robots-which also feature bilateral symmetry-should similarly exploit this property to perform tasks with either hand. Unlike humans, who often favor a dominant hand for fine dexterous skills, robots should ideally execute ambidextrous manipulation with equal proficiency. To this end, we introduce SYMDEX (SYMmetric DEXterity), a reinforcement learning framework for ambidextrous bi-manipulation that leverages the robot’s inherent bilateral symmetry as an inductive bias. SYMDEX decomposes complex bimanual manipulation tasks into per-hand subtasks and trains dedicated policies for each. By exploiting bilateral symmetry via equivariant neural networks, experience from one arm is inherently leveraged by the opposite arm. We then distill the subtask policies into a global ambidextrous policy that is independent of the hand-task assignment. We evaluate SYMDEX on six challenging simulated manipulation tasks and demonstrate successful real-world deployment on two of them. Our approach strongly outperforms baselines on complex task in which the left and right hands perform different roles. We further demonstrate SYMDEX’s scalability by extending it to a four-arm manipulation setup, where our symmetry-aware policies enable effective multi-arm collaboration and coordination. Our results highlight how structural symmetry as inductive bias in policy learning enhances sample efficiency, robustness, and generalization across diverse dexterous manipulation tasks.

arxiv情報

著者 Zechu Li,Yufeng Jin,Daniel Ordonez Apraez,Claudio Semini,Puze Liu,Georgia Chalvatzaki
発行日 2025-05-08 14:29:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | Morphologically Symmetric Reinforcement Learning for Ambidextrous Bimanual Manipulation はコメントを受け付けていません

Performance Estimation in Binary Classification Using Calibrated Confidence

要約

モデル監視は、機械学習ライフサイクルの重要なコンポーネントであり、展開後のモデルのパフォーマンスの検出されない低下に対する保護を行います。
従来、パフォーマンス監視には、グラウンドトゥルースラベルへのアクセスが必要であり、常に容易に入手できるとは限りません。
これにより、容認できないレイテンシまたはパフォーマンスの監視が完全に不可能になる可能性があります。
最近、ラベルにアクセスできない分類器モデルの精度を推定するように設計された方法は、有望な結果を示しています。
ただし、多くの場合、モデルのパフォーマンスを評価するのに適している可能性のある他のさまざまなメトリックがあります。
これまで、これらの重要な指標はどれも、科学コミュニティから同様の関心を受けていませんでした。
この作業では、混乱マトリックスを使用して定義されたバイナリ分類メトリックを推定できる新しい方法であるCBPEを提示することにより、このギャップに対処します。
特に、この大家族から4つのメトリックを選択します。精度、精度、リコール、f $ _1 $を選択して、方法を実証します。
CBPEは、混乱マトリックスの要素をランダム変数として扱い、モデルのキャリブレーションされた信頼スコアをレバレッジして分布を推定します。
目的のメトリックは、ランダム変数としても扱われ、その完全な確率分布は推定された混乱マトリックスから導出できます。
CBPEは、強力な理論的保証と有効な信頼区間を備えた推定値を生成することが示されています。

要約(オリジナル)

Model monitoring is a critical component of the machine learning lifecycle, safeguarding against undetected drops in the model’s performance after deployment. Traditionally, performance monitoring has required access to ground truth labels, which are not always readily available. This can result in unacceptable latency or render performance monitoring altogether impossible. Recently, methods designed to estimate the accuracy of classifier models without access to labels have shown promising results. However, there are various other metrics that might be more suitable for assessing model performance in many cases. Until now, none of these important metrics has received similar interest from the scientific community. In this work, we address this gap by presenting CBPE, a novel method that can estimate any binary classification metric defined using the confusion matrix. In particular, we choose four metrics from this large family: accuracy, precision, recall, and F$_1$, to demonstrate our method. CBPE treats the elements of the confusion matrix as random variables and leverages calibrated confidence scores of the model to estimate their distributions. The desired metric is then also treated as a random variable, whose full probability distribution can be derived from the estimated confusion matrix. CBPE is shown to produce estimates that come with strong theoretical guarantees and valid confidence intervals.

arxiv情報

著者 Juhani Kivimäki,Jakub Białek,Wojtek Kuberski,Jukka K. Nurminen
発行日 2025-05-08 14:34:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, I.2.6 | Performance Estimation in Binary Classification Using Calibrated Confidence はコメントを受け付けていません

Advances in Protein Representation Learning: Methods, Applications, and Future Directions

要約

タンパク質は、さまざまな生物学的プロセスで中心的な役割を果たす複雑な生体分子であり、分子生物学、医学研究、および創薬におけるブレークスルーの重要なターゲットになっています。
複雑で階層的な構造、および多様な機能を解読することは、分子レベルでの生活の理解を進めるために不可欠です。
タンパク質表現学習(PRL)は、これらの課題に対処するためにタンパク質データから意味のある計算表現を抽出することを可能にし、変革的アプローチとして浮上しています。
このホワイトペーパーでは、PRL研究の包括的なレビューを提供し、方法論を5つの重要な領域に分類します:特徴ベース、シーケンスベース、構造ベース、マルチモーダル、および複雑なアプローチ。
この急速に進化する分野の研究者をサポートするために、モデル開発と評価に不可欠なリソースとして機能するタンパク質シーケンス、構造、機能に広く使用されているデータベースを導入します。
また、複数のドメインでのこれらのアプローチの多様なアプリケーションを調査し、それらの幅広い影響を示しています。
最後に、技術的な課題を押し付け、将来の方向性を概説してPRLを前進させ、この基礎分野での継続的なイノベーションを刺激するための洞察を提供します。

要約(オリジナル)

Proteins are complex biomolecules that play a central role in various biological processes, making them critical targets for breakthroughs in molecular biology, medical research, and drug discovery. Deciphering their intricate, hierarchical structures, and diverse functions is essential for advancing our understanding of life at the molecular level. Protein Representation Learning (PRL) has emerged as a transformative approach, enabling the extraction of meaningful computational representations from protein data to address these challenges. In this paper, we provide a comprehensive review of PRL research, categorizing methodologies into five key areas: feature-based, sequence-based, structure-based, multimodal, and complex-based approaches. To support researchers in this rapidly evolving field, we introduce widely used databases for protein sequences, structures, and functions, which serve as essential resources for model development and evaluation. We also explore the diverse applications of these approaches in multiple domains, demonstrating their broad impact. Finally, we discuss pressing technical challenges and outline future directions to advance PRL, offering insights to inspire continued innovation in this foundational field.

arxiv情報

著者 Viet Thanh Duy Nguyen,Truong-Son Hy
発行日 2025-05-08 14:36:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, q-bio.BM | Advances in Protein Representation Learning: Methods, Applications, and Future Directions はコメントを受け付けていません

Operator-Level Quantum Acceleration of Non-Logconcave Sampling

要約

$ \ sigma \ propto e^{ – \ beta v} $のフォームの確率分布からのサンプリングは、$ v $が連続的な可能性であり、物理学、化学、生物学、コンピューターサイエンス、統計にわたる基本的なタスクです。
ただし、$ v $が非凸の場合、結果の分布は非ログコンケーブになり、ランゲビンダイナミクスなどの古典的な方法はパフォーマンスが低いことがよくあります。
連続時間サンプリングダイナミクスの広範なクラスを適切に加速する最初の量子アルゴリズムを紹介します。
Langevin Dynamicsの場合、私たちの方法は、Witten Laplacianオペレーターの因数分解から派生したブロックマトリックスの核として識別される、ターゲットギブス測定を量子状態の振幅にエンコードします。
この接続により、特異値のしきい値を介したギブスサンプリングが可能になり、非ログコンケーブ設定でのポアンカル定数に関して、最初の証明可能な量子優位性が得られます。
このフレームワークに基づいて、複雑で頑丈なエネルギー景観からサンプリングするために広く使用されているレプリカ交換Langevin拡散を加速する最初の量子アルゴリズムをさらに開発します。

要約(オリジナル)

Sampling from probability distributions of the form $\sigma \propto e^{-\beta V}$, where $V$ is a continuous potential, is a fundamental task across physics, chemistry, biology, computer science, and statistics. However, when $V$ is non-convex, the resulting distribution becomes non-logconcave, and classical methods such as Langevin dynamics often exhibit poor performance. We introduce the first quantum algorithm that provably accelerates a broad class of continuous-time sampling dynamics. For Langevin dynamics, our method encodes the target Gibbs measure into the amplitudes of a quantum state, identified as the kernel of a block matrix derived from a factorization of the Witten Laplacian operator. This connection enables Gibbs sampling via singular value thresholding and yields the first provable quantum advantage with respect to the Poincar\’e constant in the non-logconcave setting. Building on this framework, we further develop the first quantum algorithm that accelerates replica exchange Langevin diffusion, a widely used method for sampling from complex, rugged energy landscapes.

arxiv情報

著者 Jiaqi Leng,Zhiyan Ding,Zherui Chen,Lin Lin
発行日 2025-05-08 14:43:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.OC, quant-ph | Operator-Level Quantum Acceleration of Non-Logconcave Sampling はコメントを受け付けていません

Towards the Worst-case Robustness of Large Language Models

要約

最近の研究により、敵は敵対的な攻撃に対する大規模な言語モデルの脆弱性が明らかになりました。敵は特定の入力シーケンスを作成して、有害、暴力的、私的、または誤った生産量を誘導しています。
この作業では、最悪のケースの堅牢性、つまり、そのような望ましくない出力につながる敵対的な例が存在するかどうかを研究します。
より強力なホワイトボックス攻撃を使用して最悪のケースの堅牢性を上限にします。これは、現在の決定論的防御がほぼ0 \%最悪の堅牢性を達成していることを示しています。
分数ナップサックソルバーまたは0-1ナップサックソルバーを使用して、ランダム化されたスムージングの一般的なタイトな下限を提案し、それらを使用してすべての確率的防御の最悪の堅牢性を結びつけます。
これらのソルバーに基づいて、いくつかの以前の経験的防御の理論的下限を提供します。
たとえば、特定のケースの堅牢性を証明し、平均$ \ ELL_0 $摂動の2.02または平均サフィックス長6.41で、\ TextIT {任意の攻撃}に対して均一なカーネルを使用してスムージングします。

要約(オリジナル)

Recent studies have revealed the vulnerability of large language models to adversarial attacks, where adversaries craft specific input sequences to induce harmful, violent, private, or incorrect outputs. In this work, we study their worst-case robustness, i.e., whether an adversarial example exists that leads to such undesirable outputs. We upper bound the worst-case robustness using stronger white-box attacks, indicating that most current deterministic defenses achieve nearly 0\% worst-case robustness. We propose a general tight lower bound for randomized smoothing using fractional knapsack solvers or 0-1 knapsack solvers, and using them to bound the worst-case robustness of all stochastic defenses. Based on these solvers, we provide theoretical lower bounds for several previous empirical defenses. For example, we certify the robustness of a specific case, smoothing using a uniform kernel, against \textit{any possible attack} with an average $\ell_0$ perturbation of 2.02 or an average suffix length of 6.41.

arxiv情報

著者 Huanran Chen,Yinpeng Dong,Zeming Wei,Hang Su,Jun Zhu
発行日 2025-05-08 15:33:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Towards the Worst-case Robustness of Large Language Models はコメントを受け付けていません

Large AI Model for Delay-Doppler Domain Channel Prediction in 6G OTFS-Based Vehicular Networks

要約

チャネルの予測は、将来のチャネル条件の予測と通信戦略の積極的な調整を可能にするため、高モビリティ車両ネットワークにとって重要です。
ただし、正確な車両チャネルの予測を達成することは、重要なドップラー効果と、高速車両の動きと複雑な伝播環境に起因する急速なチャネルの変動のために困難です。
このホワイトペーパーでは、高モビリティ車両ネットワークに合わせた新しい遅延ドップラー(DD)ドメインチャネル予測フレームワークを提案します。
チャネル表現をDDドメインに変換することにより、基礎となる物理的プロダクションプロセスと密接に整合する直感的でまばらで安定した描写を取得し、複雑な車両チャネルを予測可能性を強化したタイムシリーズパラメーターのセットに効果的に削減します。
さらに、大規模な人工知能(AI)モデルを活用して、これらのDDドメインの時系列パラメーターを予測し、時間的相関をモデル化する高度な能力を活用します。
事前に訓練された大型AIモデルのゼロショット機能は、タスク固有のトレーニングを必要とせずに正確なチャネル予測を促進しますが、特定の車両チャネルデータのその後の微調整により、予測の精度がさらに向上します。
広範なシミュレーション結果は、DDドメインチャネル予測フレームワークの有効性と、時系列チャネルパラメーターの予測における大規模AIモデルの優れた精度を示しているため、堅牢な車両通信システムのアプローチの可能性を強調しています。

要約(オリジナル)

Channel prediction is crucial for high-mobility vehicular networks, as it enables the anticipation of future channel conditions and the proactive adjustment of communication strategies. However, achieving accurate vehicular channel prediction is challenging due to significant Doppler effects and rapid channel variations resulting from high-speed vehicle movement and complex propagation environments. In this paper, we propose a novel delay-Doppler (DD) domain channel prediction framework tailored for high-mobility vehicular networks. By transforming the channel representation into the DD domain, we obtain an intuitive, sparse, and stable depiction that closely aligns with the underlying physical propagation processes, effectively reducing the complex vehicular channel to a set of time-series parameters with enhanced predictability. Furthermore, we leverage the large artificial intelligence (AI) model to predict these DD-domain time-series parameters, capitalizing on their advanced ability to model temporal correlations. The zero-shot capability of the pre-trained large AI model facilitates accurate channel predictions without requiring task-specific training, while subsequent fine-tuning on specific vehicular channel data further improves prediction accuracy. Extensive simulation results demonstrate the effectiveness of our DD-domain channel prediction framework and the superior accuracy of the large AI model in predicting time-series channel parameters, thereby highlighting the potential of our approach for robust vehicular communication systems.

arxiv情報

著者 Jianzhe Xue,Dongcheng Yuan,Zhanxi Ma,Tiankai Jiang,Yu Sun,Haibo Zhou,Xuemin Shen
発行日 2025-05-08 15:43:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, eess.SP | Large AI Model for Delay-Doppler Domain Channel Prediction in 6G OTFS-Based Vehicular Networks はコメントを受け付けていません