Qwen3 Technical Report

要約

この作業では、QWENモデルファミリーの最新バージョンであるQWEN3を紹介します。
QWEN3は、パフォーマンス、効率、多言語機能を向上させるために設計された一連の大規模な言語モデル(LLM)で構成されています。
QWEN3シリーズには、密度と混合物(MOE)アーキテクチャの両方のモデルが含まれており、パラメータースケールは0.6〜2350億の範囲です。
QWEN3の重要な革新は、思考モード(複雑なマルチステップ推論用)と非考えのモード(迅速な、コンテキスト駆動型応答用)の統合モードの統合です。
これにより、チャット最適化モデル(GPT-4Oなど)と専用の推論モデル(QWQ-32Bなど)などの異なるモデルを切り替える必要性がなくなり、ユーザークエリまたはチャットテンプレートに基づいて動的モードの切り替えを可能にします。
一方、QWEN3は思考予算メカニズムを導入し、ユーザーが推論中に計算リソースを適応的に割り当てることができるため、タスクの複雑さに基づいてレイテンシとパフォーマンスのバランスを取ります。
さらに、フラッグシップモデルからの知識を活用することにより、より競争力のあるパフォーマンスを確保しながら、小規模モデルを構築するために必要な計算リソースを大幅に削減します。
経験的評価は、QWEN3が、コード生成、数学的推論、エージェントタスクなどのタスクなど、より大きなMOEモデルと独自モデルとの競争など、多様なベンチマーク全体で最先端の結果を達成することを示しています。
前任者のQWEN2.5と比較して、QWEN3は多言語サポートを29から119の言語と方言に拡張し、間隔を空けた理解と生成能力を改善することでグローバルなアクセシビリティを向上させます。
再現性とコミュニティ主導の研究開発を促進するために、すべてのQWEN3モデルはApache 2.0で公開されます。

要約(オリジナル)

In this work, we present Qwen3, the latest version of the Qwen model family. Qwen3 comprises a series of large language models (LLMs) designed to advance performance, efficiency, and multilingual capabilities. The Qwen3 series includes models of both dense and Mixture-of-Expert (MoE) architectures, with parameter scales ranging from 0.6 to 235 billion. A key innovation in Qwen3 is the integration of thinking mode (for complex, multi-step reasoning) and non-thinking mode (for rapid, context-driven responses) into a unified framework. This eliminates the need to switch between different models–such as chat-optimized models (e.g., GPT-4o) and dedicated reasoning models (e.g., QwQ-32B)–and enables dynamic mode switching based on user queries or chat templates. Meanwhile, Qwen3 introduces a thinking budget mechanism, allowing users to allocate computational resources adaptively during inference, thereby balancing latency and performance based on task complexity. Moreover, by leveraging the knowledge from the flagship models, we significantly reduce the computational resources required to build smaller-scale models, while ensuring their highly competitive performance. Empirical evaluations demonstrate that Qwen3 achieves state-of-the-art results across diverse benchmarks, including tasks in code generation, mathematical reasoning, agent tasks, etc., competitive against larger MoE models and proprietary models. Compared to its predecessor Qwen2.5, Qwen3 expands multilingual support from 29 to 119 languages and dialects, enhancing global accessibility through improved cross-lingual understanding and generation capabilities. To facilitate reproducibility and community-driven research and development, all Qwen3 models are publicly accessible under Apache 2.0.

arxiv情報

著者 An Yang,Anfeng Li,Baosong Yang,Beichen Zhang,Binyuan Hui,Bo Zheng,Bowen Yu,Chang Gao,Chengen Huang,Chenxu Lv,Chujie Zheng,Dayiheng Liu,Fan Zhou,Fei Huang,Feng Hu,Hao Ge,Haoran Wei,Huan Lin,Jialong Tang,Jian Yang,Jianhong Tu,Jianwei Zhang,Jianxin Yang,Jiaxi Yang,Jing Zhou,Jingren Zhou,Junyang Lin,Kai Dang,Keqin Bao,Kexin Yang,Le Yu,Lianghao Deng,Mei Li,Mingfeng Xue,Mingze Li,Pei Zhang,Peng Wang,Qin Zhu,Rui Men,Ruize Gao,Shixuan Liu,Shuang Luo,Tianhao Li,Tianyi Tang,Wenbiao Yin,Xingzhang Ren,Xinyu Wang,Xinyu Zhang,Xuancheng Ren,Yang Fan,Yang Su,Yichang Zhang,Yinger Zhang,Yu Wan,Yuqiong Liu,Zekun Wang,Zeyu Cui,Zhenru Zhang,Zhipeng Zhou,Zihan Qiu
発行日 2025-05-14 13:41:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Qwen3 Technical Report はコメントを受け付けていません

Is analogy enough to draw novel adjective-noun inferences?

要約

最近の研究(Ross et al。、2025、2024)は、それぞれ人間とLLMの新しい形容詞名詞の組み合わせに一般化する能力は、それぞれがそれぞれがフレーズの意味を決定し、推論を導き出すための構成メカニズムにアクセスできることを示していると主張しています。
代わりに、これらの推論を、組成を必要とせずに、既知の推論と類似して導き出すことができるかどうかを調べます。
(1)語彙項目に対する類似性を使用して類推のモデルを構築し、(2)類推によって人間の参加者に推論を求めることにより、これを調査します。
この戦略は、Ross et alのデータセットの大部分に適していることがわかりました。
(2025)、人間とLLMの両方が収束的な推論を導き出すが、類推によってうまく処理されていない新しい組み合わせがあります。
したがって、これらの場合に一般化するために人間とLLMが使用するメカニズムは、類推に完全に減らすことができず、おそらく構成を含むと結論付けています。

要約(オリジナル)

Recent work (Ross et al., 2025, 2024) has argued that the ability of humans and LLMs respectively to generalize to novel adjective-noun combinations shows that they each have access to a compositional mechanism to determine the phrase’s meaning and derive inferences. We study whether these inferences can instead be derived by analogy to known inferences, without need for composition. We investigate this by (1) building a model of analogical reasoning using similarity over lexical items, and (2) asking human participants to reason by analogy. While we find that this strategy works well for a large proportion of the dataset of Ross et al. (2025), there are novel combinations for which both humans and LLMs derive convergent inferences but which are not well handled by analogy. We thus conclude that the mechanism humans and LLMs use to generalize in these cases cannot be fully reduced to analogy, and likely involves composition.

arxiv情報

著者 Hayley Ross,Kathryn Davidson,Najoung Kim
発行日 2025-05-14 13:59:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Is analogy enough to draw novel adjective-noun inferences? はコメントを受け付けていません

PT-MoE: An Efficient Finetuning Framework for Integrating Mixture-of-Experts into Prompt Tuning

要約

パラメーター効率の高い微調整(PEFT)メソッドは、大規模な言語モデルの適応に有望であることが示されていますが、既存のアプローチは直感に反する現象を示します。ルーターを迅速な調整(PT)に統合すると、トレーニング効率が向上しますが、パフォーマンスを普遍的に改善しません。
マトリックス分解によるパラメーターの削減は、特定のドメインのパフォーマンスを改善する可能性があります。
これらの観察とPTのモジュール性に動機付けられているPT-MOEを提案します。PT-MoEは、効率的なPTのために行列分解(MOE)ルーティングとマトリックス分解を統合する新しいフレームワークであることを提案します。
17のデータセットにわたる結果は、PT-MOEが質問回答(QA)と数学の問題解決タスクの両方で最先端のパフォーマンスを達成し、QAタスクでPTで1.49ポイント、LORAで1.49ポイント、2.13ポイントを改善しながら、LORAよりもPTおよび0.44ポイントを超えてPTおよび0.44ポイントを超えて数学的精度を強化することを示しています。
私たちの分析により、PTメソッドは一般に数学データセットにおけるQAタスクとロラベースの方法で優れていますが、PT-MOEにおけるマトリックス分解とMOEの統合により補完的な利点が得られます。
これらの調査結果は、ルーティングメカニズムと建築コンポーネントに関するアブレーション研究とともに、将来のPEFTメソッドの洞察を提供します。

要約(オリジナル)

Parameter-efficient fine-tuning (PEFT) methods have shown promise in adapting large language models, yet existing approaches exhibit counter-intuitive phenomena: integrating router into prompt tuning (PT) increases training efficiency yet does not improve performance universally; parameter reduction through matrix decomposition can improve performance in specific domains. Motivated by these observations and the modular nature of PT, we propose PT-MoE, a novel framework that integrates matrix decomposition with mixture-of-experts (MoE) routing for efficient PT. Results across 17 datasets demonstrate that PT-MoE achieves state-of-the-art performance in both question answering (QA) and mathematical problem solving tasks, improving F1 score by 1.49 points over PT and 2.13 points over LoRA in QA tasks, while enhancing mathematical accuracy by 10.75 points over PT and 0.44 points over LoRA, all while using 25% fewer parameters than LoRA. Our analysis reveals that while PT methods generally excel in QA tasks and LoRA-based methods in math datasets, the integration of matrix decomposition and MoE in PT-MoE yields complementary benefits: decomposition enables efficient parameter sharing across experts while MoE provides dynamic adaptation, collectively enabling PT-MoE to demonstrate cross-task consistency and generalization abilities. These findings, along with ablation studies on routing mechanisms and architectural components, provide insights for future PEFT methods.

arxiv情報

著者 Zongqian Li,Yixuan Su,Nigel Collier
発行日 2025-05-14 16:16:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | PT-MoE: An Efficient Finetuning Framework for Integrating Mixture-of-Experts into Prompt Tuning はコメントを受け付けていません

TSLFormer: A Lightweight Transformer Model for Turkish Sign Language Recognition Using Skeletal Landmarks

要約

この研究では、標識のジェスチャーを秩序だった文字列のような言語として扱う軽量で堅牢な単語レベルのトルコの手話(TSL)認識モデルであるTSLFormerを提示します。
生のRGBまたは深度ビデオを使用する代わりに、この方法は3Dジョイントポジション(アーティキュレーションポイント)でのみ機能します。GoogleのMediapipeライブラリを使用して抽出されます。
これにより、重要なセマンティックジェスチャー情報を保存しながら、効率的な入力次元削減が作成されます。
私たちのアプローチは、手話からシーケンスへの翻訳としての手話認識を再検討します。これは、手話の言語の性質と自然言語処理における変圧器の成功に触発されました。
TSLFormerは自己触媒メカニズムを使用するため、ジェスチャーシーケンス内の時間的共起を効果的にキャプチャし、単語が展開するにつれて意味のあるモーションパターンを強調します。
36,000を超えるサンプルと227の異なる単語でATSLデータセットで評価されたTSLFormerは、最小限の計算コストで競争力のあるパフォーマンスを達成します。
これらの結果は、共同ベースの入力が、聴覚障害のある個人向けのリアルタイム、モバイル、および支援システムを有効にするのに十分であることを示しています。

要約(オリジナル)

This study presents TSLFormer, a light and robust word-level Turkish Sign Language (TSL) recognition model that treats sign gestures as ordered, string-like language. Instead of using raw RGB or depth videos, our method only works with 3D joint positions – articulation points – extracted using Google’s Mediapipe library, which focuses on the hand and torso skeletal locations. This creates efficient input dimensionality reduction while preserving important semantic gesture information. Our approach revisits sign language recognition as sequence-to-sequence translation, inspired by the linguistic nature of sign languages and the success of transformers in natural language processing. Since TSLFormer uses the self-attention mechanism, it effectively captures temporal co-occurrence within gesture sequences and highlights meaningful motion patterns as words unfold. Evaluated on the AUTSL dataset with over 36,000 samples and 227 different words, TSLFormer achieves competitive performance with minimal computational cost. These results show that joint-based input is sufficient for enabling real-time, mobile, and assistive communication systems for hearing-impaired individuals.

arxiv情報

著者 Kutay Ertürk,Furkan Altınışık,İrem Sarıaltın,Ömer Nezih Gerek
発行日 2025-05-14 16:43:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, eess.IV | TSLFormer: A Lightweight Transformer Model for Turkish Sign Language Recognition Using Skeletal Landmarks はコメントを受け付けていません

OAEI-LLM-T: A TBox Benchmark Dataset for Understanding Large Language Model Hallucinations in Ontology Matching

要約

大規模な言語モデル(LLM)を使用した下流タスクでは、幻覚はしばしば避けられません。
LLMベースのオントロジーマッチング(OM)システムの幻覚に対処するという大きな課題に取り組むために、新しいベンチマークデータセットOAEI-LLM-Tを導入します。
データセットは、オントロジーアライメント評価イニシアチブ(OAEI)の7つのTBOXデータセットから進化し、OMタスクを実行する10種類のLLMSの幻覚をキャプチャします。
これらのOM固有の幻覚は、2つの主要なカテゴリと6つのサブカテゴリに編成されています。
OMタスクのLLMリーダーボードを構築し、OMタスクで使用される微調整LLMのデータセットの有用性を紹介します。

要約(オリジナル)

Hallucinations are often inevitable in downstream tasks using large language models (LLMs). To tackle the substantial challenge of addressing hallucinations for LLM-based ontology matching (OM) systems, we introduce a new benchmark dataset OAEI-LLM-T. The dataset evolves from seven TBox datasets in the Ontology Alignment Evaluation Initiative (OAEI), capturing hallucinations of ten different LLMs performing OM tasks. These OM-specific hallucinations are organised into two primary categories and six sub-categories. We showcase the usefulness of the dataset in constructing an LLM leaderboard for OM tasks and for fine-tuning LLMs used in OM tasks.

arxiv情報

著者 Zhangcheng Qiang,Kerry Taylor,Weiqing Wang,Jing Jiang
発行日 2025-05-14 16:57:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.IR | OAEI-LLM-T: A TBox Benchmark Dataset for Understanding Large Language Model Hallucinations in Ontology Matching はコメントを受け付けていません

DACAD: Domain Adaptation Contrastive Learning for Anomaly Detection in Multivariate Time Series

要約

時系列異常検出(TSAD)では、ラベル付きデータの希少性は、正確なモデルの開発に課題となります。
監視されていないドメイン適応(UDA)は、関連するドメインからのラベル付きデータを活用して、非標識ターゲットドメインの異常を検出することにより、ソリューションを提供します。
ただし、既存のUDAメソッドは、ドメイン全体で一貫した異常なクラスを想定しています。
この制限に対処するために、UDAと対照的な学習を組み合わせて、多変量時系列(DACAD)における異常検出のための新しいドメイン適応コントラスト学習モデルを提案します。
DACADは、目に見えない異常なクラス全体で一般化を強化し、適応性と堅牢性を向上させる異常注入メカニズムを利用します。
さらに、我々のモデルは、ソースドメインの監視されたコントラスト損失とターゲットドメインの自己監視対照トリプレット損失を採用しており、包括的な特徴表現学習とドメインに不変の特徴抽出を確保します。
最後に、効果的なセンターベースのエントロピー分類器(CEC)は、ソースドメインの通常の境界を正確に学習します。
複数の現実世界のデータセットと合成データセットの広範な評価は、ドメイン間で知識を転送し、TSADの限定されたラベルデータの課題を軽減する際のDACADの優れたパフォーマンスを強調しています。

要約(オリジナル)

In time series anomaly detection (TSAD), the scarcity of labeled data poses a challenge to the development of accurate models. Unsupervised domain adaptation (UDA) offers a solution by leveraging labeled data from a related domain to detect anomalies in an unlabeled target domain. However, existing UDA methods assume consistent anomalous classes across domains. To address this limitation, we propose a novel Domain Adaptation Contrastive learning model for Anomaly Detection in multivariate time series (DACAD), combining UDA with contrastive learning. DACAD utilizes an anomaly injection mechanism that enhances generalization across unseen anomalous classes, improving adaptability and robustness. Additionally, our model employs supervised contrastive loss for the source domain and self-supervised contrastive triplet loss for the target domain, ensuring comprehensive feature representation learning and domain-invariant feature extraction. Finally, an effective Center-based Entropy Classifier (CEC) accurately learns normal boundaries in the source domain. Extensive evaluations on multiple real-world datasets and a synthetic dataset highlight DACAD’s superior performance in transferring knowledge across domains and mitigating the challenge of limited labeled data in TSAD.

arxiv情報

著者 Zahra Zamanzadeh Darban,Yiyuan Yang,Geoffrey I. Webb,Charu C. Aggarwal,Qingsong Wen,Shirui Pan,Mahsa Salehi
発行日 2025-05-14 13:06:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | DACAD: Domain Adaptation Contrastive Learning for Anomaly Detection in Multivariate Time Series はコメントを受け付けていません

TensorRL-QAS: Reinforcement learning with tensor networks for scalable quantum architecture search

要約

バリエーション量子アルゴリズムは、騒々しい中間スケールの量子ハードウェアですでに意味のある量子問題に対処するという約束を抱えていますが、ターゲットの問題を解決し、デバイスの制限に準拠する量子回路を設計するという課題に直面しています。
Quantum Architecture Search(QAS)この設計プロセスを自動化し、強化学習(RL)が有望なアプローチとして浮上します。
しかし、RLベースのQASメソッドは、計算およびトレーニングコストがQUBITS、回路の深さ、ノイズの数とともに急速に増加し、パフォーマンスに深刻な影響を与えるため、重大なスケーラビリティの問題が発生します。
これらの課題に対処するために、テンソルネットワーク(TN)メソッドと量子回路を設計するためのRLを組み合わせたスケーラブルなフレームワークである$ \ TextIT {Tensorrl-Qas} $を紹介します。
ターゲットソリューションのマトリックス製品状態近似でアーキテクチャ検索をウォームスタートすることにより、TENSORR-QAは、検索空間を物理的に意味のある回路に効果的に狭め、目的のソリューションへの収束を加速します。
最大12クットのいくつかの量子化学的問題でテストされたTensorr-QASは、化学的精度を維持または上回りながら、ベースライン法と比較してCNOTカウントと回路の深さを最大10倍減少させます。
関数の評価を最大100倍削減し、トレーニングエピソードを最大98ドル\%$で加速し、ベースラインアプローチの$ <1 \%$レートを超える10 qubit Systems-FARで最大50ドルの成功確率を達成します。 堅牢性と汎用性は、最大8クットのシミュレーションを報告するノイズレスとノイズの多いシナリオの両方で実証されています。 これらの進歩により、Tensorr-QAは、短期量子ハードウェアのスケーラブルで効率的な量子回路発見プロトコルの有望な候補として確立されます。

要約(オリジナル)

Variational quantum algorithms hold the promise to address meaningful quantum problems already on noisy intermediate-scale quantum hardware, but they face the challenge of designing quantum circuits that both solve the target problem and comply with device limitations. Quantum architecture search (QAS) automates this design process, with reinforcement learning (RL) emerging as a promising approach. Yet, RL-based QAS methods encounter significant scalability issues, as computational and training costs grow rapidly with the number of qubits, circuit depth, and noise, severely impacting performance. To address these challenges, we introduce $\textit{TensorRL-QAS}$, a scalable framework that combines tensor network (TN) methods with RL for designing quantum circuits. By warm-starting the architecture search with a matrix product state approximation of the target solution, TensorRL-QAS effectively narrows the search space to physically meaningful circuits, accelerating convergence to the desired solution. Tested on several quantum chemistry problems of up to 12-qubit, TensorRL-QAS achieves up to a 10-fold reduction in CNOT count and circuit depth compared to baseline methods, while maintaining or surpassing chemical accuracy. It reduces function evaluations by up to 100-fold, accelerates training episodes by up to $98\%$, and achieves up to $50\%$ success probability for 10-qubit systems-far exceeding the $<1\%$ rates of baseline approaches. Robustness and versatility are demonstrated both in the noiseless and noisy scenarios, where we report a simulation of up to 8-qubit. These advancements establish TensorRL-QAS as a promising candidate for a scalable and efficient quantum circuit discovery protocol on near-term quantum hardware.

arxiv情報

著者 Akash Kundu,Stefano Mangini
発行日 2025-05-14 13:23:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.ET, cs.LG, quant-ph | TensorRL-QAS: Reinforcement learning with tensor networks for scalable quantum architecture search はコメントを受け付けていません

Think Smart, Act SMARL! Analyzing Probabilistic Logic Shields for Multi-Agent Reinforcement Learning

要約

安全な補強学習(RL)は、実際のアプリケーションにとって重要であり、マルチエージェントの相互作用は追加の安全上の課題をもたらします。
確率論的論理シールド(PLS)は、単一エージェントRLの安全性を実施する強力な提案でしたが、マルチエージェント設定に対する一般化可能性は未開拓のままです。
この論文では、分散型のマルチエージェント環境内でPLSの広範な分析を実施することにより、このギャップに対処し、そうすることで、MARLを標準的な結果に導くための一般的な枠組みとしてシールドされたマルチエージェント補強学習(SMARL)を提案します。
私たちの重要な貢献は次のとおりです。(1)シールドされた独立したQラーニングの新しい確率論的論理時間差(PLTD)更新。
(2)MARLの正式な安全保証を使用して、PPOを保護するための確率論的論理ポリシー勾配法。
(3)対称的および非対称的にシールドされた包括的な評価$ n $ n $ -Playerゲーム理論ベンチマークは、制約違反が少なく、規範的制約の下での大幅な協力を示しています。
これらの結果は、Smarlを平衡選択の効果的なメカニズムとして位置付け、より安全で社会的に整合したマルチエージェントシステムへの道を開いています。

要約(オリジナル)

Safe reinforcement learning (RL) is crucial for real-world applications, and multi-agent interactions introduce additional safety challenges. While Probabilistic Logic Shields (PLS) has been a powerful proposal to enforce safety in single-agent RL, their generalizability to multi-agent settings remains unexplored. In this paper, we address this gap by conducting extensive analyses of PLS within decentralized, multi-agent environments, and in doing so, propose Shielded Multi-Agent Reinforcement Learning (SMARL) as a general framework for steering MARL towards norm-compliant outcomes. Our key contributions are: (1) a novel Probabilistic Logic Temporal Difference (PLTD) update for shielded, independent Q-learning, which incorporates probabilistic constraints directly into the value update process; (2) a probabilistic logic policy gradient method for shielded PPO with formal safety guarantees for MARL; and (3) comprehensive evaluation across symmetric and asymmetrically shielded $n$-player game-theoretic benchmarks, demonstrating fewer constraint violations and significantly better cooperation under normative constraints. These results position SMARL as an effective mechanism for equilibrium selection, paving the way toward safer, socially aligned multi-agent systems.

arxiv情報

著者 Satchit Chatterji,Erman Acar
発行日 2025-05-14 13:30:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | Think Smart, Act SMARL! Analyzing Probabilistic Logic Shields for Multi-Agent Reinforcement Learning はコメントを受け付けていません

The Voice Timbre Attribute Detection 2025 Challenge Evaluation Plan

要約

声の音色とは、人間の聴覚によって認識されているように、他の人と区別する人の声のユニークな品質または性格を指します。
Voice Timbre属性検出(VTAD)2025 Challengeは、Voice Timbre属性を比較方法で説明することに焦点を当てています。
この課題では、声の音色の人間の印象は、明るい、粗い、柔らかい、磁気などを含む一連の感覚記述子で言葉で表現されています。
音色は、特定の記述子ディメンション内の強度の2つの声の比較から説明されています。
VTAD 2025チャレンジは5月に始まり、2025年10月に中国のゼンジャンで開催されたNCMMSC2025会議で特別な提案で頂点に達します。

要約(オリジナル)

Voice timbre refers to the unique quality or character of a person’s voice that distinguishes it from others as perceived by human hearing. The Voice Timbre Attribute Detection (VtaD) 2025 challenge focuses on explaining the voice timbre attribute in a comparative manner. In this challenge, the human impression of voice timbre is verbalized with a set of sensory descriptors, including bright, coarse, soft, magnetic, and so on. The timbre is explained from the comparison between two voices in their intensity within a specific descriptor dimension. The VtaD 2025 challenge starts in May and culminates in a special proposal at the NCMMSC2025 conference in October 2025 in Zhenjiang, China.

arxiv情報

著者 Zhengyan Sheng,Jinghao He,Liping Chen,Kong Aik Lee,Zhen-Hua Ling
発行日 2025-05-14 13:35:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.SD, eess.AS | The Voice Timbre Attribute Detection 2025 Challenge Evaluation Plan はコメントを受け付けていません

Quantum-Enhanced Parameter-Efficient Learning for Typhoon Trajectory Forecasting

要約

台風の軌跡予測は災害の準備に不可欠ですが、大気のダイナミクスの複雑さと深い学習モデルのリソース要件のために、計算上厳しいままです。
量子ニューラルネットワーク(QNNS)を活用してトレーニング中にトレーニング可能なパラメーターを生成するハイブリッド量子クラシカルフレームワークである量子トレイン(QT)は、推論時に量子ハードウェアの必要性を排除します。
画像分類、強化学習、洪水予測、大規模な言語モデル(LLM)の微調整など、複数のドメインにわたるQTの成功に基づいて、効率的な台風予測モデル学習のための量子パラメーター適応(QPA)を導入します。
注意ベースのマルチコンブグラモデルと統合されたQPAは、予測精度を維持しながらパラメーター効率の高いトレーニングを可能にします。
この作業は、大規模な台風軌跡予測への量子機械学習(QML)の最初の応用を表しており、気候モデリングに対するスケーラブルでエネルギー効率の高いアプローチを提供します。
我々の結果は、QPAがパフォーマンスを維持しながら訓練可能なパラメーターの数を大幅に削減し、ハイブリッド量子クラシック学習を通じて高性能予測をよりアクセスしやすく持続可能にすることを示しています。

要約(オリジナル)

Typhoon trajectory forecasting is essential for disaster preparedness but remains computationally demanding due to the complexity of atmospheric dynamics and the resource requirements of deep learning models. Quantum-Train (QT), a hybrid quantum-classical framework that leverages quantum neural networks (QNNs) to generate trainable parameters exclusively during training, eliminating the need for quantum hardware at inference time. Building on QT’s success across multiple domains, including image classification, reinforcement learning, flood prediction, and large language model (LLM) fine-tuning, we introduce Quantum Parameter Adaptation (QPA) for efficient typhoon forecasting model learning. Integrated with an Attention-based Multi-ConvGRU model, QPA enables parameter-efficient training while maintaining predictive accuracy. This work represents the first application of quantum machine learning (QML) to large-scale typhoon trajectory prediction, offering a scalable and energy-efficient approach to climate modeling. Our results demonstrate that QPA significantly reduces the number of trainable parameters while preserving performance, making high-performance forecasting more accessible and sustainable through hybrid quantum-classical learning.

arxiv情報

著者 Chen-Yu Liu,Kuan-Cheng Chen,Yi-Chien Chen,Samuel Yen-Chi Chen,Wei-Hao Huang,Wei-Jia Huang,Yen-Jui Chang
発行日 2025-05-14 13:50:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, quant-ph | Quantum-Enhanced Parameter-Efficient Learning for Typhoon Trajectory Forecasting はコメントを受け付けていません