A Winner-Takes-All Mechanism for Event Generation

要約

Winner-Takes-All計算と組み合わせて、ニューロンの本質的なリバウンド興奮性を活用する中央パターンジェネレーター設計の新しいフレームワークを提示します。
私たちのアプローチは、設計可能な興奮性相互作用によって強化されたすべての抑制接続を採用するシンプルでありながら強力なネットワークアーキテクチャ内で、意思決定とリズミカルなパターン生成を統合します。
この設計は、実装の容易さ、適応性、堅牢性に関する大きな利点を提供します。
適応相と周波数変調を示すリング発振器モデルを通じてその有効性を実証し、神経型システムとロボット工学のアプリケーションに特に有望なフレームワークを実現します。

要約(オリジナル)

We present a novel framework for central pattern generator design that leverages the intrinsic rebound excitability of neurons in combination with winner-takes-all computation. Our approach unifies decision-making and rhythmic pattern generation within a simple yet powerful network architecture that employs all-to-all inhibitory connections enhanced by designable excitatory interactions. This design offers significant advantages regarding ease of implementation, adaptability, and robustness. We demonstrate its efficacy through a ring oscillator model, which exhibits adaptive phase and frequency modulation, making the framework particularly promising for applications in neuromorphic systems and robotics.

arxiv情報

著者 Yongkang Huo,Fuvio Forni,Rodolphe Sepulchre
発行日 2025-04-15 16:40:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.SY, eess.SY | A Winner-Takes-All Mechanism for Event Generation はコメントを受け付けていません

Trajectory Encoding Temporal Graph Networks

要約

時間グラフネットワーク(TGN)は、リンク予測やノード分類などの動的グラフタスクで大きな成功を示しています。
両方のタスクは、モデルが既知のノード間のリンクを予測し、誘導設定で、以前に見えないノードに学習したパターンを一般化する導入設定で構成されます。
既存のTGN設計は、これらのデュアルシナリオの下でジレンマに直面しています。
匿名のTGNは、時間的情報と構造情報のみに依存しており、強力な帰納的一般化を提供しますが、既知のノードを区別するのに苦労しています。
対照的に、非匿名のTGNはノード機能を活用して、トランスダクティブタスクに優れているが、新しいノードに適応できない。
この課題に対処するために、TGN(TETGN)をコードする軌跡を提案します。
私たちのアプローチでは、自動的に拡張可能なノード識別子(ID)が学習可能な時間的位置機能として導入され、これらのIDを通過するメッセージを実行して、各ノードの歴史的コンテキストをキャプチャします。
この軌跡を意識したモジュールをマルチヘッドの注意を使用して標準のTGNと統合することにより、TETGNは、導入精度と誘導的一般化と効果的にバランスを取ります。
3つの実際のデータセットでの実験結果は、TETGNがリンク予測タスクとノード分類タスクの両方の強力なベースラインを大幅に上回ることを示しており、動的グラフ学習の匿名モデルと非匿名モデルの利点を統合する能力を示しています。

要約(オリジナル)

Temporal Graph Networks (TGNs) have demonstrated significant success in dynamic graph tasks such as link prediction and node classification. Both tasks comprise transductive settings, where the model predicts links among known nodes, and in inductive settings, where it generalises learned patterns to previously unseen nodes. Existing TGN designs face a dilemma under these dual scenarios. Anonymous TGNs, which rely solely on temporal and structural information, offer strong inductive generalisation but struggle to distinguish known nodes. In contrast, non-anonymous TGNs leverage node features to excel in transductive tasks yet fail to adapt to new nodes. To address this challenge, we propose Trajectory Encoding TGN (TETGN). Our approach introduces automatically expandable node identifiers (IDs) as learnable temporal positional features and performs message passing over these IDs to capture each node’s historical context. By integrating this trajectory-aware module with a standard TGN using multi-head attention, TETGN effectively balances transductive accuracy with inductive generalisation. Experimental results on three real-world datasets show that TETGN significantly outperforms strong baselines on both link prediction and node classification tasks, demonstrating its ability to unify the advantages of anonymous and non-anonymous models for dynamic graph learning.

arxiv情報

著者 Jiafeng Xiong,Rizos Sakellariou
発行日 2025-04-15 16:57:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | Trajectory Encoding Temporal Graph Networks はコメントを受け付けていません

AI threats to national security can be countered through an incident regime

要約

AI能力の最近の進歩は、AIシステムが国家安全保障に脅威を与える可能性があるという懸念を高めました。たとえば、悪意のあるアクターが重要な国家インフラストラクチャでサイバー攻撃を実行したり、自律AIシステムの制御を紛失したりすることを容易にすることにより。
並行して、米国の連邦議員は、同様の脅威を特定して対抗するために、初期の「AI事件体制」を提案しています。
この論文では、これら2つの傾向を統合し、AIシステムからの潜在的な国家安全保障の脅威に対抗することを目的とした法的に義務付けられた展開後のAI事件制度のタイムリーな提案を提示します。
「セキュリティクリティカル」の概念を導入して、「セキュリティクリティカル」が民間の原子力発電、航空、航空科学の二重使用懸念研究、フロンティアAI開発について説明する前に、国家安全保障に極度のリスクをもたらす医師を説明する「セキュリティクリティカル」の概念を導入することから始めます。
次に、AIインシデント制度の提案を詳細に提示し、他の「セキュリティクリティカルな」セクターにおける米国の国内事件体制との類似性を実証することにより、提案の各要素を正当化します。
最後に、提案されたAI事件制度がAIサイバー事件を扱う仮説的なシナリオをスケッチします。
提案されているAIインシデント体制は、3つのフェーズに分割されています。
最初のフェーズは、「AIインシデント」としてカウントされるものの新しい運用化を中心に展開します。AIプロバイダーは、フロンティアAIシステムを展開する前に「国家安全保障ケース」を作成する必要があることをお勧めします。
第2段階と第3フェーズでは、AIプロバイダーが事件について政府機関に通知する必要があり、政府機関が国家安全保障に対する将来の脅威に対抗するために、AIプロバイダーのセキュリティと安全手順の修正に関与すべきであることを明らかにしています。

要約(オリジナル)

Recent progress in AI capabilities has heightened concerns that AI systems could pose a threat to national security, for example, by making it easier for malicious actors to perform cyberattacks on critical national infrastructure, or through loss of control of autonomous AI systems. In parallel, federal legislators in the US have proposed nascent ‘AI incident regimes’ to identify and counter similar threats. In this paper, we consolidate these two trends and present a timely proposal for a legally mandated post-deployment AI incident regime that aims to counter potential national security threats from AI systems. We start the paper by introducing the concept of ‘security-critical’ to describe doctors that pose extreme risks to national security, before arguing that ‘security-critical’ describes civilian nuclear power, aviation, life science dual-use research of concern, and frontier AI development. We then present in detail our AI incident regime proposal, justifying each component of the proposal by demonstrating its similarity to US domestic incident regimes in other ‘security-critical’ sectors. Finally, we sketch a hypothetical scenario where our proposed AI incident regime deals with an AI cyber incident. Our proposed AI incident regime is split into three phases. The first phase revolves around a novel operationalization of what counts as an ‘AI incident’ and we suggest that AI providers must create a ‘national security case’ before deploying a frontier AI system. The second and third phases spell out that AI providers should notify a government agency about incidents, and that the government agency should be involved in amending AI providers’ security and safety procedures, in order to counter future threats to national security.

arxiv情報

著者 Alejandro Ortega
発行日 2025-04-15 17:13:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY | AI threats to national security can be countered through an incident regime はコメントを受け付けていません

OmniXAS: A Universal Deep-Learning Framework for Materials X-ray Absorption Spectra

要約

X線吸収分光法(XAS)は、吸収原子の局所化学環境を調査するための強力な特性評価技術です。
ただし、XASデータを分析することは重要な課題をもたらし、多くの場合、大規模で計算集中的なシミュレーション、および重要なドメインの専門知識を必要とします。
これらの制限は、ハイスループット研究および自律実験に不可欠な高速で堅牢なXAS分析パイプラインの開発を妨げます。
これらの課題は、XAS予測のための一連の転送学習アプローチを含むフレームワークであり、それぞれが8つの3D遷移金属(TI-CU)をカバーするK-Edgeスペクトルデータベースで実証されているように、精度と効率の向上に貢献しています。
Omnixasフレームワークは、3つの異なる戦略の上に構築されています。
まず、M3GNETを使用して、吸収部位のローカル化学環境の潜在的な表現をXAS予測の入力として導き出し、従来の機能化技術よりも秩序の改善を達成します。
第二に、要素固有の予測のために微調整する前に、階層転送学習戦略を採用し、要素全体で普遍的なマルチタスクモデルをトレーニングします。
要素ごとの微調整後のこのカスケードアプローチに基づくモデルは、要素固有のモデルを最大69%上回ります。
第三に、忠実な転送学習を実装し、異なる忠実度のシミュレーションによって生成されたスペクトルを予測するためにユニバーサルモデルを適応させ、計算コストが高くなります。
このアプローチは、ターゲットの忠実度だけでトレーニングされたモデルよりも最大11%の予測精度を改善します。
私たちのアプローチは、XASモデリングのスループットを桁違いと第一原理シミュレーションと比較して拡張し、より広範な要素のXAS予測に拡張可能です。
この転送学習フレームワークは、材料研究の他の特性を対象とする深い学習モデルを強化するために一般化できます。

要約(オリジナル)

X-ray absorption spectroscopy (XAS) is a powerful characterization technique for probing the local chemical environment of absorbing atoms. However, analyzing XAS data presents significant challenges, often requiring extensive, computationally intensive simulations, as well as significant domain expertise. These limitations hinder the development of fast, robust XAS analysis pipelines that are essential in high-throughput studies and for autonomous experimentation. We address these challenges with OmniXAS, a framework that contains a suite of transfer learning approaches for XAS prediction, each contributing to improved accuracy and efficiency, as demonstrated on K-edge spectra database covering eight 3d transition metals (Ti-Cu). The OmniXAS framework is built upon three distinct strategies. First, we use M3GNet to derive latent representations of the local chemical environment of absorption sites as input for XAS prediction, achieving up to order-of-magnitude improvements over conventional featurization techniques. Second, we employ a hierarchical transfer learning strategy, training a universal multi-task model across elements before fine-tuning for element-specific predictions. Models based on this cascaded approach after element-wise fine-tuning outperform element-specific models by up to 69%. Third, we implement cross-fidelity transfer learning, adapting a universal model to predict spectra generated by simulation of a different fidelity with a higher computational cost. This approach improves prediction accuracy by up to 11% over models trained on the target fidelity alone. Our approach boosts the throughput of XAS modeling by orders of magnitude versus first-principles simulations and is extendable to XAS prediction for a broader range of elements. This transfer learning framework is generalizable to enhance deep-learning models that target other properties in materials research.

arxiv情報

著者 Shubha R. Kharel,Fanchen Meng,Xiaohui Qu,Matthew R. Carbone,Deyu Lu
発行日 2025-04-15 17:22:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cond-mat.mtrl-sci, cs.AI, cs.LG | OmniXAS: A Universal Deep-Learning Framework for Materials X-ray Absorption Spectra はコメントを受け付けていません

Measures of Variability for Risk-averse Policy Gradient

要約

リスク回避補強学習(RARL)は、不確実性の下での意思決定に不可欠です。これは、ハイステークアプリケーションで特に価値があります。
ただし、ほとんどの既存の作業は、リスク測定、たとえば条件付きバリューアットリスク(CVAR)に焦点を当てていますが、変動の測定値は未定です。
この論文では、変動性の9つの一般的な測定、すなわち、分散、ジニ偏差、平均偏差、平均メディアン偏差、標準偏差、測量間範囲、CVAR偏差、Semi_variance、およびsemi_standard偏差を包括的に研究します。
その中で、4つのメトリックがRARLで以前に研究されていません。
これらの非実施されていないメトリックのポリシー勾配式を導き出し、ジニ偏差の勾配推定を改善し、勾配特性を分析し、補強とPPOフレームワークに組み込み、リターンの分散を罰します。
私たちの経験的研究は、分散ベースのメトリックが不安定なポリシーの更新につながることを明らかにしています。
対照的に、CVAR偏差とジニ偏差は、異なるランダム性と評価ドメインで一貫したパフォーマンスを示し、リスクを回避するポリシーを効果的に学習しながら高いリターンを達成します。
平均偏差とセミスタンダード偏差も、さまざまなシナリオで競争力があります。
この作業は、RARLの変動測定の包括的な概要を提供し、リスクを認識した意思決定のための実用的な洞察を提供し、リスクメトリックとRARLアルゴリズムに関する将来の研究を導きます。

要約(オリジナル)

Risk-averse reinforcement learning (RARL) is critical for decision-making under uncertainty, which is especially valuable in high-stake applications. However, most existing works focus on risk measures, e.g., conditional value-at-risk (CVaR), while measures of variability remain underexplored. In this paper, we comprehensively study nine common measures of variability, namely Variance, Gini Deviation, Mean Deviation, Mean-Median Deviation, Standard Deviation, Inter-Quantile Range, CVaR Deviation, Semi_Variance, and Semi_Standard Deviation. Among them, four metrics have not been previously studied in RARL. We derive policy gradient formulas for these unstudied metrics, improve gradient estimation for Gini Deviation, analyze their gradient properties, and incorporate them with the REINFORCE and PPO frameworks to penalize the dispersion of returns. Our empirical study reveals that variance-based metrics lead to unstable policy updates. In contrast, CVaR Deviation and Gini Deviation show consistent performance across different randomness and evaluation domains, achieving high returns while effectively learning risk-averse policies. Mean Deviation and Semi_Standard Deviation are also competitive across different scenarios. This work provides a comprehensive overview of variability measures in RARL, offering practical insights for risk-aware decision-making and guiding future research on risk metrics and RARL algorithms.

arxiv情報

著者 Yudong Luo,Yangchen Pan,Jiaqi Tan,Pascal Poupart
発行日 2025-04-15 17:28:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | Measures of Variability for Risk-averse Policy Gradient はコメントを受け付けていません

Embodied World Models Emerge from Navigational Task in Open-Ended Environments

要約

人工システムがどのように空間的認識と推論を開発できるかを理解することは、AIの研究では長い間課題でした。
従来のモデルはしばしば受動的な観察に依存していますが、具体化された認知理論は、環境との積極的な相互作用からより深い理解が現れることを示唆しています。
この研究では、ニューラルネットワークが相互作用を通じて空間概念を自律的に内在化し、平面ナビゲーションタスクに焦点を当てることができるかどうかを調査します。
Gated Recurrentユニット(Grus)とメタ補強学習(Meta-RL)を組み合わせて、エージェントが方向、距離、障害物回避などの空間特性をエンコードすることを学ぶことができることを示します。
ハイブリッド動的システム(HDS)を導入して、エージェントと環境の相互作用を閉じた動的システムとしてモデル化し、最適なナビゲーション戦略に対応する安定した制限サイクルを明らかにします。
尾根表現により、ナビゲーションパスを固定次元の行動空間にマッピングして、神経状態との比較を可能にします。
標準相関分析(CCA)は、これらの表現間の強いアライメントを確認し、エージェントの神経状態が空間知識を積極的にエンコードすることを示唆しています。
介入実験により、特定の神経次元がナビゲーションのパフォーマンスに因果関係があることがさらに示されています。
この作業は、AIのアクションと知覚のギャップを埋めるためのアプローチを提供し、複雑な環境全体で一般化できる適応的で解釈可能なモデルを構築するための新しい洞察を提供します。
神経表現の因果的検証は、AIシステムの内部メカニズムを理解して制御するための新しい道を開き、動的で現実世界のシナリオでマシンの学習と推論の境界を押し広げます。

要約(オリジナル)

Understanding how artificial systems can develop spatial awareness and reasoning has long been a challenge in AI research. Traditional models often rely on passive observation, but embodied cognition theory suggests that deeper understanding emerges from active interaction with the environment. This study investigates whether neural networks can autonomously internalize spatial concepts through interaction, focusing on planar navigation tasks. Using Gated Recurrent Units (GRUs) combined with Meta-Reinforcement Learning (Meta-RL), we show that agents can learn to encode spatial properties like direction, distance, and obstacle avoidance. We introduce Hybrid Dynamical Systems (HDS) to model the agent-environment interaction as a closed dynamical system, revealing stable limit cycles that correspond to optimal navigation strategies. Ridge Representation allows us to map navigation paths into a fixed-dimensional behavioral space, enabling comparison with neural states. Canonical Correlation Analysis (CCA) confirms strong alignment between these representations, suggesting that the agent’s neural states actively encode spatial knowledge. Intervention experiments further show that specific neural dimensions are causally linked to navigation performance. This work provides an approach to bridging the gap between action and perception in AI, offering new insights into building adaptive, interpretable models that can generalize across complex environments. The causal validation of neural representations also opens new avenues for understanding and controlling the internal mechanisms of AI systems, pushing the boundaries of how machines learn and reason in dynamic, real-world scenarios.

arxiv情報

著者 Li Jin,Liu Jia
発行日 2025-04-15 17:35:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.NE | Embodied World Models Emerge from Navigational Task in Open-Ended Environments はコメントを受け付けていません

A Dual-Space Framework for General Knowledge Distillation of Large Language Models

要約

知識蒸留(KD)は、知識を小さなモデルに転送することにより、大規模な言語モデル(LLM)を圧縮するための有望なソリューションです。
このプロセス中、ホワイトボックスKDメソッドは通常、教師モデルの出力分布と学生モデルの間の距離を最小限に抑えて、より多くの情報を転送します。
ただし、現在のホワイトボックスKDフレームワークが2つの制限を示していることを明らかにします。a)異なる出力スペースからの橋渡し確率分布は、教師モデルと学生モデルの類似性を制限します。
b)このフレームワークは、異なる語彙を持つLLMに適用することはできません。
これらの制限の根本原因の1つは、KDの教師と生徒からの分布が異なる予測ヘッドによって出力され、異なる出力スペースと寸法に分布が生成されることです。
したがって、この論文では、教師の予測ヘッドとKDの学生モデルを統一するデュアルスペースの知識蒸留(DSKD)フレームワークを提案します。
具体的には、最初に2つのプロジェクターを導入して、教師/生徒の隠された状態を学生/教師の表現スペースに投影するための理想的な初期化を行います。
この後、異なるモデルの隠された状態は同じヘッドを共有し、分布の出力スペースを統合することができます。
さらに、2つの異なるトークン化されたシーケンスで同じトークンを整列させるために、正確なトークンアライメント(ETA)アルゴリズムを開発します。
上記に基づいて、当社のDSKDフレームワークは、ポリティとポリティのKDの両方をサポートする一般的なKDフレームワークであり、語彙に関係なく任意の2つのLLM間のKDをサポートしています。
指導、数学的推論、およびコード生成ベンチマークに関する広範な実験は、DSKDが現在のホワイトボックスKDフレームワークに基づいて既存の方法を大幅に上回り、LLMSの他のクロストコーネザーKDメソッドを異なる語彙で上回ることを示しています。

要約(オリジナル)

Knowledge distillation (KD) is a promising solution to compress large language models (LLMs) by transferring their knowledge to smaller models. During this process, white-box KD methods usually minimize the distance between the output distributions of the teacher model and the student model to transfer more information. However, we reveal that the current white-box KD framework exhibits two limitations: a) bridging probability distributions from different output spaces will limit the similarity between the teacher model and the student model; b) this framework cannot be applied to LLMs with different vocabularies. One of the root causes for these limitations is that the distributions from the teacher and the student for KD are output by different prediction heads, which yield distributions in different output spaces and dimensions. Therefore, in this paper, we propose a dual-space knowledge distillation (DSKD) framework that unifies the prediction heads of the teacher and the student models for KD. Specifically, we first introduce two projectors with ideal initialization to project the teacher/student hidden states into the student/teacher representation spaces. After this, the hidden states from different models can share the same head and unify the output spaces of the distributions. Furthermore, we develop an exact token alignment (ETA) algorithm to align the same tokens in two differently-tokenized sequences. Based on the above, our DSKD framework is a general KD framework that supports both off-policy and on-policy KD, and KD between any two LLMs regardless of their vocabularies. Extensive experiments on instruction-following, mathematical reasoning, and code generation benchmarks show that DSKD significantly outperforms existing methods based on the current white-box KD framework and surpasses other cross-tokenizer KD methods for LLMs with different vocabularies.

arxiv情報

著者 Xue Zhang,Songming Zhang,Yunlong Liang,Fandong Meng,Yufeng Chen,Jinan Xu,Jie Zhou
発行日 2025-04-15 17:38:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG | A Dual-Space Framework for General Knowledge Distillation of Large Language Models はコメントを受け付けていません

Masculine Defaults via Gendered Discourse in Podcasts and Large Language Models

要約

男性的なデフォルトは、重要なタイプの性別バイアスとして広く認識されていますが、研究が不十分であるため、しばしば目に見えません。
男性的なデフォルトには、(i)文化的文脈、(ii)男性的な特性または行動、および(iii)それらの男性的特性または行動に対する報酬、または単に受け入れられる3つの重要な部分が含まれます。
この作業では、談話に基づく男性的なデフォルトを研究し、(i)ジェンダー談話相関フレームワーク(GDCF)を介して、話し言葉のコンテンツのジェンダーされた談話語の大規模な発見と分析の2つのフレームワークを提案します。
(ii)談話の単語埋め込み協会テスト(D-Weat)を介したLLMSのこれらの性別の談話語に関連する性別バイアスの測定。
私たちは、15,117のポッドキャストエピソードを分析し、ソーシャルメディアの人気のある成長しているポッドキャストであるポッドキャストに焦点を当てています。
ジェンダーと談話の単語の間の相関関係を分析し、LDAとBertopicを介して発見された – 性別の談話語リストを自動的に形成します。
次に、ドメイン固有のコンテキストでこれらの性別のある談話語の有病率を研究し、ビジネス、テクノロジー/政治、ビデオゲームのドメインには、性別のある談話に基づく男性的なデフォルトが存在することがわかります。
次に、Openaiからの最先端のLLM埋め込みモデルからのこれらの性別の談話語の表現を研究し、男性の談話の言葉よりも安定した堅牢な表現を持っていることがわかります。
したがって、男性は、最先端の言語モデルの1つによってシステムパフォーマンスが向上し、談話パターンに報われます。この埋め込み格差は、代表的な害と男性的なデフォルトです。

要約(オリジナル)

Masculine defaults are widely recognized as a significant type of gender bias, but they are often unseen as they are under-researched. Masculine defaults involve three key parts: (i) the cultural context, (ii) the masculine characteristics or behaviors, and (iii) the reward for, or simply acceptance of, those masculine characteristics or behaviors. In this work, we study discourse-based masculine defaults, and propose a twofold framework for (i) the large-scale discovery and analysis of gendered discourse words in spoken content via our Gendered Discourse Correlation Framework (GDCF); and (ii) the measurement of the gender bias associated with these gendered discourse words in LLMs via our Discourse Word-Embedding Association Test (D-WEAT). We focus our study on podcasts, a popular and growing form of social media, analyzing 15,117 podcast episodes. We analyze correlations between gender and discourse words — discovered via LDA and BERTopic — to automatically form gendered discourse word lists. We then study the prevalence of these gendered discourse words in domain-specific contexts, and find that gendered discourse-based masculine defaults exist in the domains of business, technology/politics, and video games. Next, we study the representation of these gendered discourse words from a state-of-the-art LLM embedding model from OpenAI, and find that the masculine discourse words have a more stable and robust representation than the feminine discourse words, which may result in better system performance on downstream tasks for men. Hence, men are rewarded for their discourse patterns with better system performance by one of the state-of-the-art language models — and this embedding disparity is a representational harm and a masculine default.

arxiv情報

著者 Maria Teleki,Xiangjue Dong,Haoran Liu,James Caverlee
発行日 2025-04-15 17:41:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CY, cs.LG, cs.SI | Masculine Defaults via Gendered Discourse in Podcasts and Large Language Models はコメントを受け付けていません

Belief-State Query Policies for User-Aligned POMDPs

要約

実際の設定での計画は、ユーザーの要件に合わせて部分的に観察可能性に対処することを必要とすることがよくあります。
目標指向の部分的に観察可能なマルコフ決定プロセス(GPOMDP)の設定におけるパラメーター化された信念 – 状態クエリ(BSQ)ポリシーを使用して、部分的に観察可能な設定でエージェントの動作に関するユーザーの制約と好みを表現するための新しいフレームワークを提示します。
このような制約の最初の正式な分析を提示し、パラメーター化されたBSQポリシーの予想コスト関数w.r.tのパラメーターは凸ではないが、それは区分的な一定であり、有限の範囲で有限の暗黙の離散パラメーター検索空間を生成することを証明します。
この理論的結果は、ユーザーアライメントを保証してGPOMDPエージェントの動作を最適化する新しいアルゴリズムにつながります。
分析では、アルゴリズムが限界で最適なユーザーに配置された動作に収束することが証明されています。
経験的な結果は、パラメーター化されたBSQポリシーが、部分的に観察可能な設定でのユーザーに配置された計画のための計算的に実行可能なアプローチを提供することを示しています。

要約(オリジナル)

Planning in real-world settings often entails addressing partial observability while aligning with users’ requirements. We present a novel framework for expressing users’ constraints and preferences about agent behavior in a partially observable setting using parameterized belief-state query (BSQ) policies in the setting of goal-oriented partially observable Markov decision processes (gPOMDPs). We present the first formal analysis of such constraints and prove that while the expected cost function of a parameterized BSQ policy w.r.t its parameters is not convex, it is piecewise constant and yields an implicit discrete parameter search space that is finite for finite horizons. This theoretical result leads to novel algorithms that optimize gPOMDP agent behavior with guaranteed user alignment. Analysis proves that our algorithms converge to the optimal user-aligned behavior in the limit. Empirical results show that parameterized BSQ policies provide a computationally feasible approach for user-aligned planning in partially observable settings.

arxiv情報

著者 Daniel Bramblett,Siddharth Srivastava
発行日 2025-04-15 17:47:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI | Belief-State Query Policies for User-Aligned POMDPs はコメントを受け付けていません

SpoofCeleb: Speech Deepfake Detection and SASV In The Wild

要約

このペーパーでは、音声ディープファーク検出(SDD)およびスプーフィングの強い自動スピーカー検証(SASV)のために設計されたデータセットであるSpoofceleBを紹介します。
堅牢な認識システムには、さまざまなレベルのノイズを訓練するために、さまざまな音響環境で記録された音声データが必要です。
ただし、現在のデータセットには通常、TTSトレーニングの要件により、クリーンで高品質の録音(真正データ)が含まれます。
通常、TTSモデルをトレーニングするためには、スタジオ品質またはよく記録された読み取り音声が必要です。
現在のSDDデータセットは、スピーカーの多様性が不十分なため、SASVモデルをトレーニングするための有用性も限られています。
SpoofceleBは、VoxceleB1データセットを処理し、TTSトレーニングに適した形式に変換する完全に自動化されたパイプラインを活用します。
その後、23の現代TTSシステムをトレーニングします。
Spoofcelebは、自然な現実世界の条件下で収集された1,251のユニークなスピーカーから250万を超える発言で構成されています。
データセットには、よく制御された実験プロトコルを備えた慎重に分割されたトレーニング、検証、および評価セットが含まれます。
SDDタスクとSASVタスクの両方のベースライン結果を提示します。
すべてのデータ、プロトコル、およびベースラインは、https://jungjee.github.io/spoofcelebで公開されています。

要約(オリジナル)

This paper introduces SpoofCeleb, a dataset designed for Speech Deepfake Detection (SDD) and Spoofing-robust Automatic Speaker Verification (SASV), utilizing source data from real-world conditions and spoofing attacks generated by Text-To-Speech (TTS) systems also trained on the same real-world data. Robust recognition systems require speech data recorded in varied acoustic environments with different levels of noise to be trained. However, current datasets typically include clean, high-quality recordings (bona fide data) due to the requirements for TTS training; studio-quality or well-recorded read speech is typically necessary to train TTS models. Current SDD datasets also have limited usefulness for training SASV models due to insufficient speaker diversity. SpoofCeleb leverages a fully automated pipeline we developed that processes the VoxCeleb1 dataset, transforming it into a suitable form for TTS training. We subsequently train 23 contemporary TTS systems. SpoofCeleb comprises over 2.5 million utterances from 1,251 unique speakers, collected under natural, real-world conditions. The dataset includes carefully partitioned training, validation, and evaluation sets with well-controlled experimental protocols. We present the baseline results for both SDD and SASV tasks. All data, protocols, and baselines are publicly available at https://jungjee.github.io/spoofceleb.

arxiv情報

著者 Jee-weon Jung,Yihan Wu,Xin Wang,Ji-Hoon Kim,Soumi Maiti,Yuta Matsunaga,Hye-jin Shim,Jinchuan Tian,Nicholas Evans,Joon Son Chung,Wangyou Zhang,Seyun Um,Shinnosuke Takamichi,Shinji Watanabe
発行日 2025-04-15 17:53:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.SD, eess.AS | SpoofCeleb: Speech Deepfake Detection and SASV In The Wild はコメントを受け付けていません