‘It’s not a representation of me’: Examining Accent Bias and Digital Exclusion in Synthetic AI Voice Services

要約

人工知能(AI)の音声生成と音声クローニング技術の最近の進歩は、自然主義的な音声と正確な音声複製を生み出していますが、多様なアクセントと言語特性にわたる社会技術システムへの影響は完全には理解されていません。
この研究では、調査とインタビューを使用した混合方法アプローチを通じて、2つの合成AI音声サービス(SpeechifyとElevenLabs)を評価して、技術的なパフォーマンスを評価し、ユーザーの生きた経験がこれらの音声技術のアクセントのバリエーションの認識にどのように影響するかを明らかにします。
私たちの調査結果は、5つの地域の英語のアクセントにわたる技術的なパフォーマンスの格差を明らかにし、現在の音声生成技術が誤って言語的特権とアクセントベースの差別を強化し、デジタル排除の新しい形態を生み出す可能性があることを示しています。
全体として、私たちの研究は、開発者、政策立案者、および組織に実質的で社会的に責任あるAIスピーチテクノロジーを確保するために、実用的な洞察を提供することにより、包括的な設計と規制の必要性を強調しています。

要約(オリジナル)

Recent advances in artificial intelligence (AI) speech generation and voice cloning technologies have produced naturalistic speech and accurate voice replication, yet their influence on sociotechnical systems across diverse accents and linguistic traits is not fully understood. This study evaluates two synthetic AI voice services (Speechify and ElevenLabs) through a mixed methods approach using surveys and interviews to assess technical performance and uncover how users’ lived experiences influence their perceptions of accent variations in these speech technologies. Our findings reveal technical performance disparities across five regional, English-language accents and demonstrate how current speech generation technologies may inadvertently reinforce linguistic privilege and accent-based discrimination, potentially creating new forms of digital exclusion. Overall, our study highlights the need for inclusive design and regulation by providing actionable insights for developers, policymakers, and organizations to ensure equitable and socially responsible AI speech technologies.

arxiv情報

著者 Shira Michel,Sufi Kaur,Sarah Elizabeth Gillespie,Jeffrey Gleason,Christo Wilson,Avijit Ghosh
発行日 2025-06-13 15:08:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.HC | ‘It’s not a representation of me’: Examining Accent Bias and Digital Exclusion in Synthetic AI Voice Services はコメントを受け付けていません

How do Probabilistic Graphical Models and Graph Neural Networks Look at Network Data?

要約

グラフは、リレーショナルデータを表すための強力なデータ構造であり、複雑な現実世界システムを記述するために広く使用されています。
確率的グラフィカルモデル(PGM)とグラフニューラルネットワーク(GNNS)は、グラフ構造データを活用できますが、その固有の機能は異なります。
問題は、ネットワーク化されたデータセットに含まれる情報をキャプチャする際にどのように比較するのでしょうか?
リンク予測タスクを解決することによりこの目的に対処し、合成ネットワークと実際のネットワークの両方で3つの主要な実験を行います。1つはPGMとGNNSが入力機能を処理する方法に焦点を当て、他の2つはノイズの多い機能とグラフのヘテロフィリーの増加を調査します。
PGMは必ずしもノード上の機能を必要とするわけではありませんが、GNNはネットワークエッジのみを悪用することはできず、入力機能の選択が重要です。
入力機能が低次元またはうるさい場合、GNNはPGMによってアウトパフォームされていることがわかり、ノード属性がスカラーまたはノイズが多い場合がある多くの実際のシナリオを模倣しています。
次に、グラフの異種が増加すると、PGMがGNNよりも堅牢であることがわかります。
最後に、予測タスクを超えたパフォーマンスを評価するために、計算の複雑さと解釈可能性の観点から2つのフレームワークも比較します。

要約(オリジナル)

Graphs are a powerful data structure for representing relational data and are widely used to describe complex real-world systems. Probabilistic Graphical Models (PGMs) and Graph Neural Networks (GNNs) can both leverage graph-structured data, but their inherent functioning is different. The question is how do they compare in capturing the information contained in networked datasets? We address this objective by solving a link prediction task and we conduct three main experiments, on both synthetic and real networks: one focuses on how PGMs and GNNs handle input features, while the other two investigate their robustness to noisy features and increasing heterophily of the graph. PGMs do not necessarily require features on nodes, while GNNs cannot exploit the network edges alone, and the choice of input features matters. We find that GNNs are outperformed by PGMs when input features are low-dimensional or noisy, mimicking many real scenarios where node attributes might be scalar or noisy. Then, we find that PGMs are more robust than GNNs when the heterophily of the graph is increased. Finally, to assess performance beyond prediction tasks, we also compare the two frameworks in terms of their computational complexity and interpretability.

arxiv情報

著者 Michela Lapenna,Caterina De Bacco
発行日 2025-06-13 15:19:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, math-ph, math.MP, stat.ML | How do Probabilistic Graphical Models and Graph Neural Networks Look at Network Data? はコメントを受け付けていません

Robust Molecular Property Prediction via Densifying Scarce Labeled Data

要約

分子予測モデルの広く認識されている制限は、トレーニングデータで観察される構造への依存であり、分散化合物の一般化が不十分であることです。
しかし、創薬では、研究を進めるために最も重要な化合物はトレーニングセットを超えて存在することが多く、トレーニングデータへのバイアスが特に問題になります。
このミスマッチは、標準的な深い学習モデルが不安定で不正確な予測を生成する大幅な共変量シフトを導入します。
さらに、実験的検証の面倒で費用のかかる性質に起因するラベル付きデータの希少性は、信頼できる一般化を達成することの難しさをさらに悪化させます。
これらの制限に対処するために、無効なデータを活用して分散貢献(ID)と分散排出(OOD)データを補間するための新しいメタラーニングベースのアプローチを提案し、モデルがトレーニング分布を超えて一般化する方法をメタ学習することを可能にします。
かなりの共変量シフトを示す現実世界の挑戦的なデータセットに関する最先端の方法に対する大幅なパフォーマンスの向上を示します。

要約(オリジナル)

A widely recognized limitation of molecular prediction models is their reliance on structures observed in the training data, resulting in poor generalization to out-of-distribution compounds. Yet in drug discovery, the compounds most critical for advancing research often lie beyond the training set, making the bias toward the training data particularly problematic. This mismatch introduces substantial covariate shift, under which standard deep learning models produce unstable and inaccurate predictions. Furthermore, the scarcity of labeled data, stemming from the onerous and costly nature of experimental validation, further exacerbates the difficulty of achieving reliable generalization. To address these limitations, we propose a novel meta-learning-based approach that leverages unlabeled data to interpolate between in-distribution (ID) and out-of-distribution (OOD) data, enabling the model to meta-learn how to generalize beyond the training distribution. We demonstrate significant performance gains over state-of-the-art methods on challenging real-world datasets that exhibit substantial covariate shift.

arxiv情報

著者 Jina Kim,Jeffrey Willette,Bruno Andreis,Sung Ju Hwang
発行日 2025-06-13 15:27:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | Robust Molecular Property Prediction via Densifying Scarce Labeled Data はコメントを受け付けていません

Addressing Bias in LLMs: Strategies and Application to Fair AI-based Recruitment

要約

ハイステーク設定での言語技術の使用は近年増加しており、主に大規模な言語モデル(LLM)の成功に動機付けられています。
しかし、LLMSの大きなパフォーマンスにもかかわらず、それらは人口統計学的バイアス、説明責任、プライバシーなどの倫理的懸念の影響を受けやすいです。
この作業は、AIベースの自動採用に関するケーススタディを使用して、データに存在する人口統計学的バイアスを学ぶために、変圧器ベースのシステムの能力を分析しようとしています。
最終ツールで偏った動作を軽減する方法として、学習パイプラインからの性別情報を削減するためのプライバシーを向上させるフレームワークを提案します。
私たちの実験では、2つの異なるLLMに基づいて構築されたシステムに対するデータバイアスの影響と、提案されたフレームワークが訓練されたシステムがデータのバイアスを再現することを効果的に防止する方法を分析します。

要約(オリジナル)

The use of language technologies in high-stake settings is increasing in recent years, mostly motivated by the success of Large Language Models (LLMs). However, despite the great performance of LLMs, they are are susceptible to ethical concerns, such as demographic biases, accountability, or privacy. This work seeks to analyze the capacity of Transformers-based systems to learn demographic biases present in the data, using a case study on AI-based automated recruitment. We propose a privacy-enhancing framework to reduce gender information from the learning pipeline as a way to mitigate biased behaviors in the final tools. Our experiments analyze the influence of data biases on systems built on two different LLMs, and how the proposed framework effectively prevents trained systems from reproducing the bias in the data.

arxiv情報

著者 Alejandro Peña,Julian Fierrez,Aythami Morales,Gonzalo Mancera,Miguel Lopez,Ruben Tolosana
発行日 2025-06-13 15:29:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | Addressing Bias in LLMs: Strategies and Application to Fair AI-based Recruitment はコメントを受け付けていません

An Explainable AI Framework for Dynamic Resource Management in Vehicular Network Slicing

要約

効果的なリソース管理とネットワークスライスは、強化されたモバイルブロードバンド(EMBB)や超信頼性の低い低遅延コミュニケーション(URLLC)を含む、車両ネットワークの多様なサービス需要を満たすために不可欠です。
このペーパーでは、車両ネットワークでの動的ネットワークスライスとリソース割り当てのための説明可能なディープ補強学習(XRL)フレームワークを紹介します。
Shapleyの価値と注意メカニズムを活用する機能ベースのアプローチを統合することにより、補強学習エージェントの決定を解釈および改良し、車両通信システムの重要な信頼性の課題に対処します。
シミュレーション結果は、私たちのアプローチがリソース割り当てプロセスに関する明確でリアルタイムの洞察を提供し、純粋な注意メカニズムよりも高い解釈可能性の精度を達成することを示しています。
さらに、URLLCサービスのサービス品質(QOS)の満足度は78.0%から80.13%に増加しましたが、EMBBサービスの質は71.44%から73.21%に向上しました。

要約(オリジナル)

Effective resource management and network slicing are essential to meet the diverse service demands of vehicular networks, including Enhanced Mobile Broadband (eMBB) and Ultra-Reliable and Low-Latency Communications (URLLC). This paper introduces an Explainable Deep Reinforcement Learning (XRL) framework for dynamic network slicing and resource allocation in vehicular networks, built upon a near-real-time RAN intelligent controller. By integrating a feature-based approach that leverages Shapley values and an attention mechanism, we interpret and refine the decisions of our reinforcementlearning agents, addressing key reliability challenges in vehicular communication systems. Simulation results demonstrate that our approach provides clear, real-time insights into the resource allocation process and achieves higher interpretability precision than a pure attention mechanism. Furthermore, the Quality of Service (QoS) satisfaction for URLLC services increased from 78.0% to 80.13%, while that for eMBB services improved from 71.44% to 73.21%.

arxiv情報

著者 Haochen Sun,Yifan Liu,Ahmed Al-Tahmeesschi,Swarna Chetty,Syed Ali Raza Zaidi,Avishek Nag,Hamed Ahmadi
発行日 2025-06-13 15:32:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | An Explainable AI Framework for Dynamic Resource Management in Vehicular Network Slicing はコメントを受け付けていません

Towards a Cascaded LLM Framework for Cost-effective Human-AI Decision-Making

要約

効果的な人間と意思決定のバランスは、3つの重要な要素をバランスさせます。\ textit {正しさ}の予測、知識と推論の複雑さの\ textit {cost}、および\ textit {abstain}の回答を自動化するか、人間の専門家を巻き込むかについての自信。
この作業では、複数の専門知識の層にタスクを適応的に委任するカスケードLLM決定フレームワークを提示します。最初の候補者の回答の基本モデル、より有能で知識豊富な(ただし費用がかかる)大規模なモデル、およびモデルがカスケードを控えるときの人間の専門家です。
私たちの方法は2つの段階で進行します。
まず、延期ポリシーは、ベースモデルの回答を受け入れるか、信頼性スコアに基づいて大きなモデルでそれを再生するかを決定します。
第二に、棄権ポリシーは、カスケードモデルの応答が十分に確実であるかどうか、または人間の介入を必要とするかどうかを決定します。
さらに、人間のフィードバックを活用して時間の経過とともに意思決定の質を向上させることができるオンライン学習メカニズムをフレームワークに組み込みます。
このアプローチは、一般的な質問(アークイエサとアークチャレンジ)および医学的質問(MedqaとMedMcqa)に対するこのアプローチを実証します。
私たちの結果は、私たちのカスケード戦略は、ほとんどの場合、コストを削減し、棄権を処理する原則的な方法を提供しながら、単一モデルのベースラインよりも優れていることを示しています。

要約(オリジナル)

Effective human-AI decision-making balances three key factors: the \textit{correctness} of predictions, the \textit{cost} of knowledge and reasoning complexity, and the confidence about whether to \textit{abstain} automated answers or involve human experts. In this work, we present a cascaded LLM decision framework that adaptively delegates tasks across multiple tiers of expertise — a base model for initial candidate answers, a more capable and knowledgeable (but costlier) large model, and a human expert for when the model cascade abstains. Our method proceeds in two stages. First, a deferral policy determines whether to accept the base model’s answer or regenerate it with the large model based on the confidence score. Second, an abstention policy decides whether the cascade model response is sufficiently certain or requires human intervention. Moreover, we incorporate an online learning mechanism in the framework that can leverage human feedback to improve decision quality over time. We demonstrate this approach to general question-answering (ARC-Easy and ARC-Challenge) and medical question-answering (MedQA and MedMCQA). Our results show that our cascaded strategy outperforms in most cases single-model baselines in accuracy while reducing cost and providing a principled way to handle abstentions.

arxiv情報

著者 Claudio Fanconi,Mihaela van der Schaar
発行日 2025-06-13 15:36:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | Towards a Cascaded LLM Framework for Cost-effective Human-AI Decision-Making はコメントを受け付けていません

Enter: Graduated Realism: A Pedagogical Framework for AI-Powered Avatars in Virtual Reality Teacher Training

要約

Virtual Reality Simulatorsは、教師トレーニングのための強力なツールを提供しますが、AIを搭載した生徒のアバターの統合は、効果的な教育学のためのアバターリアリズムの最適レベルを決定する重要な課題を提示します。
この文献レビューでは、VR教師トレーニングにおけるアバターリアリズムの進化を検証し、その理論的意味を統合し、将来のデザインを導くための新しい教育的枠組みを提案します。
系統的レビューを通じて、このペーパーでは、人間が制御するアバターから生成AIプロトタイプへの進行をたどります。
認知負荷理論などの学習理論を適用すると、高忠実度のアバターは初心者に過度の外部認知負荷を課す可能性があるため、最近の経験的発見によってサポートされているスタンスを課すことができるため、ハイパーリアリズムは常に最適ではないと主張します。
フォトリアリズムの技術的意欲と足場学習の教育的ニーズの間には大きなギャップが存在します。
このギャップに対処するために、私たちは卒業生のリアリズムを提案します。これは、忠実度の低いアバターを持つ研修生を開始することを提唱するフレームワークであり、スキルが発展するにつれて行動の複雑さを徐々に増加させます。
これを計算可能に実現可能にするために、新しいシングルコールアーキテクチャ、クレイジースロットの概要を説明します。クレイジースロットは、確率的エンジンと検索された生成データベースを使用して、マルチステップ推論モデルの遅延とコストなしで本物のリアルタイムの応答を生成します。
このレビューは、次世代のAIシミュレータを設計するためのエビデンスに基づいた原則を提供し、リアリズムに対する教育的に根拠のあるアプローチがスケーラブルで効果的な教師教育ツールを作成するために不可欠であると主張しています。

要約(オリジナル)

Virtual Reality simulators offer a powerful tool for teacher training, yet the integration of AI-powered student avatars presents a critical challenge: determining the optimal level of avatar realism for effective pedagogy. This literature review examines the evolution of avatar realism in VR teacher training, synthesizes its theoretical implications, and proposes a new pedagogical framework to guide future design. Through a systematic review, this paper traces the progression from human-controlled avatars to generative AI prototypes. Applying learning theories like Cognitive Load Theory, we argue that hyper-realism is not always optimal, as high-fidelity avatars can impose excessive extraneous cognitive load on novices, a stance supported by recent empirical findings. A significant gap exists between the technological drive for photorealism and the pedagogical need for scaffolded learning. To address this gap, we propose Graduated Realism, a framework advocating for starting trainees with lower-fidelity avatars and progressively increasing behavioral complexity as skills develop. To make this computationally feasible, we outline a novel single-call architecture, Crazy Slots, which uses a probabilistic engine and a Retrieval-Augmented Generation database to generate authentic, real-time responses without the latency and cost of multi-step reasoning models. This review provides evidence-based principles for designing the next generation of AI simulators, arguing that a pedagogically grounded approach to realism is essential for creating scalable and effective teacher education tools.

arxiv情報

著者 Judson Leroy Dean Haynes IV
発行日 2025-06-13 15:37:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.HC | Enter: Graduated Realism: A Pedagogical Framework for AI-Powered Avatars in Virtual Reality Teacher Training はコメントを受け付けていません

Combining Deep Reinforcement Learning and Search with Generative Models for Game-Theoretic Opponent Modeling

要約

対戦相手のモデリング方法には、通常、2つの重要な手順が含まれます。対戦相手の戦略に対する信念分布の構築と、最良の応答を実行してこの相手モデルを悪用します。
ただし、既存のアプローチでは通常、そのようなモデルを思い付くためにドメイン固有の肝臓が必要であり、最良の応答を近似するためのアルゴリズムは、大きく不完全な情報ドメインで拡張するのが困難です。
この作業では、ディープゲーム理論強化学習を使用した相手モデリングのためのスケーラブルで一般的なマルチエージェントトレーニング体制を紹介します。
最初に、計画中に世界の状態をサンプリングする学習した深い生成モデルを使用して、モンテカルロツリー検索(MCTS)に基づく最高の応答アルゴリズムであるGenerative Best Respoonse(GenBR)を提案します。
この新しい方法は、大きな不完全な情報ドメインにスケーリングし、さまざまなマルチエージェントアルゴリズムでプラグアンドプレイできます。
この新しい方法は、ポリシー空間応答Oracles(PSRO)のフレームワークの下で使用して、反復的なゲーム理論的推論と人口ベースのトレーニングを介して\ emph {オフライン相手モデル}の生成を自動化します。
交渉理論に基づいてソリューションの概念を使用して、相手の混合物を構築することを提案します。これは、パレートフロンティアの近くにある識別プロファイルを見つけることがわかります。
その後、GenBRは\ emphems {オンライン相手モデル}を更新し続け、ゲームプレイ中にそれに対して反応します。
私たちは、人間の参加者が、二国間交渉ゲームのクラスであるDeal-Or-No-Dealでエージェントと交渉する行動研究を実施します。
生成モデリングを使用して検索すると、トレーニング時間とテスト時間の両方でより強力なポリシーが見つかり、オンラインベイジアンの共同プレイヤー予測を可能にし、人間が自分自身の間で取引することとして人間と交渉する同等の社会福祉とナッシュ交渉スコアを達成するエージェントを生み出すことができます。

要約(オリジナル)

Opponent modeling methods typically involve two crucial steps: building a belief distribution over opponents’ strategies, and exploiting this opponent model by playing a best response. However, existing approaches typically require domain-specific heurstics to come up with such a model, and algorithms for approximating best responses are hard to scale in large, imperfect information domains. In this work, we introduce a scalable and generic multiagent training regime for opponent modeling using deep game-theoretic reinforcement learning. We first propose Generative Best Respoonse (GenBR), a best response algorithm based on Monte-Carlo Tree Search (MCTS) with a learned deep generative model that samples world states during planning. This new method scales to large imperfect information domains and can be plug and play in a variety of multiagent algorithms. We use this new method under the framework of Policy Space Response Oracles (PSRO), to automate the generation of an \emph{offline opponent model} via iterative game-theoretic reasoning and population-based training. We propose using solution concepts based on bargaining theory to build up an opponent mixture, which we find identifying profiles that are near the Pareto frontier. Then GenBR keeps updating an \emph{online opponent model} and reacts against it during gameplay. We conduct behavioral studies where human participants negotiate with our agents in Deal-or-No-Deal, a class of bilateral bargaining games. Search with generative modeling finds stronger policies during both training time and test time, enables online Bayesian co-player prediction, and can produce agents that achieve comparable social welfare and Nash bargaining score negotiating with humans as humans trading among themselves.

arxiv情報

著者 Zun Li,Marc Lanctot,Kevin R. McKee,Luke Marris,Ian Gemp,Daniel Hennes,Paul Muller,Kate Larson,Yoram Bachrach,Michael P. Wellman
発行日 2025-06-13 15:38:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.GT, cs.LG, cs.MA | Combining Deep Reinforcement Learning and Search with Generative Models for Game-Theoretic Opponent Modeling はコメントを受け付けていません

Attention-based Adversarial Robust Distillation in Radio Signal Classifications for Low-Power IoT Devices

要約

自然言語処理やコンピュータービジョンなどの多くのアプリケーションで変圧器が大成功を収めたため、変圧器は自動変調分類に成功しています。
トランスベースの無線信号分類は、敵対例と呼ばれる知覚できない慎重に作成された攻撃に対して脆弱であることを示しました。
したがって、トランスベースの変調分類における敵対的な例に対する防御システムを提案します。
特にモノのインターネット(IoT)ベースのアプリケーションまたは電源が限られている環境でのデバイスの操作に適した計算効率の高いアーキテクチャの必要性を考慮すると、変調分類のためのコンパクトな変圧器を提案します。
変圧器の敵対的なトレーニングなどの堅牢なトレーニングの利点は、コンパクトな変圧器では達成できない場合があります。
これを実証することにより、敵対的な攻撃の存在下で堅牢性を高めることができる新しいコンパクトトランスを提案します。
新しい方法は、堅牢に訓練された大きなトランスから敵対的な注意マップをコンパクトな変圧器に転送することを目的としています。
提案された方法は、高速勾配法と投影された勾配降下攻撃など、考慮されたホワイトボックスシナリオの最先端の技術よりも優れています。
基礎となる作業メカニズムの推論を提供し、異なるアーキテクチャ間の敵対的な例の移動性を調査しました。
提案された方法には、敵対的な例の移動性から変圧器を保護する可能性があります。

要約(オリジナル)

Due to great success of transformers in many applications such as natural language processing and computer vision, transformers have been successfully applied in automatic modulation classification. We have shown that transformer-based radio signal classification is vulnerable to imperceptible and carefully crafted attacks called adversarial examples. Therefore, we propose a defense system against adversarial examples in transformer-based modulation classifications. Considering the need for computationally efficient architecture particularly for Internet of Things (IoT)-based applications or operation of devices in environment where power supply is limited, we propose a compact transformer for modulation classification. The advantages of robust training such as adversarial training in transformers may not be attainable in compact transformers. By demonstrating this, we propose a novel compact transformer that can enhance robustness in the presence of adversarial attacks. The new method is aimed at transferring the adversarial attention map from the robustly trained large transformer to a compact transformer. The proposed method outperforms the state-of-the-art techniques for the considered white-box scenarios including fast gradient method and projected gradient descent attacks. We have provided reasoning of the underlying working mechanisms and investigated the transferability of the adversarial examples between different architectures. The proposed method has the potential to protect the transformer from the transferability of adversarial examples.

arxiv情報

著者 Lu Zhang,Sangarapillai Lambotharan,Gan Zheng,Guisheng Liao,Basil AsSadhan,Fabio Roli
発行日 2025-06-13 15:39:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | Attention-based Adversarial Robust Distillation in Radio Signal Classifications for Low-Power IoT Devices はコメントを受け付けていません

DeePoly: A High-Order Accuracy Scientific Machine Learning Framework for Function Approximation and Solving PDEs

要約

最近、機械学習方法は、特に部分的な微分方程式(PDE)を解くために、科学的コンピューティングで大きな牽引力を獲得しました。
ただし、深いニューラルネットワーク(DNNS)に基づく方法は、従来の数値スキームと比較して収束保証と計算効率を欠いていることがよくあります。
このワークでは、ソリューションパラダイムを純粋な非凸パラメーターの最適化から2段階のアプローチに変換する新しいフレームワークであるDeepolyを紹介します。最初にDNNを使用して複雑なグローバル機能をキャプチャし、次にDNN抽出機能(Spotter)と多項式基底関数(スナイパー)を組み合わせた線形空間最適化が続きます。
この戦略的組み合わせは、両方の方法の相補的な強度を活用します – DNNSは複雑なグローバルな特徴(つまり、高勾配の特徴)を近似し、多項式近似を安定化し、多項式塩基は収束保証と高精度の局所補正を提供します。
理論分析と数値実験は、このアプローチがメッシュフリーおよびスキームのないプロパティを維持しながら、多様な問題タイプ全体で高次精度と効率の両方を大幅に向上させることを示しています。
この論文は、オープンソースプロジェクトDeepolyの理論的博覧会としても機能します。

要約(オリジナル)

Recently, machine learning methods have gained significant traction in scientific computing, particularly for solving Partial Differential Equations (PDEs). However, methods based on deep neural networks (DNNs) often lack convergence guarantees and computational efficiency compared to traditional numerical schemes. This work introduces DeePoly, a novel framework that transforms the solution paradigm from pure non-convex parameter optimization to a two-stage approach: first employing a DNN to capture complex global features, followed by linear space optimization with combined DNN-extracted features (Spotter) and polynomial basis functions (Sniper). This strategic combination leverages the complementary strengths of both methods — DNNs excel at approximating complex global features (i.e., high-gradient features) and stabilize the polynomial approximation while polynomial bases provide high-precision local corrections with convergence guarantees. Theoretical analysis and numerical experiments demonstrate that this approach significantly enhances both high-order accuracy and efficiency across diverse problem types while maintaining mesh-free and scheme-free properties. This paper also serves as a theoretical exposition for the open-source project DeePoly.

arxiv情報

著者 Li Liu,Heng Yong
発行日 2025-06-13 15:43:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | DeePoly: A High-Order Accuracy Scientific Machine Learning Framework for Function Approximation and Solving PDEs はコメントを受け付けていません