AI Predicts AGI: Leveraging AGI Forecasting and Peer Review to Explore LLMs’ Complex Reasoning Capabilities

要約

私たちは、2030年までに出現する人工的な一般情報(AGI)の可能性を推定するために、16の最先端の大手言語モデル(LLMS)に任命しました。これらの予測の品質を評価するために、自動ピアレビュープロセス(LLM-PR)を実装しました。
LLMSの推定値は大きく異なり、3%(Reka-Core)から47.6%(GPT-4O)の範囲で、中央値は12.5%でした。
これらの推定値は、2027年までにAGIの10%の可能性を予測した最近の専門家調査と密接に一致し、複雑で投機的なシナリオを予測するLLMの関連性を強調しています。
LLM-PRプロセスは、高地内の相関係数(ICC = 0.79)によって証明される強い信頼性を実証し、モデル全体のスコアリングの顕著な一貫性を反映しています。
モデルの中で、PPLX-70B-Onlineがトップパフォーマーとして登場し、Gemini-1.5-Pro-APIが最も低いランクを上げました。
LMSYS Chatbot Arenaなどの外部ベンチマークとの相互比較は、LLMランキングが異なる評価方法で一貫していることを明らかにし、既存のベンチマークがAGI予測に関連するスキルの一部をカプセル化しない可能性があることを示唆しています。
さらに、外部ベンチマークに基づいて重み付けスキームの使用を調査し、LLMの予測と人間の専門家予測との整合を最適化しました。
この分析により、AGI関連のタスクのパフォーマンスの違いを強調するように設計された新しい「AGIベンチマーク」が開発されました。
私たちの調査結果は、推測的で学際的な予測タスクにおけるLLMSの機能に関する洞察を提供し、複雑で不確実な現実世界のシナリオでAIパフォーマンスを評価するための革新的な評価フレームワークの必要性の高まりを強調しています。

要約(オリジナル)

We tasked 16 state-of-the-art large language models (LLMs) with estimating the likelihood of Artificial General Intelligence (AGI) emerging by 2030. To assess the quality of these forecasts, we implemented an automated peer review process (LLM-PR). The LLMs’ estimates varied widely, ranging from 3% (Reka- Core) to 47.6% (GPT-4o), with a median of 12.5%. These estimates closely align with a recent expert survey that projected a 10% likelihood of AGI by 2027, underscoring the relevance of LLMs in forecasting complex, speculative scenarios. The LLM-PR process demonstrated strong reliability, evidenced by a high Intraclass Correlation Coefficient (ICC = 0.79), reflecting notable consistency in scoring across the models. Among the models, Pplx-70b-online emerged as the top performer, while Gemini-1.5-pro-api ranked the lowest. A cross-comparison with external benchmarks, such as LMSYS Chatbot Arena, revealed that LLM rankings remained consistent across different evaluation methods, suggesting that existing benchmarks may not encapsulate some of the skills relevant for AGI prediction. We further explored the use of weighting schemes based on external benchmarks, optimizing the alignment of LLMs’ predictions with human expert forecasts. This analysis led to the development of a new, ‘AGI benchmark’ designed to highlight performance differences in AGI-related tasks. Our findings offer insights into LLMs’ capabilities in speculative, interdisciplinary forecasting tasks and emphasize the growing need for innovative evaluation frameworks for assessing AI performance in complex, uncertain real-world scenarios.

arxiv情報

著者 Fabrizio Davide,Pietro Torre,Leonardo Ercolani,Andrea Gaggioli
発行日 2025-04-22 13:56:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, I.2.7 | AI Predicts AGI: Leveraging AGI Forecasting and Peer Review to Explore LLMs’ Complex Reasoning Capabilities はコメントを受け付けていません

Automated Bug Report Prioritization in Large Open-Source Projects

要約

大規模なオープンソースプロジェクトには、ソフトウェアの欠陥(バグ)レポートやユーザーおよび開発者コミュニティからの新機能リクエストなど、多数の問題(バグと呼ばれます)が速いレートで受け取ります。
多くの場合、プロジェクトリソースが限られているため、すべての問題に対処することはできません。
代わりに、彼らはプロジェクトの優先事項と問題の重大度に従ってそれらを優先順位付けする必要があります。
この論文では、問題追跡システムのオープンバグリポジトリに保存されているバグレポートの自然言語テキストに基づいて、自動化されたバグの優先順位付けに対する新しいアプローチを提案します。
TopicMiner-MTMと呼ばれるLDAのバリアントを使用してトピックモデリングを実施し、BERT大手言語モデルを使用してテキスト分類を行い、最先端と比較してより高いパフォーマンスレベルを達成します。
Eclipseプラットフォームプロジェクトの85,156のバグレポートを含む既存の参照データセットを使用した実験結果は、バグレポートの優先予測の精度、精度、リコール、およびF1メジャーの観点から既存のアプローチを上回ることを示しています。

要約(オリジナル)

Large open-source projects receive a large number of issues (known as bugs), including software defect (i.e., bug) reports and new feature requests from their user and developer communities at a fast rate. The often limited project resources do not allow them to deal with all issues. Instead, they have to prioritize them according to the project’s priorities and the issues’ severities. In this paper, we propose a novel approach to automated bug prioritization based on the natural language text of the bug reports that are stored in the open bug repositories of the issue-tracking systems. We conduct topic modeling using a variant of LDA called TopicMiner-MTM and text classification with the BERT large language model to achieve a higher performance level compared to the state-of-the-art. Experimental results using an existing reference dataset containing 85,156 bug reports of the Eclipse Platform project indicate that we outperform existing approaches in terms of Accuracy, Precision, Recall, and F1-measure of the bug report priority prediction.

arxiv情報

著者 Riley Pierson,Armin Moin
発行日 2025-04-22 13:57:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.SE | Automated Bug Report Prioritization in Large Open-Source Projects はコメントを受け付けていません

Achieving Distributive Justice in Federated Learning via Uncertainty Quantification

要約

連合学習のクライアントレベルの公平性メトリックは、連邦のすべてのクライアントを保証するために使用されます。a)ローカルデータ分布(すなわち、クライアントパリティ)またはbで同様の最終パフォーマンスを持っているか、b)連合学習プロセス(すなわち、貢献の公平性)への貢献と比較して、ローカルデータ分布の最終パフォーマンスを取得することを保証します。
クライアントパリティまたは貢献に基づく公平性メトリックのいずれかを提案する少数の作品は、分配的正義などの社会的理論における定義と決定を根拠とする一方で、ほとんどの作品は、公平性メトリックが公平性の倫理に最もよく合うかを選択することを選択することを困難にする公平性の概念をarbitrarily意的に選択します。
この作業では、UDJ-FL(Federated Learningの不確実性ベースの分配的正義)を提案します。これは、複数の分配的正義に基づくクライアントレベルの公平性メトリックを達成できる柔軟なフェデレーション学習フレームワークです。
すなわち、Aleatoricの不確実性に基づくクライアントの計量を実行することに関連して、公正なリソースの割り当てに触発されたテクニックを利用することにより、UDJ-FLフレームワークは平等主義、功利主義、Rawlsの違いの原則、または砂漠ベースのクライアントレベルの公平性を達成することができます。
UDJ-FLの4つの定義された分配的正義に基づくクライアントレベルの公平性メトリックすべてを達成する能力を経験的に示しています。これに加えて、他の人気のある公正な連合学習作業に相当する(または上回る)公平性を提供します。
さらに、UDJ-FLフレームワークの構築には、UDJ-FLの一般化境界の理論的保証を導き出すために、アレアトリックの不確実性の計量が必要である理由を正当化します。
私たちのコードは、https://github.com/alycia-noel/udj-flで公開されています。

要約(オリジナル)

Client-level fairness metrics for federated learning are used to ensure that all clients in a federation either: a) have similar final performance on their local data distributions (i.e., client parity), or b) obtain final performance on their local data distributions relative to their contribution to the federated learning process (i.e., contribution fairness). While a handful of works that propose either client-parity or contribution-based fairness metrics ground their definitions and decisions in social theories of equality — such as distributive justice — most works arbitrarily choose what notion of fairness to align with which makes it difficult for practitioners to choose which fairness metric aligns best with their fairness ethics. In this work, we propose UDJ-FL (Uncertainty-based Distributive Justice for Federated Learning), a flexible federated learning framework that can achieve multiple distributive justice-based client-level fairness metrics. Namely, by utilizing techniques inspired by fair resource allocation, in conjunction with performing aleatoric uncertainty-based client weighing, our UDJ-FL framework is able to achieve egalitarian, utilitarian, Rawls’ difference principle, or desert-based client-level fairness. We empirically show the ability of UDJ-FL to achieve all four defined distributive justice-based client-level fairness metrics in addition to providing fairness equivalent to (or surpassing) other popular fair federated learning works. Further, we provide justification for why aleatoric uncertainty weighing is necessary to the construction of our UDJ-FL framework as well as derive theoretical guarantees for the generalization bounds of UDJ-FL. Our code is publicly available at https://github.com/alycia-noel/UDJ-FL.

arxiv情報

著者 Alycia Carey,Xintao Wu
発行日 2025-04-22 14:07:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T01, cs.AI, cs.LG, I.2.0, stat.ML | Achieving Distributive Justice in Federated Learning via Uncertainty Quantification はコメントを受け付けていません

Towards Unifying Evaluation of Counterfactual Explanations: Leveraging Large Language Models for Human-Centric Assessments

要約

機械学習モデルが進化するにつれて、透明性を維持するには、より人間中心の説明可能なAI技術が必要です。
人間の推論にルーツを持つ反事実的な説明は、特定の出力を取得するために必要な最小入力の変更を特定するため、意思決定をサポートするために重要です。
それらの重要性にもかかわらず、これらの説明の評価には、ユーザー研究の根拠が欠けていることが多く、断片化されたままであり、既存のメトリックは人間の視点を完全には捉えていません。
この課題に対処するために、206人の回答者からの8つの評価メトリックにわたって、30の反事実的シナリオの多様なセットを開発し、収集しました。
その後、これらのメトリック全体で平均または個々の人間の判断を予測するために、さまざまな大手言語モデル(LLM)を微調整しました。
私たちの方法論により、LLMSは、ゼロショット評価で最大63%の精度を達成し、すべてのメトリックで微調整された85%(3クラスの予測を超えて)を達成することができました。
人間の評価を予測する微調整されたモデルは、異なる反事実的説明フレームワークを評価する際に、より良い比較可能性とスケーラビリティを提供します。

要約(オリジナル)

As machine learning models evolve, maintaining transparency demands more human-centric explainable AI techniques. Counterfactual explanations, with roots in human reasoning, identify the minimal input changes needed to obtain a given output and, hence, are crucial for supporting decision-making. Despite their importance, the evaluation of these explanations often lacks grounding in user studies and remains fragmented, with existing metrics not fully capturing human perspectives. To address this challenge, we developed a diverse set of 30 counterfactual scenarios and collected ratings across 8 evaluation metrics from 206 respondents. Subsequently, we fine-tuned different Large Language Models (LLMs) to predict average or individual human judgment across these metrics. Our methodology allowed LLMs to achieve an accuracy of up to 63% in zero-shot evaluations and 85% (over a 3-classes prediction) with fine-tuning across all metrics. The fine-tuned models predicting human ratings offer better comparability and scalability in evaluating different counterfactual explanation frameworks.

arxiv情報

著者 Marharyta Domnich,Julius Välja,Rasmus Moorits Veski,Giacomo Magnifico,Kadi Tulver,Eduard Barbu,Raul Vicente
発行日 2025-04-22 14:15:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | Towards Unifying Evaluation of Counterfactual Explanations: Leveraging Large Language Models for Human-Centric Assessments はコメントを受け付けていません

New Recipe for Semi-supervised Community Detection: Clique Annealing under Crystallization Kinetics

要約

半教師のコミュニティ検出方法は、ラベルの希少性のために特定のコミュニティを特定するために広く使用されています。
既存の半教師コミュニティ検出方法には、通常、初期の識別とその後の調整の両方で2つの学習段階学習が含まれます。
さらに、これらの方法は、強化学習と生成的敵対的ネットワークに依存し、計算コストが高くなり、候補者の選択を制限するため、スケーラビリティの問題に遭遇します。
これらの制限に対処するために、アニーリングプロセスの自発性をコミュニティ検出に統合するために、結晶化速度論とコミュニティ検出の類似点を描きます。
具体的には、アニーリングと同様のプロセスを通じて完全な粒子(コミュニティ)に拡大するクリスタルサブグレイン(コア)を特定するために、コミュニティの検出を例えます。
この発見に基づいて、これらの原則を最適化プロセスに統合してコミュニティコアの一貫性を強化することにより、速度論の概念をコミュニティ検出に適用するクリークアニーリング(Clann)を提案します。
その後、隣接するクリークを統合してコミュニティコアを再配置することにより、学習のない推移的なアニール人が採用され、1段階の候補者を改良し、スケーラビリティを向上させる自発的な成長プロセスを可能にしました。
\ textBf {43}のさまざまなネットワーク設定に関する広範な実験は、Clannが複数の現実世界のデータセットで最新の方法を上回り、コミュニティ検出におけるその卓越した有効性と効率を紹介することを示しています。

要約(オリジナル)

Semi-supervised community detection methods are widely used for identifying specific communities due to the label scarcity. Existing semi-supervised community detection methods typically involve two learning stages learning in both initial identification and subsequent adjustment, which often starts from an unreasonable community core candidate. Moreover, these methods encounter scalability issues because they depend on reinforcement learning and generative adversarial networks, leading to higher computational costs and restricting the selection of candidates. To address these limitations, we draw a parallel between crystallization kinetics and community detection to integrate the spontaneity of the annealing process into community detection. Specifically, we liken community detection to identifying a crystal subgrain (core) that expands into a complete grain (community) through a process similar to annealing. Based on this finding, we propose CLique ANNealing (CLANN), which applies kinetics concepts to community detection by integrating these principles into the optimization process to strengthen the consistency of the community core. Subsequently, a learning-free Transitive Annealer was employed to refine the first-stage candidates by merging neighboring cliques and repositioning the community core, enabling a spontaneous growth process that enhances scalability. Extensive experiments on \textbf{43} different network settings demonstrate that CLANN outperforms state-of-the-art methods across multiple real-world datasets, showcasing its exceptional efficacy and efficiency in community detection.

arxiv情報

著者 Ling Cheng,Jiashu Pu,Ruicheng Liang,Qian Shao,Hezhe Qiao,Feida Zhu
発行日 2025-04-22 14:17:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.SI | New Recipe for Semi-supervised Community Detection: Clique Annealing under Crystallization Kinetics はコメントを受け付けていません

FairTranslate: An English-French Dataset for Gender Bias Evaluation in Machine Translation by Overcoming Gender Binarity

要約

大規模な言語モデル(LLM)は、翻訳タスクのためにますます活用されていますが、包括的な言語を翻訳する場合は不足しています。
これらの課題は計算ドメインと社会的ドメインの両方に及ぶため、LLMが包括的なフレームワークで包括的な翻訳をどのように処理するかを批判的に評価することが不可欠です。
このホワイトペーパーでは、英語からフランス語への機械翻訳システムの非バイナリ性別バイアスを評価するために設計された、新規で完全に人間が注文したデータセットであるフェアトランスレートを紹介します。
フェアトランスレートには、職業に関連する2418の英語とフランスの文のペアが含まれ、職業のステレオタイプの整合性、文法的な性別指標のあいまいさ、地上の真実のジェンダーラベル(男性、女性、または包括的)などの豊富なメタデータが注釈されています。
このデータセットで、さまざまなプロンプト手順の下で、このデータセットで、4つの主要なLLMS(GEMMA2-2B、Mistral-7B、llama3.1-8b、llama3.3-70b)を評価します。
私たちの結果は、LLMS全体の性別の表現におけるかなりの偏見を明らかにし、機械翻訳で公平な結果を達成する際の永続的な課題を強調しています。
これらの調査結果は、LLMベースの翻訳システムで公正かつ包括的な言語使用を確保することを目的とした集中的な戦略と介入の必要性を強調しています。
フェアトランスレートのデータセットをハグする顔で公開され、GitHubでのすべての実験のコードを開示します。

要約(オリジナル)

Large Language Models (LLMs) are increasingly leveraged for translation tasks but often fall short when translating inclusive language — such as texts containing the singular ‘they’ pronoun or otherwise reflecting fair linguistic protocols. Because these challenges span both computational and societal domains, it is imperative to critically evaluate how well LLMs handle inclusive translation with a well-founded framework. This paper presents FairTranslate, a novel, fully human-annotated dataset designed to evaluate non-binary gender biases in machine translation systems from English to French. FairTranslate includes 2418 English-French sentence pairs related to occupations, annotated with rich metadata such as the stereotypical alignment of the occupation, grammatical gender indicator ambiguity, and the ground-truth gender label (male, female, or inclusive). We evaluate four leading LLMs (Gemma2-2B, Mistral-7B, Llama3.1-8B, Llama3.3-70B) on this dataset under different prompting procedures. Our results reveal substantial biases in gender representation across LLMs, highlighting persistent challenges in achieving equitable outcomes in machine translation. These findings underscore the need for focused strategies and interventions aimed at ensuring fair and inclusive language usage in LLM-based translation systems. We make the FairTranslate dataset publicly available on Hugging Face, and disclose the code for all experiments on GitHub.

arxiv情報

著者 Fanny Jourdan,Yannick Chevalier,Cécile Favre
発行日 2025-04-22 14:35:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | FairTranslate: An English-French Dataset for Gender Bias Evaluation in Machine Translation by Overcoming Gender Binarity はコメントを受け付けていません

Symbolic Regression for Beyond the Standard Model Physics

要約

標準モデルの物理学を超えて研究するための強力なツールとして、象徴的な回帰を提案します。
ベンチマークモデルとして、腸スケールで定義された4次元パラメーター空間を備えたいわゆる制約された最小値標準標準モデルを検討します。
理論のパラメーターの観点から、関心のある3つの低エネルギー観測値を再現する一連の分析式を提供します。ヒッグス質量、ムーンの異常な磁気モーメントへの寄与、および冷たい暗黒物質の密度。
アプローチの力を実証するために、グローバル適合分析でシンボリック式を使用して、従来の方法と比較して非常に迅速に得られるパラメーターの事後確率密度を導き出します。

要約(オリジナル)

We propose symbolic regression as a powerful tool for studying Beyond the Standard Model physics. As a benchmark model, we consider the so-called Constrained Minimal Supersymmetric Standard Model, which has a four-dimensional parameter space defined at the GUT scale. We provide a set of analytical expressions that reproduce three low-energy observables of interest in terms of the parameters of the theory: the Higgs mass, the contribution to the anomalous magnetic moment of the muon, and the cold dark matter relic density. To demonstrate the power of the approach, we employ the symbolic expressions in a global fits analysis to derive the posterior probability densities of the parameters, which are obtained extremely rapidly in comparison with conventional methods.

arxiv情報

著者 Shehu AbdusSalam,Steve Abel,Miguel Crispim Romao
発行日 2025-04-22 14:35:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, hep-ph, hep-th, physics.comp-ph | Symbolic Regression for Beyond the Standard Model Physics はコメントを受け付けていません

Learning Actionable World Models for Industrial Process Control

要約

(パッシブ)プロセスモニタリングからアクティブプロセス制御に移行するには、効果的なAIシステムは、非常に限られたトレーニングデータから複雑なシステムの動作について学習し、プロセスの世界でのアクションの結果をキャプチャするプロセス入力と出力に関してアドホックデジタルツインを形成する必要があります。
学習した潜在表現でパラメーターを処理し、細粒の制御を可能にする世界モデルの学習に基づいた新しい方法論を提案します。
表現学習は、共同埋め込み予測アーキテクチャ内の対照学習を通じてプロセスに影響を与える潜在的要因によって駆動されます。
これにより、入力の変化から予測可能な表現の変更が可能になり、その逆も同様であり、プロセスのバリエーションの原因となる重要な要因の解釈可能性を促進し、プロセスを運用範囲内に保つための効果的な制御アクションの方法を開きます。
私たちの方法の有効性は、プラスチックの射出成形の例で検証されており、悪名高い不安定なプロセスのために特定の制御アクションを提案する際の実用的な関連性を示しています。

要約(オリジナル)

To go from (passive) process monitoring to active process control, an effective AI system must learn about the behavior of the complex system from very limited training data, forming an ad-hoc digital twin with respect to process inputs and outputs that captures the consequences of actions on the process’s world. We propose a novel methodology based on learning world models that disentangles process parameters in the learned latent representation, allowing for fine-grained control. Representation learning is driven by the latent factors influencing the processes through contrastive learning within a joint embedding predictive architecture. This makes changes in representations predictable from changes in inputs and vice versa, facilitating interpretability of key factors responsible for process variations, paving the way for effective control actions to keep the process within operational bounds. The effectiveness of our method is validated on the example of plastic injection molding, demonstrating practical relevance in proposing specific control actions for a notoriously unstable process.

arxiv情報

著者 Peng Yan,Ahmed Abdulkadir,Gerrit A. Schatte,Giulia Aguzzi,Joonsu Gha,Nikola Pascher,Matthias Rosenthal,Yunlong Gao,Benjamin F. Grewe,Thilo Stadelmann
発行日 2025-04-22 14:47:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.SY, eess.SY, I.2.0 | Learning Actionable World Models for Industrial Process Control はコメントを受け付けていません

Universal Approximation with Softmax Attention

要約

線形変換では、(i)2層の自己触たちと(ii)softmax関数がそれに続く1層の自己関節の両方が、コンパクトドメイン上の連続配列からシーケンス関数のユニバーサル近似値であることを証明します。
私たちの主な手法は、注意の内部メカニズムを分析するための新しい補間ベースの方法です。
これは私たちの主要な洞察につながります。自己atentionは、任意の精度へのreliuの一般化されたバージョンを近似することができ、したがって多くの既知の普遍的な近似値を包含します。
これらに基づいて、2層のマルチヘッドの注意だけで、シーケンスからシーケンスへのユニバーサル近似器として十分であることが示されます。
対照的に、以前の作業はフィードフォワードネットワークに依存して、変圧器の普遍的な近似を確立します。
さらに、テクニックを拡張して、(SoftMax-)注意のみのレイヤーがさまざまな統計モデルをコンテキスト内に近似できることを示します。
これらのテクニックは独立した関心を持っていると考えています。

要約(オリジナル)

We prove that with linear transformations, both (i) two-layer self-attention and (ii) one-layer self-attention followed by a softmax function are universal approximators for continuous sequence-to-sequence functions on compact domains. Our main technique is a new interpolation-based method for analyzing attention’s internal mechanism. This leads to our key insight: self-attention is able to approximate a generalized version of ReLU to arbitrary precision, and hence subsumes many known universal approximators. Building on these, we show that two-layer multi-head attention alone suffices as a sequence-to-sequence universal approximator. In contrast, prior works rely on feed-forward networks to establish universal approximation in Transformers. Furthermore, we extend our techniques to show that, (softmax-)attention-only layers are capable of approximating various statistical models in-context. We believe these techniques hold independent interest.

arxiv情報

著者 Jerry Yao-Chieh Hu,Hude Liu,Hong-Yu Chen,Weimin Wu,Han Liu
発行日 2025-04-22 14:51:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ML | Universal Approximation with Softmax Attention はコメントを受け付けていません

Transition of $α$-mixing in Random Iterations with Applications in Queuing Theory

要約

統計分析は不完全なままですが、経済的、キューイング理論、および機械学習には、外因性回帰を伴う非線形時系列モデルが不可欠です。
多数の法則や機能的中央境界定理などの主要な結果は、弱い依存変数で知られています。
カップリング引数を介して、外因性回帰からの混合特性の転送を実証します。
さらに、好ましい混合特性を持つ非定常環境の下でも、ドリフトおよびマイナー化条件を持つランダム環境でマルコフチェーンを調べ、このフレームワークをシングルサーバーキューイングモデルに適用します。

要約(オリジナル)

Nonlinear time series models with exogenous regressors are essential in econometrics, queuing theory, and machine learning, though their statistical analysis remains incomplete. Key results, such as the law of large numbers and the functional central limit theorem, are known for weakly dependent variables. We demonstrate the transfer of mixing properties from the exogenous regressor to the response via coupling arguments. Additionally, we study Markov chains in random environments with drift and minorization conditions, even under non-stationary environments with favorable mixing properties, and apply this framework to single-server queuing models.

arxiv情報

著者 Attila Lovas
発行日 2025-04-22 15:01:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 60J05, 60J20, 60K25, 60K37, C.4, cs.AI, math.PR, math.ST, stat.TH | Transition of $α$-mixing in Random Iterations with Applications in Queuing Theory はコメントを受け付けていません