Knowledge-Aware Iterative Retrieval for Multi-Agent Systems

要約

動的に進化する知識を活用することにより、クエリを繰り返し洗練し、コンテキストエビデンスをフィルタリングし、フィルターを繰り返します。
システムの決定的な機能は、クエリの生成と証拠の選択の両方をガイドするために徐々に更新される内部知識キャッシュからの外部ソースのデカップリングです。
この設計は、バイアスの拡張ループを軽減し、動的で追跡可能な検索探索パスを可能にし、それにより、多様な情報の探索と自律エージェントの意思決定による精度を維持することとのトレードオフを最適化します。
私たちのアプローチは、特に明示的な推論または計画能力を欠いているLLMの脆弱性を考えると、複数のソースからの情報を統合することが重要である現実世界のシナリオを反映するマルチステップタスクを含む、広範囲のオープンドメイン質問ベンチマークで評価されます。
結果は、提案されたシステムが、タスクの難易度に関係なく単一ステップのベースラインを上回るだけでなく、従来の反復検索方法と比較して、正確なエビデンスに基づいた推論と効率の向上を通じて複雑なタスクの顕著な利点を示していることを示しています。
提案されたシステムは、更新されたコンテキストの競争力と共同共有の両方をサポートし、マルチエージェント拡張を可能にします。
マルチエージェント構成の利点は、タスクの難易度が増加するにつれて特に顕著になります。
収束の数は、タスクの難易度を備えたスケールであり、費用対効果の高いスケーラビリティを示唆しています。

要約(オリジナル)

We introduce a novel large language model (LLM)-driven agent framework, which iteratively refines queries and filters contextual evidence by leveraging dynamically evolving knowledge. A defining feature of the system is its decoupling of external sources from an internal knowledge cache that is progressively updated to guide both query generation and evidence selection. This design mitigates bias-reinforcement loops and enables dynamic, trackable search exploration paths, thereby optimizing the trade-off between exploring diverse information and maintaining accuracy through autonomous agent decision-making. Our approach is evaluated on a broad range of open-domain question answering benchmarks, including multi-step tasks that mirror real-world scenarios where integrating information from multiple sources is critical, especially given the vulnerabilities of LLMs that lack explicit reasoning or planning capabilities. The results show that the proposed system not only outperforms single-step baselines regardless of task difficulty but also, compared to conventional iterative retrieval methods, demonstrates pronounced advantages in complex tasks through precise evidence-based reasoning and enhanced efficiency. The proposed system supports both competitive and collaborative sharing of updated context, enabling multi-agent extension. The benefits of multi-agent configurations become especially prominent as task difficulty increases. The number of convergence steps scales with task difficulty, suggesting cost-effective scalability.

arxiv情報

著者 Seyoung Song
発行日 2025-03-17 15:27:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.IR, H.3.3 | Knowledge-Aware Iterative Retrieval for Multi-Agent Systems はコメントを受け付けていません

Goal2Story: A Multi-Agent Fleet based on Privately Enabled sLLMs for Impacting Mapping on Requirements Elicitation

要約

要件が急速に繰り返されると漂うにつれて、アジャイル開発が支配的なパラダイムになります。
目標主導の要件の誘発(RE)は、適応的な計画と効率的なコラボレーションに絡み合っているため、アジャイルプロジェクト開発における極めて重要でありながら挑戦的なタスクです。
最近、AIエージェントは、利害関係者のために大幅な時間と労力を節約することにより、要件分析をサポートする能力を示しています。
ただし、現在の研究は主に機能的REに焦点を当てており、研究作業は目標からユーザーストーリーへの長い旅を埋めることは報告されていません。
さらに、LLM施設のコストとデータとアイデア保護の必要性を考慮すると、個人ホストの小型LLMをさらに活用する必要があります。
これらの課題に対処するために、目標駆動型REに費用対効果の高いSLLMSを使用するだけでなく、インパクトマッピング(IM)フレームワークを採用するマルチエージェント艦隊であるGoal2storyを提案します。
さらに、対応する目標とプロジェクトコンテキスト情報を備えた1,000を超えるユーザーストーリー(USS)、および半自動データセット構築方法を備えたStorySeekデータセットを紹介します。
評価のために、2つのメトリックを提案しました:事実性ヒット率(FHR)は、生成されたUSSとの間の一貫性をデータセットと品質と一貫性評価(QUACE)と測定して、生成されたUSSの品質を評価します。
実験結果は、Goal2storyが強力なLLMを採用するスーパーエージェントのベースラインパフォーマンスを上回ると同時に、COTおよびエージェントプロファイルによってもたらされる主要なメトリックのパフォーマンスの改善、および潜在的なニーズを特定する際の調査を紹介することを示しています。

要約(オリジナル)

As requirements drift with rapid iterations, agile development becomes the dominant paradigm. Goal-driven Requirements Elicitation (RE) is a pivotal yet challenging task in agile project development due to its heavy tangling with adaptive planning and efficient collaboration. Recently, AI agents have shown promising ability in supporting requirements analysis by saving significant time and effort for stakeholders. However, current research mainly focuses on functional RE, and research works have not been reported bridging the long journey from goal to user stories. Moreover, considering the cost of LLM facilities and the need for data and idea protection, privately hosted small-sized LLM should be further utilized in RE. To address these challenges, we propose Goal2Story, a multi-agent fleet that adopts the Impact Mapping (IM) framework while merely using cost-effective sLLMs for goal-driven RE. Moreover, we introduce a StorySeek dataset that contains over 1,000 user stories (USs) with corresponding goals and project context information, as well as the semi-automatic dataset construction method. For evaluation, we proposed two metrics: Factuality Hit Rate (FHR) to measure consistency between the generated USs with the dataset and Quality And Consistency Evaluation (QuACE) to evaluate the quality of the generated USs. Experimental results demonstrate that Goal2Story outperforms the baseline performance of the Super-Agent adopting powerful LLMs, while also showcasing the performance improvements in key metrics brought by CoT and Agent Profile to Goal2Story, as well as its exploration in identifying latent needs.

arxiv情報

著者 Xinkai Zou,Yan Liu,Xiongbo Shi,Chen Yang
発行日 2025-03-17 15:31:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.SE | Goal2Story: A Multi-Agent Fleet based on Privately Enabled sLLMs for Impacting Mapping on Requirements Elicitation はコメントを受け付けていません

LLM-Match: An Open-Sourced Patient Matching Model Based on Large Language Models and Retrieval-Augmented Generation

要約

患者のマッチングとは、医療記録を試験の適格性基準と正確に特定して一致させることにより、患者を適切な臨床試験にリンクするプロセスです。
LLM-Matchを提案します。LLM-Matchは、微調整されたオープンソースの大型言語モデルを活用する患者マッチングの新しいフレームワークです。
私たちのアプローチは、4つの重要なコンポーネントで構成されています。
第一に、検索された生成(RAG)モジュールは、電子健康記録の広大なプール(EHRS)から関連する患者のコンテキストを抽出します。
第二に、プロンプト生成モジュールは、試行資格基準(包含および除外基準の両方)、患者のコンテキスト、およびシステム命令を統合することにより、入力プロンプトを構築します。
第三に、分類ヘッドを備えた微調整モジュールは、構造化されたプロンプトとグラウンドトゥルースラベルを使用してモデルパラメーターを最適化します。
第4に、評価モジュールは、テストデータセットでの微調整されたモデルのパフォーマンスを評価します。
オープンソースモデルを使用して、N2C2、SIGIR、SIGIR、TREC 2021、およびTREC 2022の4つのオープンデータセットでLLMマッチを評価し、TrialGPT、ゼロショット、およびGPT-4ベースの閉じたモデルと比較しました。
LLMマッチはすべてのベースラインを上回りました。

要約(オリジナル)

Patient matching is the process of linking patients to appropriate clinical trials by accurately identifying and matching their medical records with trial eligibility criteria. We propose LLM-Match, a novel framework for patient matching leveraging fine-tuned open-source large language models. Our approach consists of four key components. First, a retrieval-augmented generation (RAG) module extracts relevant patient context from a vast pool of electronic health records (EHRs). Second, a prompt generation module constructs input prompts by integrating trial eligibility criteria (both inclusion and exclusion criteria), patient context, and system instructions. Third, a fine-tuning module with a classification head optimizes the model parameters using structured prompts and ground-truth labels. Fourth, an evaluation module assesses the fine-tuned model’s performance on the testing datasets. We evaluated LLM-Match on four open datasets, n2c2, SIGIR, TREC 2021, and TREC 2022, using open-source models, comparing it against TrialGPT, Zero-Shot, and GPT-4-based closed models. LLM-Match outperformed all baselines.

arxiv情報

著者 Xiaodi Li,Shaika Chowdhury,Chung Il Wi,Maria Vassilaki,Ken Liu,Terence T Sio,Owen Garrick,Young J Juhn,James R Cerhan,Cui Tao,Nansu Zong
発行日 2025-03-17 15:31:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG | LLM-Match: An Open-Sourced Patient Matching Model Based on Large Language Models and Retrieval-Augmented Generation はコメントを受け付けていません

Explaining the Unexplainable: A Systematic Review of Explainable AI in Finance

要約

精度と透明性センターのバランスをとろうとしている実務家と研究者は、財務の合流点で説明可能な人工知能(XAI)を説明します。
このペーパーでは、ドメイン固有の実装、方法論的開発、および研究のトレンドマッピングとともに、金融におけるXaiアプリケーションの変化するシーンの概要を徹底的に概説します。
書誌およびコンテンツ分析を使用して、トピッククラスター、重要な研究、およびほとんどの場合、金融産業で使用される説明可能性戦略を使用します。
私たちの結果は、事後解釈可能性の手法に大きく依存していることを示しています。
注意メカニズム、機能の重要性分析、およびSHAPは、それらの中で最も頻繁に使用される手法です。
このレビューは、金融知識と説明可能性パラダイムの改善を組み合わせた学際的なアプローチの必要性を強調し、現在のXaiシステムの重要な欠点を明らかにします。

要約(オリジナル)

Practitioners and researchers trying to strike a balance between accuracy and transparency center Explainable Artificial Intelligence (XAI) at the junction of finance. This paper offers a thorough overview of the changing scene of XAI applications in finance together with domain-specific implementations, methodological developments, and trend mapping of research. Using bibliometric and content analysis, we find topic clusters, significant research, and most often used explainability strategies used in financial industries. Our results show a substantial dependence on post-hoc interpretability techniques; attention mechanisms, feature importance analysis and SHAP are the most often used techniques among them. This review stresses the need of multidisciplinary approaches combining financial knowledge with improved explainability paradigms and exposes important shortcomings in present XAI systems.

arxiv情報

著者 Md Talha Mohsin,Nabid Bin Nasim
発行日 2025-03-17 15:37:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, q-fin.GN | Explaining the Unexplainable: A Systematic Review of Explainable AI in Finance はコメントを受け付けていません

$φ$-Decoding: Adaptive Foresight Sampling for Balanced Inference-Time Exploration and Exploitation

要約

推論時間最適化スケール計算には、効果的なパフォーマンスのための意図的な推論ステップを導き出します。
以前の検索ベースの戦略は、自動回帰世代の近視に対処していますが、広大な検索スペースは、過度の探査と不十分な搾取につながります。
最適なステップを導き出すために効率的なバランスをとるために、デコード戦略を先見の明のサンプリングとしてフレーム化し、シミュレートされた将来のステップを活用して、グローバルに最適なステップ推定を取得します。
それに基づいて、$ \ phi $ decodingという名前の新しいデコード戦略を提案します。
ステップ値の正確かつ表現力のある推定を提供するために、$ \ phi $ decodingは、先見性とクラスタリングを介して2つの分布近似です。
共同分布からサンプリングすると、利用のために最適なステップを選択できます。
適応的な計算割り当てをサポートするために、推論効率を実現するための軽量ソリューションを特徴とする幅および詳細な剪定戦略を提案します。
7つのベンチマークにわたる広範な実験では、$ \ phi $ decodingがパフォーマンスと効率の両方で強力なベースラインを上回ることが示されています。
追加の分析では、さまざまなLLMにわたる一般化と、幅広いコンピューティング予算にわたるスケーラビリティが示されています。
このコードはhttps://github.com/xufangzhi/phi-decodingでリリースされ、オープンソースPypiパッケージが近日公開されます。

要約(オリジナル)

Inference-time optimization scales computation to derive deliberate reasoning steps for effective performance. While previous search-based strategies address the short-sightedness of auto-regressive generation, the vast search space leads to excessive exploration and insufficient exploitation. To strike an efficient balance to derive the optimal step, we frame the decoding strategy as foresight sampling, leveraging simulated future steps to obtain globally optimal step estimation. Built on it, we propose a novel decoding strategy, named $\phi$-Decoding. To provide a precise and expressive estimation of step value, $\phi$-Decoding approximates two distributions via foresight and clustering. Sampling from the joint distribution, the optimal steps can be selected for exploitation. To support adaptive computation allocation, we propose in-width and in-depth pruning strategies, featuring a light-weight solution to achieve inference efficiency. Extensive experiments across seven benchmarks show $\phi$-Decoding outperforms strong baselines in both performance and efficiency. Additional analysis demonstrates its generalization across various LLMs and scalability across a wide range of computing budgets. The code will be released at https://github.com/xufangzhi/phi-Decoding, and the open-source PyPI package is coming soon.

arxiv情報

著者 Fangzhi Xu,Hang Yan,Chang Ma,Haiteng Zhao,Jun Liu,Qika Lin,Zhiyong Wu
発行日 2025-03-17 15:38:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG | $φ$-Decoding: Adaptive Foresight Sampling for Balanced Inference-Time Exploration and Exploitation はコメントを受け付けていません

A Survey on Transformer Context Extension: Approaches and Evaluation

要約

変圧器に基づく大規模な言語モデル(LLMS)は、自然言語処理(NLP)の提出に広く適用されており、特に短いテキストタスクの処理において強力なパフォーマンスを示しています。
ただし、長いコンテキストシナリオに関しては、LLMSのパフォーマンスはいくつかの課題により分解されます。
この現象を軽減するために、最近提案された作業がたくさんあります。
この調査では、最初に、事前に訓練されたLLMを適用して長いコンテキストを処理するという課題をリストします。
次に、長いコンテキストに関連するアプローチを体系的に確認し、それらを4つの主要なタイプに分類する分類を提案します:位置エンコーディング、コンテキスト圧縮、検索拡張、および注意パターン。
アプローチに加えて、長いコンテキストの評価に焦点を当て、既存の長いコンテキストベンチマークに基づいて関連するデータ、タスク、メトリックを整理します。
最後に、長いコンテキストドメインに未解決の問題を要約し、将来の開発に関する見解を提案します。

要約(オリジナル)

Large language models (LLMs) based on Transformer have been widely applied in the filed of natural language processing (NLP), demonstrating strong performance, particularly in handling short text tasks. However, when it comes to long context scenarios, the performance of LLMs degrades due to some challenges. To alleviate this phenomenon, there is a number of work proposed recently. In this survey, we first list the challenges of applying pre-trained LLMs to process long contexts. Then systematically review the approaches related to long context and propose our taxonomy categorizing them into four main types: positional encoding, context compression, retrieval augmented, and attention pattern. In addition to the approaches, we focus on the evaluation of long context, organizing relevant data, tasks, and metrics based on existing long context benchmarks. Finally, we summarize unresolved issues in the long context domain and put forward our views on future developments.

arxiv情報

著者 Yijun Liu,Jinzheng Yu,Yang Xu,Zhongyang Li,Qingfu Zhu
発行日 2025-03-17 15:44:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | A Survey on Transformer Context Extension: Approaches and Evaluation はコメントを受け付けていません

Computation Mechanism Behind LLM Position Generalization

要約

ほとんどの書かれた自然言語は、単語と文のシーケンスで構成されています。
人間と同様に、大規模な言語モデル(LLM)は、テキストの位置を処理する柔軟性を示します。
彼らは、位置の摂動を備えたテキストを理解し、最新のテクニックでトレーニング中に遭遇したテキストよりも長いテキストに一般化することができます。
これらの現象は、LLMSが位置を耐性に処理することを示唆していますが、LLMSがどのように位置の関連性を計算するかはほとんど未調査のままです。
この作業は、言語現象とLLMSの計算メカニズムを結び付けます。
LLMSが、摂動の位置における前述の耐性の特定の計算メカニズムをどのように施行するかを示します。
自己関節メカニズムの複雑な設計にもかかわらず、この研究は、LLMが注意ロジットの直感に反する解体を学ぶことを明らかにしています。
それらの値は、位置の関連性とセマンティックの重要性の算術合計の近似と0.959の線形相関を示しています。
さらに、中間特徴の一般的なパターンを特定します。これは、理論的にこの効果を可能にすることを証明します。
ランダムに初期化されたパラメーターがどのように動作するかとは異なるパターンは、モデルアーキテクチャの自然な結果ではなく、学習した動作であることを示唆しています。
これらの調査結果に基づいて、LLMSの位置の柔軟性の計算説明と基準を提供します。
この作業は、ポジションの一般化と最新のLLMSの内部メカニズムをリンクする先駆的な一歩を踏み出します。

要約(オリジナル)

Most written natural languages are composed of sequences of words and sentences. Similar to humans, large language models (LLMs) exhibit flexibility in handling textual positions – a phenomenon we term position generalization. They can understand texts with position perturbations and generalize to longer texts than those encountered during training with the latest techniques. These phenomena suggest that LLMs handle positions tolerantly, but how LLMs computationally process positional relevance remains largely unexplored. This work connects the linguistic phenomenon with LLMs’ computational mechanisms. We show how LLMs enforce certain computational mechanisms for the aforementioned tolerance in position perturbations. Despite the complex design of the self-attention mechanism, this work reveals that LLMs learn a counterintuitive disentanglement of attention logits. Their values show a 0.959 linear correlation with an approximation of the arithmetic sum of positional relevance and semantic importance. Furthermore, we identify a prevalent pattern in intermediate features, which we prove theoretically enables this effect. The pattern, which is different from how randomly initialized parameters would behave, suggests that it is a learned behavior rather than a natural result of the model architecture. Based on these findings, we provide computational explanations and criteria for LLMs’ position flexibilities. This work takes a pioneering step in linking position generalization with modern LLMs’ internal mechanisms.

arxiv情報

著者 Chi Han,Heng Ji
発行日 2025-03-17 15:47:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | Computation Mechanism Behind LLM Position Generalization はコメントを受け付けていません

Generative AI for Software Architecture. Applications, Trends, Challenges, and Future Directions

要約

コンテキスト:生成人工知能(GENAI)はソフトウェア開発の多くを変革していますが、ソフトウェアアーキテクチャへのアプリケーションはまだ初期段階にあり、以前の研究は体系的にトピックに対処していません。
目的:ソフトウェアアーキテクチャにおけるGenaiの使用、理論的、コンテキスト、使いやすさ、将来の課題を体系的に統合することを目指しています。
方法:多量体文献レビュー(MLR)を実行し、ピアレビューおよび灰色の文献を分析し、現在の実践、モデル、採用コンテキスト、報告された課題を特定し、オープンコーディングを介してテーマを抽出しました。
結果:私たちのレビューでは、建築上の意思決定の支援と建築再建のためのgenaiの重要な採用が特定されました。
Openai GPTモデルは主に適用されており、少数のショットプロンプトや検索された生成(RAG)などの手法の一貫した使用があります。
genaiは、主にソフトウェア開発ライフサイクル(SDLC)の初期段階に適用されています。
モノリシックおよびマイクロサービスアーキテクチャが支配的なターゲットでした。
ただし、gena​​i生産量の厳密なテストは通常​​、研究から欠落していました。
最も頻繁な課題には、モデルの精度、幻覚、倫理的側面、プライバシーの問題、建築固有のデータセットの欠如、およびサウンド評価フレームワークの欠如があります。
結論:genaiはソフトウェア設計に大きな可能性を示していますが、より大きな採用への道にはいくつかの課題が残っています。
研究の取り組みは、一般的な評価方法論の設計、倫理と精度の取り扱い、透明性と説明可能性の向上、および理論的可能性と実用的な使用の間のギャップを埋めるための建築固有のデータセットとベンチマークを促進する必要があります。

要約(オリジナル)

Context: Generative Artificial Intelligence (GenAI) is transforming much of software development, yet its application in software architecture is still in its infancy, and no prior study has systematically addressed the topic. Aim: We aim to systematically synthesize the use, rationale, contexts, usability, and future challenges of GenAI in software architecture. Method: We performed a multivocal literature review (MLR), analyzing peer-reviewed and gray literature, identifying current practices, models, adoption contexts, and reported challenges, extracting themes via open coding. Results: Our review identified significant adoption of GenAI for architectural decision support and architectural reconstruction. OpenAI GPT models are predominantly applied, and there is consistent use of techniques such as few-shot prompting and retrieved-augmented generation (RAG). GenAI has been applied mostly to initial stages of the Software Development Life Cycle (SDLC), such as Requirements-to-Architecture and Architecture-to-Code. Monolithic and microservice architectures were the dominant targets. However, rigorous testing of GenAI outputs was typically missing from the studies. Among the most frequent challenges are model precision, hallucinations, ethical aspects, privacy issues, lack of architecture-specific datasets, and the absence of sound evaluation frameworks. Conclusions: GenAI shows significant potential in software design, but several challenges remain on its path to greater adoption. Research efforts should target designing general evaluation methodologies, handling ethics and precision, increasing transparency and explainability, and promoting architecture-specific datasets and benchmarks to bridge the gap between theoretical possibilities and practical use.

arxiv情報

著者 Matteo Esposito,Xiaozhou Li,Sergio Moreschini,Noman Ahmad,Tomas Cerny,Karthik Vaidhyanathan,Valentina Lenarduzzi,Davide Taibi
発行日 2025-03-17 15:49:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.DC, cs.ET, cs.SE | Generative AI for Software Architecture. Applications, Trends, Challenges, and Future Directions はコメントを受け付けていません

RainScaleGAN: a Conditional Generative Adversarial Network for Rainfall Downscaling

要約

今日まで、ローカルスケールの降水量を正確にシミュレートし、その分布を確実に再現することは、依然として困難な作業です。
グローバルな気候モデルの限られた水平解像度は、この文脈でのスキルを損なう主要な要因の1つです。
特に極端なイベントでの降水量の発症と発達を促進する物理的メカニズムは、数値的に解決されたものよりも小さい空間的スケールで動作し、したがって正確に捕獲されるのに苦労しています。
この制限を回避するために、モデル出力の空間解像度とローカルスケールのアプリケーションで必要な解像度との矛盾に対処するために、過去数十年にわたっていくつかのダウンスケーリングアプローチが開発されました。
このホワイトペーパーでは、降水量のダウンスケーリングのための条件付きの深い畳み込み式生成敵対的ネットワーク(GAN)であるRainscaleganを紹介します。
GANは、画像の超解像度で効果的に使用されており、ダウンスケーリングタスクに非常に関連するアプローチです。
Rainscaleganの機能は、完璧なモデルセットアップでテストされます。降水データセットの空間解像度は、0.25 $^{\ circ} \ times $ 0.25 $^{\ circ} $ 2 $^{\ circ} \ times $ 2^\ circ $^\ circ $ and rainscaleganが使用しています。
開発されたモデルは、文献に見られる主要な降水量のダウンスケーリング方法の1つよりも優れています。
Rainscaleganは、もっともらしい高解像度の空間パターンと強度を備えた合成データセットを生成するだけでなく、統計を密接に反映した統計を備えた降水分布を生成します。
Rainscaleganのアプローチは、基礎となる物理学に関して不可知論者であることを考えると、この方法は、地表風や温度などの他の物理的変数に適用される可能性があります。

要約(オリジナル)

To this day, accurately simulating local-scale precipitation and reliably reproducing its distribution remains a challenging task. The limited horizontal resolution of Global Climate Models is among the primary factors undermining their skill in this context. The physical mechanisms driving the onset and development of precipitation, especially in extreme events, operate at spatio-temporal scales smaller than those numerically resolved, thus struggling to be captured accurately. In order to circumvent this limitation, several downscaling approaches have been developed over the last decades to address the discrepancy between the spatial resolution of models output and the resolution required by local-scale applications. In this paper, we introduce RainScaleGAN, a conditional deep convolutional Generative Adversarial Network (GAN) for precipitation downscaling. GANs have been effectively used in image super-resolution, an approach highly relevant for downscaling tasks. RainScaleGAN’s capabilities are tested in a perfect-model setup, where the spatial resolution of a precipitation dataset is artificially degraded from 0.25$^{\circ}\times$0.25$^{\circ}$ to 2$^{\circ}\times$2$^\circ$, and RainScaleGAN is used to restore it. The developed model outperforms one of the leading precipitation downscaling method found in the literature. RainScaleGAN not only generates a synthetic dataset featuring plausible high-resolution spatial patterns and intensities, but also produces a precipitation distribution with statistics closely mirroring those of the ground-truth dataset. Given that RainScaleGAN’s approach is agnostic with respect to the underlying physics, the method has the potential to be applied to other physical variables such as surface winds or temperature.

arxiv情報

著者 Marcello Iotti,Paolo Davini,Jost von Hardenberg,Giuseppe Zappa
発行日 2025-03-17 15:54:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, physics.ao-ph | RainScaleGAN: a Conditional Generative Adversarial Network for Rainfall Downscaling はコメントを受け付けていません

Investigating the contribution of terrain-following coordinates and conservation schemes in AI-driven precipitation forecasts

要約

人工知能(AI)気象予測(AIWP)モデルは、しばしば霧雨を過大評価し、極端を過小評価する「ぼやけ」の降水量予測を生成します。
この研究は、この問題に取り組むための新しいソリューションを提供します。つまり、地形の適合座標とグローバルな質量および省エネスキームをAIWPモデルに統合します。
予測実験は、1.0度グリッド間隔データに適合したAIWPモデルの例であるFuxiを使用して、このソリューションの有効性を評価するために実施されます。
検証結果は、パフォーマンスの大幅な向上を示しています。
保全スキームは霧雨のバイアスを減らすことがわかっていますが、地形にフォローする座標を使用すると、極端なイベントと降水強度スペクトルの推定が向上します。
さらに、ケーススタディでは、地形に転向する座標が山よりも地表近くの風をよりよく捉え、AIWPモデルが降水プロセスのダイナミクスを理解するためのより正確な情報を提供することが明らかになりました。
この研究の提案されたソリューションは、幅広いAIWPモデルに利益をもたらし、大気のドメイン知識がAIWPモデルの開発をどのようにサポートできるかについての洞察をもたらすことができます。

要約(オリジナル)

Artificial Intelligence (AI) weather prediction (AIWP) models often produce ‘blurry’ precipitation forecasts that overestimate drizzle and underestimate extremes. This study provides a novel solution to tackle this problem — integrating terrain-following coordinates with global mass and energy conservation schemes into AIWP models. Forecast experiments are conducted to evaluate the effectiveness of this solution using FuXi, an example AIWP model, adapted to 1.0-degree grid spacing data. Verification results show large performance gains. The conservation schemes are found to reduce drizzle bias, whereas using terrain-following coordinates improves the estimation of extreme events and precipitation intensity spectra. Furthermore, a case study reveals that terrain-following coordinates capture near-surface winds better over mountains, offering AIWP models more accurate information on understanding the dynamics of precipitation processes. The proposed solution of this study can benefit a wide range of AIWP models and bring insights into how atmospheric domain knowledge can support the development of AIWP models.

arxiv情報

著者 Yingkai Sha,John S. Schreck,William Chapman,David John Gagne II
発行日 2025-03-17 16:06:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, physics.ao-ph | Investigating the contribution of terrain-following coordinates and conservation schemes in AI-driven precipitation forecasts はコメントを受け付けていません