Balancing Forecast Accuracy and Switching Costs in Online Optimization of Energy Management Systems

要約

この研究では、エネルギー管理システムにおける予測と最適化の統合を調査し、スイッチングコストの役割 – 頻繁な運用調整から生じる罰則に焦点を当てています。
理論的および経験的フレームワークを開発して、オンラインの意思決定設定でのスイッチングコストとの予測の精度と安定性がどのように相互作用するかを調べます。
私たちの分析は、点と確率的予測を使用して、決定論的最適化と確率論的最適化アプローチの両方に及びます。
確率的予測の時間的一貫性を測定するための新しいメトリックが導入され、FrameworkはCityLearn 2022チャレンジに基づく実際のバッテリースケジューリングケースで検証されます。
結果は、スイッチングコストが予測の精度と安定性の間のトレードオフを大幅に変えること、およびより安定した予測により、切り替えによるパフォーマンスの損失が減少する可能性があることを示しています。
一般的な慣行とは反対に、調査結果は、交渉不可能な切り替えコストの下で、コミットメント期間が長くなると全体的な結果が向上する可能性があることを示唆しています。
これらの洞察は、インテリジェントで予測に対応するエネルギー管理システムの設計に実際的な意味を持っています。

要約(オリジナル)

This study investigates the integration of forecasting and optimization in energy management systems, with a focus on the role of switching costs — penalties incurred from frequent operational adjustments. We develop a theoretical and empirical framework to examine how forecast accuracy and stability interact with switching costs in online decision-making settings. Our analysis spans both deterministic and stochastic optimization approaches, using point and probabilistic forecasts. A novel metric for measuring temporal consistency in probabilistic forecasts is introduced, and the framework is validated in a real-world battery scheduling case based on the CityLearn 2022 challenge. Results show that switching costs significantly alter the trade-off between forecast accuracy and stability, and that more stable forecasts can reduce the performance loss due to switching. Contrary to common practice, the findings suggest that, under non-negligible switching costs, longer commitment periods may lead to better overall outcomes. These insights have practical implications for the design of intelligent, forecast-aware energy management systems.

arxiv情報

著者 Evgenii Genov,Julian Ruddick,Christoph Bergmeir,Majid Vafaeipour,Thierry Coosemans,Salvador Garcia,Maarten Messagie
発行日 2025-04-15 15:12:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.SY, eess.SY | Balancing Forecast Accuracy and Switching Costs in Online Optimization of Energy Management Systems はコメントを受け付けていません

Advanced Architectures Integrated with Agentic AI for Next-Generation Wireless Networks

要約

このペーパーでは、ネットワーク運用の簡素化、運用支出の削減(OPEX)、および新しいサービスモデルの展開を可能にすることを目的とした、さまざまな最先端のテクノロジーと建築革新を調査します。
焦点は、(i)長期の6Gネットワ​​ークの進化に対処しながら、サービスのシームレスな拡張を可能にするコントロールプレーンとユーザープレーンの両方を使用して、より効率的な6Gアーキテクチャを提案しています。
(ii)制約された人工知能(AI)操作の高度な手法、特にリアルタイム学習、エネルギー消費の最適化、計算リソースの割り当てのためのAIエージェントの設計の詳細な手法の調査。
(iii)特に垂直産業向けに、複数のドメインにわたってサーバーレスコンピューティングモデルを使用してバックエンドサービスのオーケストレーションをサポートするテクノロジーとアーキテクチャの識別。
(iv)高速光学スイッチングとリアルタイム制御を備えた光学ベースの超高速ネットワークアーキテクチャを導入し、従来の電子スイッチングを交換して電力消費を数桁削減します。

要約(オリジナル)

This paper investigates a range of cutting-edge technologies and architectural innovations aimed at simplifying network operations, reducing operational expenditure (OpEx), and enabling the deployment of new service models. The focus is on (i) Proposing novel, more efficient 6G architectures, with both Control and User planes enabling the seamless expansion of services, while addressing long-term 6G network evolution. (ii) Exploring advanced techniques for constrained artificial intelligence (AI) operations, particularly the design of AI agents for real-time learning, optimizing energy consumption, and the allocation of computational resources. (iii) Identifying technologies and architectures that support the orchestration of backend services using serverless computing models across multiple domains, particularly for vertical industries. (iv) Introducing optically-based, ultra-high-speed, low-latency network architectures, with fast optical switching and real-time control, replacing conventional electronic switching to reduce power consumption by an order of magnitude.

arxiv情報

著者 Kapal Dev,Sunder Ali Khowaja,Keshav Singh,Engin Zeydan,Merouane Debbah
発行日 2025-04-15 15:24:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.NI | Advanced Architectures Integrated with Agentic AI for Next-Generation Wireless Networks はコメントを受け付けていません

Bipartite Ranking From Multiple Labels: On Loss Versus Label Aggregation

要約

Bipartiteランキングは、単一のバイナリターゲットラベルに対してROC曲線(AUC)の下の最大領域(AUC)のインスタンスにランキングを学習することを目標に、基本的な監視された学習問題です。
ただし、明確なヒトアノテーターから、複数のバイナリターゲットラベル、たとえば複数のバイナリターゲットラベルが観察される場合があります。
このようなラベルを単一のコヒーレントランキングにどのように合成できますか?
この作業では、ベイズ最適なソリューションを特徴付けることにより、この問題に対する2つのアプローチ(損失集約とラベル集計)に対する2つのアプローチを正式に分析します。
これに基づいて、両方の方法がパレート最適ソリューションを生成できるが、損失集約はラベル独裁を示すことができることを示しています。
これは、ラベルの集約が損失集約よりも好ましいことを示唆しており、これを経験的に検証します。

要約(オリジナル)

Bipartite ranking is a fundamental supervised learning problem, with the goal of learning a ranking over instances with maximal area under the ROC curve (AUC) against a single binary target label. However, one may often observe multiple binary target labels, e.g., from distinct human annotators. How can one synthesize such labels into a single coherent ranking? In this work, we formally analyze two approaches to this problem — loss aggregation and label aggregation — by characterizing their Bayes-optimal solutions. Based on this, we show that while both methods can yield Pareto-optimal solutions, loss aggregation can exhibit label dictatorship: one can inadvertently (and undesirably) favor one label over others. This suggests that label aggregation can be preferable to loss aggregation, which we empirically verify.

arxiv情報

著者 Michal Lukasik,Lin Chen,Harikrishna Narasimhan,Aditya Krishna Menon,Wittawat Jitkrittum,Felix X. Yu,Sashank J. Reddi,Gang Fu,Mohammadhossein Bateni,Sanjiv Kumar
発行日 2025-04-15 15:25:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.IR, cs.LG, stat.ML | Bipartite Ranking From Multiple Labels: On Loss Versus Label Aggregation はコメントを受け付けていません

Enhancing Commentary Strategies for Imperfect Information Card Games: A Study of Large Language Models in Guandan Commentary

要約

大規模な言語モデル(LLMS)の最近の進歩により、高品質のゲームコメントを生成する可能性が解き放たれました。
ただし、不完全な情報を持つ複雑なゲームの洞察に富んだ魅力的な解説を作成することは、依然として大きな課題です。
このホワイトペーパーでは、補強学習(RL)とLLMSを組み合わせた新しい解説方法を紹介します。
私たちのシステムはRLを活用して複雑なカードプレイシナリオを生成し、LLMを採用して対応する解説テキストを生成し、プロのコメンテーターの戦略的分析と物語の才能を効果的にエミュレートします。
このフレームワークは、州の解説ガイド、Mindの理論(TOM)ベースの戦略分析装置、およびスタイル検索モジュールで構成されており、中国語環境で詳細かつコンテキスト関連のゲーム解説を提供するためにシームレスに協力しています。
LLMSにTOM機能を強化し、検索と情報のフィルタリングメカニズムの両方を改良します。
これにより、パーソナライズされた解説コンテンツの生成が容易になります。
実験結果は、オープンソースLLMSに適用されたときに提案された解説フレームワークによって達成されたパフォーマンスの大幅な向上を示し、複数の評価メトリックにわたってGPT-4のパフォーマンスを上回ります。

要約(オリジナル)

Recent advancements in large language models (LLMs) have unlocked the potential for generating high-quality game commentary. However, producing insightful and engaging commentary for complex games with incomplete information remains a significant challenge. In this paper, we introduce a novel commentary method that combine Reinforcement Learning (RL) and LLMs, tailored specifically for the Chinese card game \textit{Guandan}. Our system leverages RL to generate intricate card-playing scenarios and employs LLMs to generate corresponding commentary text, effectively emulating the strategic analysis and narrative prowess of professional commentators. The framework comprises a state commentary guide, a Theory of Mind (ToM)-based strategy analyzer, and a style retrieval module, which seamlessly collaborate to deliver detailed and context-relevant game commentary in the Chinese language environment. We empower LLMs with ToM capabilities and refine both retrieval and information filtering mechanisms. This facilitates the generation of personalized commentary content. Our experimental results showcase the substantial enhancement in performance achieved by the proposed commentary framework when applied to open-source LLMs, surpassing the performance of GPT-4 across multiple evaluation metrics.

arxiv情報

著者 Meiling Tao,Xuechen Liang,Xinyuan Song,Yangfan He,Yiling Tao,Jianhui Wang,Sun Li Tianyu Shi
発行日 2025-04-15 15:28:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | Enhancing Commentary Strategies for Imperfect Information Card Games: A Study of Large Language Models in Guandan Commentary はコメントを受け付けていません

CMAT: A Multi-Agent Collaboration Tuning Framework for Enhancing Small Language Models

要約

大規模な言語モデル(LLMS)を開くことで、自然言語処理の分野が大幅に進歩し、さまざまなタスクにわたって印象的なパフォーマンスを紹介しています。LLMSの大幅な進歩にもかかわらず、それらの効果的な動作は、対話フローを正確にガイドするために人間の入力に大きく依存しています。
モデルは、細心の注意を払ってキュレーションされた高品質のデータセットで訓練されています。
また、環境フィードバックに基づいて適応性のある体重更新を通じて言語エージェント機能を増強するために設計された革新的なシステムである共同マルチエージェントチューニング(CMAT)フレームワークも紹介します。
このフレームワークは、複数のインテリジェントなエージェント間の共同学習とリアルタイムの適応を促進し、コンテキストの認識と長期的な記憶を高めます。
この研究では、マルチエージェントシステムを環境フィードバックメカニズムと統合する新しい通信エージェントフレームワークを提案し、協力的な行動を探るためのスケーラブルな方法を提供します。
特に、当社のTinyAgent-7Bモデルは、パラメーターが少ないにもかかわらず、GPT-3.5とPARでパフォーマンスを示し、LLMSの効率と有効性の大幅な改善を示しています。

要約(オリジナル)

Open large language models (LLMs) have significantly advanced the field of natural language processing, showcasing impressive performance across various tasks.Despite the significant advancements in LLMs, their effective operation still relies heavily on human input to accurately guide the dialogue flow, with agent tuning being a crucial optimization technique that involves human adjustments to the model for better response to such guidance.Addressing this dependency, our work introduces the TinyAgent model, trained on a meticulously curated high-quality dataset. We also present the Collaborative Multi-Agent Tuning (CMAT) framework, an innovative system designed to augment language agent capabilities through adaptive weight updates based on environmental feedback. This framework fosters collaborative learning and real-time adaptation among multiple intelligent agents, enhancing their context-awareness and long-term memory. In this research, we propose a new communication agent framework that integrates multi-agent systems with environmental feedback mechanisms, offering a scalable method to explore cooperative behaviors. Notably, our TinyAgent-7B model exhibits performance on par with GPT-3.5, despite having fewer parameters, signifying a substantial improvement in the efficiency and effectiveness of LLMs.

arxiv情報

著者 Xuechen Liang,Yangfan He,Meiling Tao,Yinghui Xia,Jianhui Wang,Tianyu Shi,Jun Wang,JingSong Yang
発行日 2025-04-15 15:28:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CC, cs.CL | CMAT: A Multi-Agent Collaboration Tuning Framework for Enhancing Small Language Models はコメントを受け付けていません

Automatic Item Generation for Personality Situational Judgment Tests with Large Language Models

要約

特に状況判断テスト(SJTS)を通じて、人格評価は、心理的研究、人材選択、教育評価のための重要なツールです。
この研究では、中国語の人格状況判断テスト(PSJT)の生成を自動化するための最先端の大手言語モデル(LLM)であるGPT-4の可能性を調査します。
従来のSJT開発は労働集約的であり、バイアスを抑えやすく、GPT-4はスケーラブルで効率的な代替品を提供します。
2つの研究が実施されました。研究1は、コンテンツの妥当性に対する迅速な設計と温度設定の影響を評価し、1.0の温度で最適化されたプロンプトが創造的で正確なアイテムを生成したことを発見しました。
研究2では、GPT-4生成されたPSJTSの心理測定特性を評価し、彼らが満足のいく信頼性と妥当性を実証し、ビッグファイブパーソナリティ特性の測定における手動で開発されたテストのパフォーマンスを上回ることを明らかにしました。
この研究は、高品質のPSJTを開発する際のGPT-4の有効性を強調し、心理測定テスト開発のためのスケーラブルで革新的な方法を提供します。
これらの調査結果は、自動アイテムの生成の可能性と心理学におけるLLMの適用を拡大し、リソース制限設定でのテスト開発プロセスを合理化するために実際的な意味を提供します。

要約(オリジナル)

Personality assessment, particularly through situational judgment tests (SJTs), is a vital tool for psychological research, talent selection, and educational evaluation. This study explores the potential of GPT-4, a state-of-the-art large language model (LLM), to automate the generation of personality situational judgment tests (PSJTs) in Chinese. Traditional SJT development is labor-intensive and prone to biases, while GPT-4 offers a scalable, efficient alternative. Two studies were conducted: Study 1 evaluated the impact of prompt design and temperature settings on content validity, finding that optimized prompts with a temperature of 1.0 produced creative and accurate items. Study 2 assessed the psychometric properties of GPT-4-generated PSJTs, revealing that they demonstrated satisfactory reliability and validity, surpassing the performance of manually developed tests in measuring the Big Five personality traits. This research highlights GPT-4’s effectiveness in developing high-quality PSJTs, providing a scalable and innovative method for psychometric test development. These findings expand the possibilities of automatic item generation and the application of LLMs in psychology, and offer practical implications for streamlining test development processes in resource-limited settings.

arxiv情報

著者 Chang-Jin Li,Jiyuan Zhang,Yun Tang,Jian Li
発行日 2025-04-15 15:42:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, I.2.1 | Automatic Item Generation for Personality Situational Judgment Tests with Large Language Models はコメントを受け付けていません

Learning to Be A Doctor: Searching for Effective Medical Agent Architectures

要約

大規模な言語モデル(LLM)ベースのエージェントは、幅広いタスクにわたって強力な能力を実証しており、医療領域でのそれらの適用は、学際的知識への高い一般化と依存の需要のために特に有望です。
ただし、既存の医療エージェントシステムは、多くの場合、多様な診断要件に対応し、新たな臨床シナリオに適応する柔軟性を欠く静的で手動で作成されたワークフローに依存しています。
自動化された機械学習(Automl)の成功に動機付けられたこのペーパーでは、医療エージェントアーキテクチャの自動設計のための新しいフレームワークを紹介します。
具体的には、ノード、構造、およびフレームワークレベルでの構造化された変更を通じて、動的なワークフロー適応を可能にする階層的および表現エージェント検索スペースを定義します。
当社のフレームワークは、多様で機能的なノードタイプで構成されるグラフベースのアーキテクチャとして医療エージェントを概念化し、診断フィードバックによって導かれる反復的な自己改善をサポートします。
皮膚疾患の診断タスクの実験結果は、提案された方法がワークフロー構造を効果的に進化させ、時間の経過とともに診断の精度を大幅に向上させることを示しています。
この作業は、医療エージェントアーキテクチャ設計のための最初の完全に自動化されたフレームワークを表し、実世界の臨床環境にインテリジェントエージェントを展開するためのスケーラブルで適応性のある基盤を提供します。

要約(オリジナル)

Large Language Model (LLM)-based agents have demonstrated strong capabilities across a wide range of tasks, and their application in the medical domain holds particular promise due to the demand for high generalizability and reliance on interdisciplinary knowledge. However, existing medical agent systems often rely on static, manually crafted workflows that lack the flexibility to accommodate diverse diagnostic requirements and adapt to emerging clinical scenarios. Motivated by the success of automated machine learning (AutoML), this paper introduces a novel framework for the automated design of medical agent architectures. Specifically, we define a hierarchical and expressive agent search space that enables dynamic workflow adaptation through structured modifications at the node, structural, and framework levels. Our framework conceptualizes medical agents as graph-based architectures composed of diverse, functional node types and supports iterative self-improvement guided by diagnostic feedback. Experimental results on skin disease diagnosis tasks demonstrate that the proposed method effectively evolves workflow structures and significantly enhances diagnostic accuracy over time. This work represents the first fully automated framework for medical agent architecture design and offers a scalable, adaptable foundation for deploying intelligent agents in real-world clinical environments.

arxiv情報

著者 Yangyang Zhuang,Wenjia Jiang,Jiayu Zhang,Ze Yang,Joey Tianyi Zhou,Chi Zhang
発行日 2025-04-15 15:44:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI | Learning to Be A Doctor: Searching for Effective Medical Agent Architectures はコメントを受け付けていません

Unmasking Deceptive Visuals: Benchmarking Multimodal Large Language Models on Misleading Chart Question Answering

要約

特定の主張をサポートするために意図的にデータ表現を操作する誤解を招くチャートの視覚化は、認識を歪め、誤った結論につながる可能性があります。
数十年にわたる研究にもかかわらず、誤解を招く視覚化は、広範で差し迫った問題のままです。
マルチモーダル大手言語モデル(MLLM)の最近の進歩は、強力なチャート理解能力を実証していますが、誤解を招くチャートを検出および解釈する能力を体系的に評価した既存の作業はありません。
このペーパーでは、誤解を招くチャートの質問応答(誤解を招くChartqa)ベンチマークを紹介します。これは、誤解を招くチャートの特定と推論においてMLLMを評価するために設計された大規模なマルチモーダルデータセットです。
3,000を超えるキュレーションされた例が含まれており、21種類の誤ったリーダーと10種類のチャートタイプをカバーしています。
各例には、標準化されたチャートコード、CSVデータ、およびマルチラウンドMLLMチェックと使い果たされた専門家のヒューマンレビューを通じて検証された、ラベル付き説明を含む複数選択の質問が含まれます。
データセットに16の最先端のMLLMをベンチマークし、視覚的に欺cept的な慣行を特定する際の制限を明らかにします。
また、誤解を招く誤解を招くために、誤解を招くチャートの解釈におけるMLLMの精度を高める新しいパイプラインを提案します。
私たちの仕事は、MLLM主導の誤解を招くチャートの理解を進めるための基盤を確立しています。
サンプルデータセットを公開して、この重要な領域でのさらなる研究をサポートします。

要約(オリジナル)

Misleading chart visualizations, which intentionally manipulate data representations to support specific claims, can distort perceptions and lead to incorrect conclusions. Despite decades of research, misleading visualizations remain a widespread and pressing issue. Recent advances in multimodal large language models (MLLMs) have demonstrated strong chart comprehension capabilities, yet no existing work has systematically evaluated their ability to detect and interpret misleading charts. This paper introduces the Misleading Chart Question Answering (Misleading ChartQA) Benchmark, a large-scale multimodal dataset designed to assess MLLMs in identifying and reasoning about misleading charts. It contains over 3,000 curated examples, covering 21 types of misleaders and 10 chart types. Each example includes standardized chart code, CSV data, and multiple-choice questions with labeled explanations, validated through multi-round MLLM checks and exhausted expert human review. We benchmark 16 state-of-the-art MLLMs on our dataset, revealing their limitations in identifying visually deceptive practices. We also propose a novel pipeline that detects and localizes misleaders, enhancing MLLMs’ accuracy in misleading chart interpretation. Our work establishes a foundation for advancing MLLM-driven misleading chart comprehension. We publicly release the sample dataset to support further research in this critical area.

arxiv情報

著者 Zixin Chen,Sicheng Song,Kashun Shum,Yanna Lin,Rui Sheng,Huamin Qu
発行日 2025-04-15 15:48:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | Unmasking Deceptive Visuals: Benchmarking Multimodal Large Language Models on Misleading Chart Question Answering はコメントを受け付けていません

Optimizing LLM Inference: Fluid-Guided Online Scheduling with Memory Constraints

要約

大規模な言語モデル(LLM)は今日のアプリケーションでは不可欠ですが、それらの推論手順 – セグメントでテキストを処理し、メモリが多いキー値(kV)キャッシュを使用することにより応答を生成します – 特にメモリの制約の下で、重要な計算リソースが必要です。
このペーパーでは、LLM推論の最適化は、シーケンシャルプロンプトの到着とKVキャッシュの成長が従来のスケジューリングを非効率的にするマルチステージオンラインスケジューリングの問題として定式化します。
アルゴリズムの設計をガイドする扱いやすいベンチマークを提供するために、流体ダイナミクス近似を開発します。
これに基づいて、累積推論のしきい値(待機)アルゴリズムを待つことを提案します。これは、出力の長さがわかっているときに複数のしきい値を使用して着信プロンプトを最適にスケジュールし、出力の長さが不明なケースのネストされた待機に拡張します。
理論分析は、両方のアルゴリズムが、スループット、レイテンシ、および最初のトークン(TTFT)までのバランスをとる、交通量の多い状態での流体ベンチマークに対してほぼ最適なパフォーマンスを達成することを示しています。
合成データセットと実世界の両方のデータセットを使用して、A100 GPUでのLLAMA-7Bモデルを使用した実験は、VLLMやSarathiなどの確立されたベースラインと比較して、スループットとレイテンシの改善とレイテンシの改善を示しています。
この作業は、運用研究と機械学習を橋渡しし、メモリ制約の下でLLMを効率的に展開するための厳密なフレームワークを提供します。

要約(オリジナル)

Large Language Models (LLMs) are indispensable in today’s applications, but their inference procedure — generating responses by processing text in segments and using a memory-heavy Key-Value (KV) cache — demands significant computational resources, particularly under memory constraints. This paper formulates LLM inference optimization as a multi-stage online scheduling problem where sequential prompt arrivals and KV cache growth render conventional scheduling ineffective. We develop a fluid dynamics approximation to provide a tractable benchmark that guides algorithm design. Building on this, we propose the Waiting for Accumulated Inference Threshold (WAIT) algorithm, which uses multiple thresholds to schedule incoming prompts optimally when output lengths are known, and extend it to Nested WAIT for cases with unknown output lengths. Theoretical analysis shows that both algorithms achieve near-optimal performance against the fluid benchmark in heavy traffic conditions, balancing throughput, latency, and Time to First Token (TTFT). Experiments with the Llama-7B model on an A100 GPU using both synthetic and real-world datasets demonstrate improved throughput and reduced latency relative to established baselines like vLLM and Sarathi. This work bridges operations research and machine learning, offering a rigorous framework for the efficient deployment of LLMs under memory constraints.

arxiv情報

著者 Ruicheng Ao,Gan Luo,David Simchi-Levi,Xinshang Wang
発行日 2025-04-15 16:00:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.DC, cs.LG, math.OC, stat.ML | Optimizing LLM Inference: Fluid-Guided Online Scheduling with Memory Constraints はコメントを受け付けていません

Code Reborn AI-Driven Legacy Systems Modernization from COBOL to Java

要約

この研究では、AI駆動型のレガシーCOBOLコードのJavaへの近代化を調査し、老化したソフトウェアシステムにおける重要な課題に対処します。
レガシーCOBOL 2024コーパスを活用して、公共およびエンタープライズソースから50,000個のCOBOLファイル – Javaはコードを解析し、AIはアップグレードを提案し、Reactはゲインを視覚化します。
93%の精度を達成すると、複雑さは35%(18〜11.7)と33%(8から5.4)の結合、手動努力(75%)とルールベースのツール(82%)を上回ります。
このアプローチは、COBOLシステムを若返らせるためのスケーラブルなパスを提供します。これは、銀行や保険などの業界にとって不可欠です。

要約(オリジナル)

This study investigates AI-driven modernization of legacy COBOL code into Java, addressing a critical challenge in aging software systems. Leveraging the Legacy COBOL 2024 Corpus — 50,000 COBOL files from public and enterprise sources — Java parses the code, AI suggests upgrades, and React visualizes gains. Achieving 93% accuracy, complexity drops 35% (from 18 to 11.7) and coupling 33% (from 8 to 5.4), surpassing manual efforts (75%) and rule-based tools (82%). The approach offers a scalable path to rejuvenate COBOL systems, vital for industries like banking and insurance.

arxiv情報

著者 Gopichand Bandarupalli
発行日 2025-04-15 16:07:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.SE | Code Reborn AI-Driven Legacy Systems Modernization from COBOL to Java はコメントを受け付けていません