Software Development Life Cycle Perspective: A Survey of Benchmarks for CodeLLMs and Agents

要約

コード大規模な言語モデル(Codellms)とエージェントは、従来のソフトウェアエンジニアリング方法と格付けされた複雑なソフトウェアエンジニアリングタスクに取り組むことに大きな期待を示しており、Codellmsとエージェントはより強力な能力を提供し、自然とコードの両方で入力と出力を柔軟に処理できます。
ベンチマークは、Codellmsとエージェントの機能を評価し、開発と展開を導く上で重要な役割を果たします。
しかし、その重要性の高まりにもかかわらず、Codellmsとエージェントのベンチマークの包括的なレビューが残っています。
このギャップを埋めるために、このペーパーでは、Codellmsとエージェントの既存のベンチマークの包括的なレビューを提供し、461の関連する論文から181のベンチマークを研究および分析し、ソフトウェア開発ライフサイクル(SDLC)のさまざまなフェーズをカバーします。
私たちの調査結果は、現在のベンチマークのカバレッジにおける顕著な不均衡を明らかにし、SDLCのソフトウェア開発フェーズに約60%焦点を合わせていますが、要件エンジニアリングとソフトウェアの設計フェーズは、それぞれ5%と3%のみで最小限の注目を集めています。
さらに、Pythonは、レビューされたベンチマーク全体で支配的なプログラミング言語として登場します。
最後に、このペーパーでは、現在の研究の課題を強調し、将来の方向性を提案し、Codellmsとエージェントの理論的能力と現実世界のシナリオでの適用の間のギャップを狭めることを目指しています。

要約(オリジナル)

Code large language models (CodeLLMs) and agents have shown great promise in tackling complex software engineering tasks.Compared to traditional software engineering methods, CodeLLMs and agents offer stronger abilities, and can flexibly process inputs and outputs in both natural and code. Benchmarking plays a crucial role in evaluating the capabilities of CodeLLMs and agents, guiding their development and deployment. However, despite their growing significance, there remains a lack of comprehensive reviews of benchmarks for CodeLLMs and agents. To bridge this gap, this paper provides a comprehensive review of existing benchmarks for CodeLLMs and agents, studying and analyzing 181 benchmarks from 461 relevant papers, covering the different phases of the software development life cycle (SDLC). Our findings reveal a notable imbalance in the coverage of current benchmarks, with approximately 60% focused on the software development phase in SDLC, while requirements engineering and software design phases receive minimal attention at only 5% and 3%, respectively. Additionally, Python emerges as the dominant programming language across the reviewed benchmarks. Finally, this paper highlights the challenges of current research and proposes future directions, aiming to narrow the gap between the theoretical capabilities of CodeLLMs and agents and their application in real-world scenarios.

arxiv情報

著者 Kaixin Wang,Tianlin Li,Xiaoyu Zhang,Chong Wang,Weisong Sun,Yang Liu,Bin Shi
発行日 2025-05-08 14:27:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.SE | Software Development Life Cycle Perspective: A Survey of Benchmarks for CodeLLMs and Agents はコメントを受け付けていません

GeoUni: A Unified Model for Generating Geometry Diagrams, Problems and Problem Solutions

要約

ユニークで個別化されたジオメトリ問題の作成を可能にする方法で、単一のフレームワーク内で問題の解と図を生成できる最初の統合されたジオメトリエキスパートモデルであるGeouniを提案します。
伝統的に、幾何学の問題を解決し、図を生成することは、機械学習における個別のタスクとして扱われてきましたが、問題の作成をサポートするために両方を統合するモデルはありませんでした。
ただし、幾何学の習得には、問題の解決から幾何学的関係の視覚化まで、最後にテーラードの問題を作成することまで、これらすべてのスキルの摩擦のない統合が必要であると考えています。
私たちの広範な実験は、幾何学的推論タスクに671Bパラメーターを備えたDeepSeek-R1などの大規模なモデルに匹敵する1.5Bパラメーターのみを備えたGeouniが実現することを示しています。
Geouniは、GPT-4O画像生成を含むテキストから画像へのモデルと統一モデルの両方を超えて、正確な幾何学図を生成することに優れています。
最も重要なことは、Geouniは、特定のナレッジポイントに基づいて一致する図でテキストの問題を正常に生成できる唯一のモデルであり、現在のモデルを超えて拡張される幅広い機能を提供することです。

要約(オリジナル)

We propose GeoUni, the first unified geometry expert model capable of generating problem solutions and diagrams within a single framework in a way that enables the creation of unique and individualized geometry problems. Traditionally, solving geometry problems and generating diagrams have been treated as separate tasks in machine learning, with no models successfully integrating both to support problem creation. However, we believe that mastery in geometry requires frictionless integration of all of these skills, from solving problems to visualizing geometric relationships, and finally, crafting tailored problems. Our extensive experiments demonstrate that GeoUni, with only 1.5B parameters, achieves performance comparable to larger models such as DeepSeek-R1 with 671B parameters in geometric reasoning tasks. GeoUni also excels in generating precise geometric diagrams, surpassing both text-to-image models and unified models, including the GPT-4o image generation. Most importantly, GeoUni is the only model capable of successfully generating textual problems with matching diagrams based on specific knowledge points, thus offering a wider range of capabilities that extend beyond current models.

arxiv情報

著者 Jo-Ku Cheng,Zeren Zhang,Ran Chen,Jingyang Deng,Ziran Qin,Jinwen Ma
発行日 2025-05-08 14:36:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | GeoUni: A Unified Model for Generating Geometry Diagrams, Problems and Problem Solutions はコメントを受け付けていません

Scalable Chain of Thoughts via Elastic Reasoning

要約

大規模な推論モデル(LRMS)は、拡張された思考チェーン(COT)を生成することにより、複雑なタスクで顕著な進歩を達成しました。
ただし、制御されていない出力の長さは、トークン、レイテンシ、または計算の推論時間予算が厳密に制約される現実世界の展開に大きな課題をもたらします。
弾力性の推論を提案します。これは、推論を独立して割り当てられた予算で2つのフェーズ(考えと解決策)に明示的に分離するスケーラブルな思考チェーンの新しいフレームワークを提案します。
テスト時に、弾性推論は、ソリューションセグメントの完全性を優先し、厳しいリソースの制約の下での信頼性を大幅に改善します。
切り捨てられた思考に堅牢なモデルを訓練するために、GRPOに統合された軽量の予算制約のロールアウト戦略を導入します。これは、思考プロセスが短くカットされ、追加のトレーニングなしで目に見えない予算の制約に効果的に一般化するときに適応的に推論するようにモデルを教えます。
数学(AIME、MATH500)およびプログラミング(LiveCodebench、CodeForces)のベンチマークに関する経験的結果は、弾性推論が厳格な予算制約の下で堅牢に機能する一方で、ベースライン方法よりも大幅に低いトレーニングコストを発生させることを示しています。
驚くべきことに、私たちのアプローチは、制約のない設定でも、より簡潔で効率的な推論を生み出します。
弾性推論は、規模の制御可能な推論の差し迫った課題に対する原則的かつ実用的な解決策を提供します。

要約(オリジナル)

Large reasoning models (LRMs) have achieved remarkable progress on complex tasks by generating extended chains of thought (CoT). However, their uncontrolled output lengths pose significant challenges for real-world deployment, where inference-time budgets on tokens, latency, or compute are strictly constrained. We propose Elastic Reasoning, a novel framework for scalable chain of thoughts that explicitly separates reasoning into two phases–thinking and solution–with independently allocated budgets. At test time, Elastic Reasoning prioritize that completeness of solution segments, significantly improving reliability under tight resource constraints. To train models that are robust to truncated thinking, we introduce a lightweight budget-constrained rollout strategy, integrated into GRPO, which teaches the model to reason adaptively when the thinking process is cut short and generalizes effectively to unseen budget constraints without additional training. Empirical results on mathematical (AIME, MATH500) and programming (LiveCodeBench, Codeforces) benchmarks demonstrate that Elastic Reasoning performs robustly under strict budget constraints, while incurring significantly lower training cost than baseline methods. Remarkably, our approach also produces more concise and efficient reasoning even in unconstrained settings. Elastic Reasoning offers a principled and practical solution to the pressing challenge of controllable reasoning at scale.

arxiv情報

著者 Yuhui Xu,Hanze Dong,Lei Wang,Doyen Sahoo,Junnan Li,Caiming Xiong
発行日 2025-05-08 15:01:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG | Scalable Chain of Thoughts via Elastic Reasoning はコメントを受け付けていません

High-fidelity Grain Growth Modeling: Leveraging Deep Learning for Fast Computations

要約

穀物成長シミュレーションは、アニーリングおよび結果として生じる最終的な機械的特性中の金属材料の微細構造の進化を予測するために重要ですが、従来の部分微分方程式ベースの方法は計算高価であり、材料の設計と製造にボトルネックを作成します。
この作業では、畳み込みの長い短期メモリネットワークと自動エンコーダーを組み合わせて、粒子成長の進化を効率的に予測する機械学習フレームワークを紹介します。
私たちのアプローチは、平均の複合誤差、構造類似性インデックス測定、および境界保存を組み合わせて、予測の粒境界トポロジーの構造的完全性を維持するために、高次元の粒子構造データをパターン学習のためのコンパクトな潜在空間にエンコードしながら、粒子進化の空間的および時間的側面の両方を捉えています。
結果は、当社の機械学習アプローチが粒子成長予測を\ si {89} {\ times}まで速く加速し、\ si {10} {\ minute}から高忠実度の予測を維持しながら、\ si {\ minute}から約\ si {10} {\ second}に縮小することを実証しました。
\ si {86.71} {\パーセント}の構造類似性スコアを達成する最良のモデル(S-30-30)およびJust \ Si {0.07} {\パーセント}の平均粒子サイズ誤差。
すべてのモデルは、粒界トポロジー、形態、およびサイズ分布を正確にキャプチャしました。
このアプローチにより、従来のシミュレーションが法外に時間がかかり、材料科学と製造の革新が潜在的に加速されるアプリケーションの迅速な微細構造予測が可能になります。

要約(オリジナル)

Grain growth simulation is crucial for predicting metallic material microstructure evolution during annealing and resulting final mechanical properties, but traditional partial differential equation-based methods are computationally expensive, creating bottlenecks in materials design and manufacturing. In this work, we introduce a machine learning framework that combines a Convolutional Long Short-Term Memory networks with an Autoencoder to efficiently predict grain growth evolution. Our approach captures both spatial and temporal aspects of grain evolution while encoding high-dimensional grain structure data into a compact latent space for pattern learning, enhanced by a novel composite loss function combining Mean Squared Error, Structural Similarity Index Measurement, and Boundary Preservation to maintain structural integrity of grain boundary topology of the prediction. Results demonstrated that our machine learning approach accelerates grain growth prediction by up to \SI{89}{\times} faster, reducing computation time from \SI{10}{\minute} to approximately \SI{10}{\second} while maintaining high-fidelity predictions. The best model (S-30-30) achieving a structural similarity score of \SI{86.71}{\percent} and mean grain size error of just \SI{0.07}{\percent}. All models accurately captured grain boundary topology, morphology, and size distributions. This approach enables rapid microstructural prediction for applications where conventional simulations are prohibitively time-consuming, potentially accelerating innovation in materials science and manufacturing.

arxiv情報

著者 Pungponhavoan Tep,Marc Bernacki
発行日 2025-05-08 15:43:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cond-mat.mtrl-sci, cs.AI | High-fidelity Grain Growth Modeling: Leveraging Deep Learning for Fast Computations はコメントを受け付けていません

Enhancing Differential Testing With LLMs For Testing Deep Learning Libraries

要約

鑑別テストは、代替実装間でテスト結果を比較することにより、テストのOracleの問題を軽減するための有望な戦略を提供します。
ただし、ディープラーニング(DL)ライブラリの既存の微分テスト手法は、特定のAPIの代替実装(カウンターパートと呼ばれる)を見つけるという重要な課題によって制限され、その後多様なテスト入力を生成します。
2つの課題に対処するために、このホワイトペーパーでは、DLMがDLライブラリのLLM強化微分テスト手法であるDllensを紹介します。
最初の課題に対処するために、DLLENSにはLLMベースのカウンターパート合成ワークフローが組み込まれており、特定のDLライブラリAPIの計算のカウンターパートは、別のDLライブラリからのAPIの特定の組成と適応を通じて正常に合成できるという洞察が組み込まれています。
2番目の課題に対処するために、DLLENSには、特定のAPIとその対応物からパスの制約を抽出して、多様なテスト入力生成を導く静的分析手法を組み込みます。
抽出は、関係するDLライブラリとそのアップストリームライブラリに関するLLMの知識によって促進されます。
TensorflowとPytorchの2つの人気のあるDLライブラリでDLLENを評価します。
私たちの評価は、DLLENがこれらのライブラリの最先端の技術によって見つかったAPIの1.84倍のAPIで対応物を合成することを示しています。
さらに、同時に予算の下で、Dllensは7.23%のブランチをカバーし、200のランダムにサンプリングされたAPIで最先端のテクニックの1.88倍のバグを検出します。
Dllensは、最近のTensorflowおよびPytorchライブラリで71のバグを正常に検出しました。
その中で、59は、以前は未知のバグとして確認された46を含む開発者によって確認されており、これらの以前は未知のバグのうち10はTensorflowとPytorchの最新バージョンで修正されています。

要約(オリジナル)

Differential testing offers a promising strategy to alleviate the test oracle problem by comparing the test results between alternative implementations. However, existing differential testing techniques for deep learning (DL) libraries are limited by the key challenges of finding alternative implementations (called counterparts) for a given API and subsequently generating diverse test inputs. To address the two challenges, this paper introduces DLLens, an LLM-enhanced differential testing technique for DL libraries. To address the first challenge, DLLens incorporates an LLM-based counterpart synthesis workflow, with the insight that the counterpart of a given DL library API’s computation could be successfully synthesized through certain composition and adaptation of the APIs from another DL library. To address the second challenge, DLLens incorporates a static analysis technique that extracts the path constraints from the implementations of a given API and its counterpart to guide diverse test input generation. The extraction is facilitated by LLM’s knowledge of the concerned DL library and its upstream libraries. We evaluate DLLens on two popular DL libraries, TensorFlow and PyTorch. Our evaluation shows that DLLens synthesizes counterparts for 1.84 times as many APIs as those found by state-of-the-art techniques on these libraries. Moreover, under the same time budget, DLLens covers 7.23% more branches and detects 1.88 times as many bugs as state-of-the-art techniques on 200 randomly sampled APIs. DLLens has successfully detected 71 bugs in recent TensorFlow and PyTorch libraries. Among them, 59 are confirmed by developers, including 46 confirmed as previously unknown bugs, and 10 of these previously unknown bugs have been fixed in the latest version of TensorFlow and PyTorch.

arxiv情報

著者 Meiziniu Li,Dongze Li,Jianmeng Liu,Jialun Cao,Yongqiang Tian,Shing-Chi Cheung
発行日 2025-05-08 15:48:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.SE, D.2.5 | Enhancing Differential Testing With LLMs For Testing Deep Learning Libraries はコメントを受け付けていません

PINN-MEP: Continuous Neural Representations for Minimum-Energy Path Discovery in Molecular Systems

要約

物理システムにおける立体構造遷移を特徴付けることは、計算科学の根本的な課題のままです。
分子動力学(MD)やMCMCなどの従来のサンプリング方法は、分子系の高次元的性質と、安定した状態間の移行の高エネルギー障壁と闘うことがよくあります。
これらの遷移はシミュレーションタイムスケールではまれなイベントですが、多くの場合、最も生物学的に重要なプロセスを表しています。たとえば、イオンチャネルタンパク質の閉じたオープン状態からの立体構造変化は、細胞イオンの流れを制御し、神経シグナル伝達に重要です。
実際のシステムでのこのような遷移には、ミリ秒から数秒かかる場合がありますが、1回でも観察するには数か月または数年の継続的なシミュレーションが必要になる場合があります。
トランジションパスの生成を、最小エネルギーパス(MEP)生成のストリングメソッドに触発された物理学に基づいたニューラルネットワーク(PINN)を通じて解決される連続最適化問題として再forulululululululululuryされる方法を提示します。
遷移経路を暗黙の神経関数として表現し、微分可能な分子動力学力場で自動分化を活用することにより、この方法により、高価なパスサンプリングを必要とせずに物理的に現実的な遷移経路を効率的に発見することができます。
8,300を超える原子を備えた明示的に水和されたウシ膵臓トリプシン阻害剤(BPTI)システムを含む、2つのタンパク質に対する方法の有効性を実証します。

要約(オリジナル)

Characterizing conformational transitions in physical systems remains a fundamental challenge in the computational sciences. Traditional sampling methods like molecular dynamics (MD) or MCMC often struggle with the high-dimensional nature of molecular systems and the high energy barriers of transitions between stable states. While these transitions are rare events in simulation timescales, they often represent the most biologically significant processes – for example, the conformational change of an ion channel protein from its closed to open state, which controls cellular ion flow and is crucial for neural signaling. Such transitions in real systems may take milliseconds to seconds but could require months or years of continuous simulation to observe even once. We present a method that reformulates transition path generation as a continuous optimization problem solved through physics-informed neural networks (PINNs) inspired by string methods for minimum-energy path (MEP) generation. By representing transition paths as implicit neural functions and leveraging automatic differentiation with differentiable molecular dynamics force fields, our method enables the efficient discovery of physically realistic transition pathways without requiring expensive path sampling. We demonstrate our method’s effectiveness on two proteins, including an explicitly hydrated bovine pancreatic trypsin inhibitor (BPTI) system with over 8,300 atoms.

arxiv情報

著者 Magnus Petersen,Roberto Covino
発行日 2025-05-08 15:53:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, physics.chem-ph, physics.comp-ph | PINN-MEP: Continuous Neural Representations for Minimum-Energy Path Discovery in Molecular Systems はコメントを受け付けていません

A Pain Assessment Framework based on multimodal data and Deep Machine Learning methods

要約

元の要約から:この論文は、既存の自動アプローチを調査して調べながら、臨床理論的な観点から疼痛評価プロセスを研究することを最初に目的としています。
この基盤の上に構築されたこの博士号の主な目的
プロジェクトは、高性能を達成し、実際の臨床環境に適用できる自動疼痛評価のための革新的な計算方法を開発することです。
主な目標は、疼痛研究で認識されているように、計算の観点を通じて、痛みの知覚に影響を与える人口統計学的要素を含む重要な要素を徹底的に調査および評価することです。
この研究分野で利用可能なデータの制限内で、私たちの目標は、異なるシナリオの特定の要件に適用される単峰性およびマルチモーダル構成の自動疼痛評価パイプラインを設計、開発、提案、および提供することでした。
この博士号に掲載された研究
論文は、提案された方法の有効性を紹介し、最先端の結果を達成しました。
さらに、彼らは人工知能、基礎モデル、生成人工知能の新しいアプローチを探索する道を開いた。

要約(オリジナル)

From the original abstract: This thesis initially aims to study the pain assessment process from a clinical-theoretical perspective while exploring and examining existing automatic approaches. Building on this foundation, the primary objective of this Ph.D. project is to develop innovative computational methods for automatic pain assessment that achieve high performance and are applicable in real clinical settings. A primary goal is to thoroughly investigate and assess significant factors, including demographic elements that impact pain perception, as recognized in pain research, through a computational standpoint. Within the limits of the available data in this research area, our goal was to design, develop, propose, and offer automatic pain assessment pipelines for unimodal and multimodal configurations that are applicable to the specific requirements of different scenarios. The studies published in this Ph.D. thesis showcased the effectiveness of the proposed methods, achieving state-of-the-art results. Additionally, they paved the way for exploring new approaches in artificial intelligence, foundation models, and generative artificial intelligence.

arxiv情報

著者 Stefanos Gkikas
発行日 2025-05-08 16:32:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.HC, cs.LG | A Pain Assessment Framework based on multimodal data and Deep Machine Learning methods はコメントを受け付けていません

DEGAP: Dual Event-Guided Adaptive Prefixes for Templated-Based Event Argument Extraction with Slot Querying

要約

イベント議論抽出(EAE)の最近の進歩には、トレーニングやイベントテンプレートなどのトレーニングや推論中に有用な補助情報をモデルに組み込むことが含まれます。
これらの方法は、2つの課題に直面しています。(1)検索結果は無関係である可能性があり、(2)テンプレートは、可能性のある関係を考慮せずに各イベントで独立して開発されます。
この作業では、シンプルで効果的なコンポーネントを介してこれらの課題に対処するためにDEGAPを提案します:デュアルプレフィックス、つまり、インスタンス指向のプレフィックスとテンプレート指向のプレフィックスが、さまざまなイベントインスタンスとテンプレートから情報を学習するようにトレーニングされます。
さらに、イベントガイド付きの適応ゲーティングメカニズムを提案します。これにより、異なるイベント間の可能な接続を適応的に活用して、プレフィックスから関連情報をキャプチャできます。
最後に、これらのイベントガイド付きプレフィックスは、検索なしでEAEモデルへのキューとして関連する情報を提供します。
広範な実験は、この方法が4つのデータセット(ACE05、Rams、Wikivents、およびMlee)で新しい最先端のパフォーマンスを達成することを示しています。
さらなる分析により、さまざまなコンポーネントの影響が示されています。

要約(オリジナル)

Recent advancements in event argument extraction (EAE) involve incorporating useful auxiliary information into models during training and inference, such as retrieved instances and event templates. These methods face two challenges: (1) the retrieval results may be irrelevant and (2) templates are developed independently for each event without considering their possible relationship. In this work, we propose DEGAP to address these challenges through a simple yet effective components: dual prefixes, i.e. learnable prompt vectors, where the instance-oriented prefix and template-oriented prefix are trained to learn information from different event instances and templates. Additionally, we propose an event-guided adaptive gating mechanism, which can adaptively leverage possible connections between different events and thus capture relevant information from the prefix. Finally, these event-guided prefixes provide relevant information as cues to EAE model without retrieval. Extensive experiments demonstrate that our method achieves new state-of-the-art performance on four datasets (ACE05, RAMS, WIKIEVENTS, and MLEE). Further analysis shows the impact of different components.

arxiv情報

著者 Guanghui Wang,Dexi Liu,Jian-Yun Nie,Qizhi Wan,Rong Hu,Xiping Liu,Wanlong Liu,Jiaming Liu
発行日 2025-05-08 16:33:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.IR | DEGAP: Dual Event-Guided Adaptive Prefixes for Templated-Based Event Argument Extraction with Slot Querying はコメントを受け付けていません

Novel Deep Neural OFDM Receiver Architectures for LLR Estimation

要約

ニューラルレシーバーは最近、人気のあるトピックになりました。このトピックでは、受信した信号は、機械学習やディープラーニングなどのデータ駆動型メカニズムによって直接解読できます。
このホワイトペーパーでは、チャネルの推定と均等化タスクを実行し、相の対応相(IQ)シグナルからの対数尤度比(LLR)を直接予測する2つの新しいニューラルネットワークベースの直交周波数分割(OFDM)レシーバーを提案します。
最初のネットワークであるデュアルアテンショントランス(DAT)は、注意メカニズムを備えた最先端のアート(SOTA)変圧器アーキテクチャを採用しています。
2番目のネットワークである残差デュアル非ローカル注意ネットワーク(RDNLA)は、ローカルな注意ブロックを持つ並列残留アーキテクチャを利用しています。
さまざまなSOTAニューラルレシーバーアーキテクチャのビットエラー率(BER)およびブロックエラー率(BLER)パフォーマンスは、異なる信号対ノイズ比(SNR)レベルで提案された方法と比較されます。
シミュレーション結果は、DATとRDNLAが従来の通信システムと既存のニューラル受信機モデルの両方を上回ることを示しています。

要約(オリジナル)

Neural receivers have recently become a popular topic, where the received signals can be directly decoded by data driven mechanisms such as machine learning and deep learning. In this paper, we propose two novel neural network based orthogonal frequency division multiplexing (OFDM) receivers performing channel estimation and equalization tasks and directly predicting log likelihood ratios (LLRs) from the received in phase and quadrature phase (IQ) signals. The first network, the Dual Attention Transformer (DAT), employs a state of the art (SOTA) transformer architecture with an attention mechanism. The second network, the Residual Dual Non Local Attention Network (RDNLA), utilizes a parallel residual architecture with a non local attention block. The bit error rate (BER) and block error rate (BLER) performance of various SOTA neural receiver architectures is compared with our proposed methods across different signal to noise ratio (SNR) levels. The simulation results show that DAT and RDNLA outperform both traditional communication systems and existing neural receiver models.

arxiv情報

著者 Erhan Karakoca,Hüseyin Çevik,İbrahim Hökelek,Ali Görçin
発行日 2025-05-08 16:41:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, eess.SP | Novel Deep Neural OFDM Receiver Architectures for LLR Estimation はコメントを受け付けていません

CART-ELC: Oblique Decision Tree Induction via Exhaustive Search

要約

斜めの決定木は、従来の軸に並べられた決定木よりも分類性能が改善される可能性のために注目を集めています。
ただし、斜めの分割を見つけるために徹底的な検索に依存する方法は、計算上の課題に直面しています。
その結果、それらは広く探求されていません。
制限されたハイパープレーンのセットで徹底的な検索を実行する斜めの決定ツリーを誘導するために、新しいアルゴリズム、分類および回帰ツリー – 網羅的な線形結合(CART -ELC)を紹介します。
次に、アルゴリズムの計算の複雑さとその予測機能を調査します。
我々の結果は、CART-ELCが小さなデータセットで一貫して競争力のあるパフォーマンスを達成し、しばしば既存の決定ツリー誘導アルゴリズムと比較して分類精度の統計的に有意な改善をもたらし、しばしばより浅く、よりシンプルで、したがってより解釈可能な木を生成することを示しています。

要約(オリジナル)

Oblique decision trees have attracted attention due to their potential for improved classification performance over traditional axis-aligned decision trees. However, methods that rely on exhaustive search to find oblique splits face computational challenges. As a result, they have not been widely explored. We introduce a novel algorithm, Classification and Regression Tree – Exhaustive Linear Combinations (CART-ELC), for inducing oblique decision trees that performs an exhaustive search on a restricted set of hyperplanes. We then investigate the algorithm’s computational complexity and its predictive capabilities. Our results demonstrate that CART-ELC consistently achieves competitive performance on small datasets, often yielding statistically significant improvements in classification accuracy relative to existing decision tree induction algorithms, while frequently producing shallower, simpler, and thus more interpretable trees.

arxiv情報

著者 Andrew D. Laack
発行日 2025-05-08 16:42:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.DS, cs.LG, F.2.2 | CART-ELC: Oblique Decision Tree Induction via Exhaustive Search はコメントを受け付けていません