Semi-supervised Node Importance Estimation with Informative Distribution Modeling for Uncertainty Regularization

要約

ネットワーク分析の古典的な問題であるノードの重要性推定は、さまざまなWebアプリケーションを支えています。
以前の方法は、ノード機能の強化のために、グラフの中心性など、グラフの中心性など、追加情報、たとえばデータの不均一性を活用するかのいずれかです。
ただし、これらの方法は、監視された学習設定に従い、基本的な真実のノードの重要性データが実際に部分的にラベル付けされているという事実を見落としています。
この作業では、不均一なグラフの非標識データの学習品質を改善するために、最初の半監視ノードの重要性推定フレームワークを提案します。
以前のアプローチとは異なり、モデルの予測の信頼を反映するために、不確実性を明示的にキャプチャします。
重要性の価値と不確実性を共同で推定するために、Easingには、深いエンコーダーデコーダーニューラルアーキテクチャであるDJEが組み込まれています。
DJEは、分布表現が重要性と不確実性の推定値の両方を導き出すグラフノードの分布モデリングを導入します。
さらに、DJEは、トレーニングサンプルを豊かにするために、非標識データの効果的な擬似ラベル生成を促進します。
ラベル付きおよび擬似標識データに基づいて、Easingは、さまざまなノードの不確実性の正則化を伴う効果的な半監視ヘテロ脱脱切り留学学習を開発します。
3つの実際のデータセットでの広範な実験は、競合する方法と比較して、緩和の優れた性能を強調しています。
コードはhttps://github.com/yankai-chen/easingから入手できます。

要約(オリジナル)

Node importance estimation, a classical problem in network analysis, underpins various web applications. Previous methods either exploit intrinsic topological characteristics, e.g., graph centrality, or leverage additional information, e.g., data heterogeneity, for node feature enhancement. However, these methods follow the supervised learning setting, overlooking the fact that ground-truth node-importance data are usually partially labeled in practice. In this work, we propose the first semi-supervised node importance estimation framework, i.e., EASING, to improve learning quality for unlabeled data in heterogeneous graphs. Different from previous approaches, EASING explicitly captures uncertainty to reflect the confidence of model predictions. To jointly estimate the importance values and uncertainties, EASING incorporates DJE, a deep encoder-decoder neural architecture. DJE introduces distribution modeling for graph nodes, where the distribution representations derive both importance and uncertainty estimates. Additionally, DJE facilitates effective pseudo-label generation for the unlabeled data to enrich the training samples. Based on labeled and pseudo-labeled data, EASING develops effective semi-supervised heteroscedastic learning with varying node uncertainty regularization. Extensive experiments on three real-world datasets highlight the superior performance of EASING compared to competing methods. Codes are available via https://github.com/yankai-chen/EASING.

arxiv情報

著者 Yankai Chen,Taotao Wang,Yixiang Fang,Yunyu Xiao
発行日 2025-05-12 15:48:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Semi-supervised Node Importance Estimation with Informative Distribution Modeling for Uncertainty Regularization はコメントを受け付けていません

Heterogeneous Data Game: Characterizing the Model Competition Across Multiple Data Sources

要約

複数のソースにわたるデータの不均一性は、実際の機械学習(ML)設定で一般的です。
多くの方法は、単一のモデルが多様なデータを処理できるようにすることに焦点を当てていますが、実際の市場は複数の競合するMLプロバイダーで構成されていることがよくあります。
このホワイトペーパーでは、このようなプロバイダーが異種のデータソースを介してどのように競合するかを分析するために、ゲーム理論的フレームワーク(不均一データゲーム)を提案します。
結果として得られる純粋なナッシュ平衡(PNE)を調査し、それらが存在しない、均質であることを示しています(すべてのプロバイダーが同じモデルに収束します)、または不均一(プロバイダーは異なるデータソースに特化しています)。
私たちの分析は、独占的、デュオポリスティック、およびより一般的な市場に及び、データソースの選択モデルの「温度」や特定のデータソースの優位性などの要因が平衡結果を形成する方法を示しています。
競争力のあるML市場向けの規制政策と実用的な戦略を導く均質および不​​均一なPNESの両方に対する理論的洞察を提供します。

要約(オリジナル)

Data heterogeneity across multiple sources is common in real-world machine learning (ML) settings. Although many methods focus on enabling a single model to handle diverse data, real-world markets often comprise multiple competing ML providers. In this paper, we propose a game-theoretic framework — the Heterogeneous Data Game — to analyze how such providers compete across heterogeneous data sources. We investigate the resulting pure Nash equilibria (PNE), showing that they can be non-existent, homogeneous (all providers converge on the same model), or heterogeneous (providers specialize in distinct data sources). Our analysis spans monopolistic, duopolistic, and more general markets, illustrating how factors such as the ‘temperature’ of data-source choice models and the dominance of certain data sources shape equilibrium outcomes. We offer theoretical insights into both homogeneous and heterogeneous PNEs, guiding regulatory policies and practical strategies for competitive ML marketplaces.

arxiv情報

著者 Renzhe Xu,Kang Wang,Bo Li
発行日 2025-05-12 15:51:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.GT, cs.LG | Heterogeneous Data Game: Characterizing the Model Competition Across Multiple Data Sources はコメントを受け付けていません

4TaStiC: Time and trend traveling time series clustering for classifying long-term type 2 diabetes patients

要約

糖尿病は、世界で最も一般的な疾患の1つであり、さまざまな内臓やシステムを損傷することができる持続的に高血糖レベルを特徴としています。
糖尿病患者は日常的な検査を必要とし、その結果、ヘモグロビンA1Cなどの一連の実験室記録が生じ、各患者の健康行動を経時的に反映し、医師の推奨事項を通知します。
時系列全体に基づいて患者をグループにクラスタリングすると、すべての記録を確認する必要なく、医師が推奨を行い、治療を選択するのに役立ちます。
ただし、このタイプのデータセットの時系列クラスタリングにより、いくつかの課題が導入されます。
患者はさまざまな時点で医師を訪問し、トレンド、ピーク、パターンをキャプチャして一致させることを困難にします。
さらに、2つの側面を考慮する必要があります。実験室の結果のレベルの違いと、傾向とパターンの違い。
これらの課題に対処するために、ユークリッドおよびピアソン相関メトリックと組み合わせたベースの非類似度測定を使用して、時間とトレンドの移動時系列クラスタリング(4tastic)と呼ばれる新しいクラスタリングアルゴリズムを導入します。
このアルゴリズムを人工データセットで評価し、そのパフォーマンスを7つの既存の方法のパフォーマンスと比較しました。
結果は、4tasticがターゲットデータセットの他のメソッドを上回ったことを示しています。
最後に、Siriraj病院で1,989型糖尿病患者のコホートをクラスター化するために4Tasticを適用しました。
患者の各グループは、効率的な臨床決定を行う際に医師に利益をもたらす明確な特性を示します。
さらに、提案されたアルゴリズムは、医療分野の外側のコンテキストに適用できます。

要約(オリジナル)

Diabetes is one of the most prevalent diseases worldwide, characterized by persistently high blood sugar levels, capable of damaging various internal organs and systems. Diabetes patients require routine check-ups, resulting in a time series of laboratory records, such as hemoglobin A1c, which reflects each patient’s health behavior over time and informs their doctor’s recommendations. Clustering patients into groups based on their entire time series data assists doctors in making recommendations and choosing treatments without the need to review all records. However, time series clustering of this type of dataset introduces some challenges; patients visit their doctors at different time points, making it difficult to capture and match trends, peaks, and patterns. Additionally, two aspects must be considered: differences in the levels of laboratory results and differences in trends and patterns. To address these challenges, we introduce a new clustering algorithm called Time and Trend Traveling Time Series Clustering (4TaStiC), using a base dissimilarity measure combined with Euclidean and Pearson correlation metrics. We evaluated this algorithm on artificial datasets, comparing its performance with that of seven existing methods. The results show that 4TaStiC outperformed the other methods on the targeted datasets. Finally, we applied 4TaStiC to cluster a cohort of 1,989 type 2 diabetes patients at Siriraj Hospital. Each group of patients exhibits clear characteristics that will benefit doctors in making efficient clinical decisions. Furthermore, the proposed algorithm can be applied to contexts outside the medical field.

arxiv情報

著者 Onthada Preedasawakul,Nathakhun Wiroonsri
発行日 2025-05-12 16:10:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: (Primary), 92C50, cs.CY, cs.LG | 4TaStiC: Time and trend traveling time series clustering for classifying long-term type 2 diabetes patients はコメントを受け付けていません

ISAC: An Invertible and Stable Auditory Filter Bank with Customizable Kernels for ML Integration

要約

このペーパーでは、機械学習のパラダイムに統合されるように特別に設計された、反転性で安定した知覚的に動機付けられたフィルターバンクであるISACを紹介します。
より正確には、フィルターの中心周波数と帯域幅は、非線形の聴覚周波数スケールに従うように選択され、フィルターカーネルはユーザー定義の最大時間的サポートを持ち、学習可能な畳み込みカーネルとして機能し、両方が完全な再構成ペアを形成する対応するフィルターバンクが存在する可能性があります。
ISACは、分析合成スキームを含むあらゆるアプリケーションに適した強力でユーザーフレンドリーなオーディオフロントエンドを提供します。

要約(オリジナル)

This paper introduces ISAC, an invertible and stable, perceptually-motivated filter bank that is specifically designed to be integrated into machine learning paradigms. More precisely, the center frequencies and bandwidths of the filters are chosen to follow a non-linear, auditory frequency scale, the filter kernels have user-defined maximum temporal support and may serve as learnable convolutional kernels, and there exists a corresponding filter bank such that both form a perfect reconstruction pair. ISAC provides a powerful and user-friendly audio front-end suitable for any application, including analysis-synthesis schemes.

arxiv情報

著者 Daniel Haider,Felix Perfler,Peter Balazs,Clara Hollomey,Nicki Holighaus
発行日 2025-05-12 16:15:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.SD | ISAC: An Invertible and Stable Auditory Filter Bank with Customizable Kernels for ML Integration はコメントを受け付けていません

SmartUT: Receive Beamforming for Spectral Coexistence of NGSO Satellite Systems

要約

このホワイトペーパーでは、非地理化衛星軌道(NGSOS)共存システムにおけるダウンリンクの共頻度干渉(CFI)緩和を調査します。
ゼロフォーシング(ZF)などの従来の緩和技術は、干渉信号の到着方向(DOA)の方向に向かってヌルを生成しますが、マトリックスの反転とチャネル状態情報(CSI)の必要な知識のために高い計算の複雑さに苦しんでいます。
さらに、サンプルマトリックスの反転(SMI)ベースの最小分散などの適応ビームフォーマーは、利用可能なスナップショットが制限されている場合、パフォーマンスが低下します。
監視されていないディープラーニング(DL)アプローチを活用し、ユーザー端末(UT)アンテナアレイに展開できるMambaベースのビームフォーマー(Mambabf)を提案します。
シミュレーション結果は、Mambabfが干渉を緩和し、特に低SINR、限られたスナップショット、および不完全CSIを特徴とする困難な条件の下で、信号対interferenceとnoise比(SINR)を最大化する際に、従来のビームフォーミング技術を常に上回ることを示しています。

要約(オリジナル)

In this paper, we investigate downlink co-frequency interference (CFI) mitigation in non-geostationary satellites orbits (NGSOs) co-existing systems. Traditional mitigation techniques, such as Zero-forcing (ZF), produce a null towards the direction of arrivals (DOAs) of the interfering signals, but they suffer from high computational complexity due to matrix inversions and required knowledge of the channel state information (CSI). Furthermore, adaptive beamformers, such as sample matrix inversion (SMI)-based minimum variance, provide poor performance when the available snapshots are limited. We propose a Mamba-based beamformer (MambaBF) that leverages an unsupervised deep learning (DL) approach and can be deployed on the user terminal (UT) antenna array, for assisting downlink beamforming and CFI mitigation using only a limited number of available array snapshots as input, and without CSI knowledge. Simulation results demonstrate that MambaBF consistently outperforms conventional beamforming techniques in mitigating interference and maximizing the signal-to-interference-plus-noise ratio (SINR), particularly under challenging conditions characterized by low SINR, limited snapshots, and imperfect CSI.

arxiv情報

著者 Almoatssimbillah Saifaldawla,Eva Lagunas,Flor Ortiz,Abuzar B. M. Adam,Symeon Chatzinotas
発行日 2025-05-12 16:19:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.ET, cs.LG, eess.SP | SmartUT: Receive Beamforming for Spectral Coexistence of NGSO Satellite Systems はコメントを受け付けていません

Training neural control variates using correlated configurations

要約

ニューラルコントロールバリエート(NCV)は、特に従来の制御バリエートが分析的に構築するのが困難な高次元の問題で、モンテカルロ(MC)シミュレーションの分散削減のための強力なツールとして浮上しています。
観察可能なターゲットと相関する補助機能を学ぶためにニューラルネットワークをトレーニングすることにより、NCVは不偏を維持しながら推定器の分散を大幅に減らすことができます。
ただし、NCVトレーニングの重要であるが見落とされがちな側面は、Markov Chain Monte Carlo(MCMC)によって生成された自己相関サンプルの役割です。
そのようなサンプルは通常、統計的冗長性のためにエラー推定のために破棄されますが、トレーニングプロセスに利益をもたらす可能性のある基礎となる確率分布の構造に関する有用な情報が含まれている場合があります。
この作業では、ニューラル制御のバリエートをトレーニングする際に相関した構成を使用する効果を体系的に調べます。
概念的および数値的に、相関データのトレーニングにより、特に限られた計算リソースを持つ設定で制御の変化パフォーマンスが向上することを実証します。
分析には、$ U(1)$ゲージ理論とスカラーフィールド理論の経験的結果が含まれており、自己相関サンプルがNCV構造をいつ、どのように促進するかを示しています。
これらの調査結果は、ニューラルネットワークのトレーニングにおけるMCMCデータを効率的に使用するための実用的なガイダンスを提供します。

要約(オリジナル)

Neural control variates (NCVs) have emerged as a powerful tool for variance reduction in Monte Carlo (MC) simulations, particularly in high-dimensional problems where traditional control variates are difficult to construct analytically. By training neural networks to learn auxiliary functions correlated with the target observable, NCVs can significantly reduce estimator variance while preserving unbiasedness. However, a critical but often overlooked aspect of NCV training is the role of autocorrelated samples generated by Markov Chain Monte Carlo (MCMC). While such samples are typically discarded for error estimation due to their statistical redundancy, they may contain useful information about the structure of the underlying probability distribution that can benefit the training process. In this work, we systematically examine the effect of using correlated configurations in training neural control variates. We demonstrate, both conceptually and numerically, that training on correlated data can improve control variate performance, especially in settings with limited computational resources. Our analysis includes empirical results from $U(1)$ gauge theory and scalar field theory, illustrating when and how autocorrelated samples enhance NCV construction. These findings provide practical guidance for the efficient use of MCMC data in training neural networks.

arxiv情報

著者 Hyunwoo Oh
発行日 2025-05-12 16:25:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, hep-lat, nucl-th | Training neural control variates using correlated configurations はコメントを受け付けていません

Assessing the Chemical Intelligence of Large Language Models

要約

大規模な言語モデルは、幅広いアプリケーションを備えた汎用性の高い汎用ツールです。
最近、「推論モデル」の出現により、数学やソフトウェアエンジニアリングなどの高度な問題解決ドメインの能力が大幅に改善されました。
この作業では、外部ツールからの支援なしに、化学タスクを直接実行する推論モデルの能力を評価しました。
Chemiqと呼ばれる新しいベンチマークを作成しました。これは、分子の理解と化学的推論に焦点を当てた有機化学のコア概念を評価する796の質問で構成されています。
主に複数選択形式を使用する以前のベンチマークとは異なり、当社のアプローチでは、モデルが短い回答応答を構築するために、より密接に反映された実際のアプリケーションを必要とします。
OpenaiのO3-Miniに例示された推論モデルは、使用される推論レベルに応じて質問の28%-59%に正しく答え、すべてのタスクのパフォーマンスが大幅に増加します。
これらのモデルは、非合理モデルであるGPT-4Oを大幅に上回り、7%の精度しか達成しませんでした。
大規模な言語モデルは、笑顔の文字列をiUPAC名に変換できるようになりました。これは、以前のモデルが実行できなかったタスクです。
さらに、最新の推論モデルでは、1Hおよび13C NMRデータから構造を解明し、最大10個の重原子を含む分子の74%のスマイルストリングを正しく生成し、1つのケースで21の重原子を含む構造を解くことができることを示しています。
各タスクについて、推論プロセスが人間の化学者のプロセスを反映しているという証拠を見つけました。
私たちの結果は、最新の推論モデルが高度な化学的推論を実行する能力を持っていることを示しています。

要約(オリジナル)

Large Language Models are versatile, general-purpose tools with a wide range of applications. Recently, the advent of ‘reasoning models’ has led to substantial improvements in their abilities in advanced problem-solving domains such as mathematics and software engineering. In this work, we assessed the ability of reasoning models to directly perform chemistry tasks, without any assistance from external tools. We created a novel benchmark, called ChemIQ, which consists of 796 questions assessing core concepts in organic chemistry, focused on molecular comprehension and chemical reasoning. Unlike previous benchmarks, which primarily use multiple choice formats, our approach requires models to construct short-answer responses, more closely reflecting real-world applications. The reasoning models, exemplified by OpenAI’s o3-mini, correctly answered 28%-59% of questions depending on the reasoning level used, with higher reasoning levels significantly increasing performance on all tasks. These models substantially outperformed the non-reasoning model, GPT-4o, which achieved only 7% accuracy. We found that Large Language Models can now convert SMILES strings to IUPAC names, a task earlier models were unable to perform. Additionally, we show that the latest reasoning models can elucidate structures from 1H and 13C NMR data, correctly generating SMILES strings for 74% of molecules containing up to 10 heavy atoms, and in one case solving a structure comprising 21 heavy atoms. For each task, we found evidence that the reasoning process mirrors that of a human chemist. Our results demonstrate that the latest reasoning models have the ability to perform advanced chemical reasoning.

arxiv情報

著者 Nicholas T. Runcie,Charlotte M. Deane,Fergus Imrie
発行日 2025-05-12 16:44:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Assessing the Chemical Intelligence of Large Language Models はコメントを受け付けていません

The Pitfalls of Benchmarking in Algorithm Selection: What We Are Getting Wrong

要約

特定の問題に最適なアルゴリズムを特定することを目的としたアルゴリズムの選択は、継続的なブラックボックスの最適化において極めて重要な役割を果たします。
一般的なアプローチには、一連の機能を使用して最適化関数を表すことが含まれます。これは、適切なアルゴリズムを選択するための機械学習メタモデルをトレーニングするために使用されます。
さまざまなアプローチにより、これらのアルゴリズム選択メタモデルの有効性が実証されています。
ただし、すべての評価アプローチがメタモデルのパフォーマンスを評価するために等しく有効であるわけではありません。
コミュニティで頻繁に発生する方法論的な問題を強調し、アルゴリズムの選択アプローチを評価するときに対処する必要があります。
まず、「休暇中に」評価手法で欠陥を特定します。
非情報機能とメタモデルが高精度を達成できることを示しますが、これは、適切に設計された評価フレームワークに当てはまるべきではありません。
第二に、目的関数のスケールに敏感なメトリックを使用した最適化アルゴリズムのパフォーマンスを測定するには、これがメタモデルの構築、その予測、およびモデルのエラーにどのように影響するかを慎重に検討する必要があることを実証します。
このようなメトリックは、メタモデルの過度に楽観的なパフォーマンス評価を誤って提示することができます。
この論文は、緩やかに定義された方法論が研究者を誤解させ、努力をそらすことができ、騒音を導入することができるため、慎重な評価の重要性を強調しています。

要約(オリジナル)

Algorithm selection, aiming to identify the best algorithm for a given problem, plays a pivotal role in continuous black-box optimization. A common approach involves representing optimization functions using a set of features, which are then used to train a machine learning meta-model for selecting suitable algorithms. Various approaches have demonstrated the effectiveness of these algorithm selection meta-models. However, not all evaluation approaches are equally valid for assessing the performance of meta-models. We highlight methodological issues that frequently occur in the community and should be addressed when evaluating algorithm selection approaches. First, we identify flaws with the ‘leave-instance-out’ evaluation technique. We show that non-informative features and meta-models can achieve high accuracy, which should not be the case with a well-designed evaluation framework. Second, we demonstrate that measuring the performance of optimization algorithms with metrics sensitive to the scale of the objective function requires careful consideration of how this impacts the construction of the meta-model, its predictions, and the model’s error. Such metrics can falsely present overly optimistic performance assessments of the meta-models. This paper emphasizes the importance of careful evaluation, as loosely defined methodologies can mislead researchers, divert efforts, and introduce noise into the field

arxiv情報

著者 Gašper Petelin,Gjorgjina Cenikj
発行日 2025-05-12 16:57:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | The Pitfalls of Benchmarking in Algorithm Selection: What We Are Getting Wrong はコメントを受け付けていません

Solving Nonlinear PDEs with Sparse Radial Basis Function Networks

要約

スパースラジアル基底関数(RBF)ネットワークを使用して、非線形PDEを解くための新しいフレームワークを提案します。
スパース促進の正則化が採用され、過剰パラメーター化を防ぎ、冗長機能を減らします。
この作業は、物理学に基づいたニューラルネットワーク(PINNS)とガウスプロセス(GP)の制限とともに、従来のRBFコロケーション方法における長年の課題に動機付けられ、統一されたフレームワークにそれぞれの強みを融合することを目指しています。
私たちのアプローチの理論的基盤は、おそらく無限の幅の1つの層層ニューラルネットワークによって誘発されるカーネルバナッハ空間(RKB)を再現する関数空間にあります。
RKBSのまばらな最適化問題の解決策が有限のソリューションを認め、古典的な数値分析を一般化するための基盤を提供するエラー境界を確立することを示す代表者定理を証明します。
アルゴリズムフレームワークは、適応的な特徴選択、2次最適化、および非アクティブニューロンの剪定を通じて計算効率を維持するための3相アルゴリズムに基づいています。
数値実験は、私たちの方法の有効性を示し、GPアプローチよりも顕著な利点を提供するケースを強調します。
この作業は、効率的で学習に触発された実装を伴う厳格な分析に基づいた適応型PDEソルバーの新しい方向性を開きます。

要約(オリジナル)

We propose a novel framework for solving nonlinear PDEs using sparse radial basis function (RBF) networks. Sparsity-promoting regularization is employed to prevent over-parameterization and reduce redundant features. This work is motivated by longstanding challenges in traditional RBF collocation methods, along with the limitations of physics-informed neural networks (PINNs) and Gaussian process (GP) approaches, aiming to blend their respective strengths in a unified framework. The theoretical foundation of our approach lies in the function space of Reproducing Kernel Banach Spaces (RKBS) induced by one-hidden-layer neural networks of possibly infinite width. We prove a representer theorem showing that the solution to the sparse optimization problem in the RKBS admits a finite solution and establishes error bounds that offer a foundation for generalizing classical numerical analysis. The algorithmic framework is based on a three-phase algorithm to maintain computational efficiency through adaptive feature selection, second-order optimization, and pruning of inactive neurons. Numerical experiments demonstrate the effectiveness of our method and highlight cases where it offers notable advantages over GP approaches. This work opens new directions for adaptive PDE solvers grounded in rigorous analysis with efficient, learning-inspired implementation.

arxiv情報

著者 Zihan Shao,Konstantin Pieper,Xiaochuan Tian
発行日 2025-05-12 17:12:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.NA, math.NA | Solving Nonlinear PDEs with Sparse Radial Basis Function Networks はコメントを受け付けていません

Tagging fully hadronic exotic decays of the vectorlike $\mathbf{B}$ quark using a graph neural network

要約

[J.
Bardhan et al。、機械学習強化されたシングレットスカラーまたはPseudoscalarに崩壊するベクターのような一重項Bの検索、Phys。
Rev. D 107(2023)115001;
arxiv:2212.02442]、ペア生産されたベクターのような$ b $ quarksのLHCの見通しを、新しいゲージシングル(擬似)スカラーフィールド$ \ phi $および$ b $ quarkにエキゾチックに腐敗することを調査します。
ElectroWeakの対称性が破壊された後、$ \ Phi $は主に$ GG/BB $の最終状態に減少し、完全にハドロニック$ 2B+4J $または$ 6B $ $の署名になります。
標準モデルの背景が大きく、レプトンのハンドルがないため、プローブが難しいチャネルです。
課題を克服するために、グラフニューラルネットワークを含むハイブリッドディープラーニングモデルを使用して、深いニューラルネットワークが続きます。
このような最先端のディープラーニング分析パイプラインは、セミレプトニックモードでそれに匹敵するパフォーマンスにつながる可能性があると推定し、発見(除外)を$ M_B = 1.8 \ 🙁 2.4)$ 〜tevに達すると、$ b $が完全にエクソティ的に減少すると、br $(b \ to = 100 \)

要約(オリジナル)

Following up on our earlier study in [J. Bardhan et al., Machine learning-enhanced search for a vectorlike singlet B quark decaying to a singlet scalar or pseudoscalar, Phys. Rev. D 107 (2023) 115001; arXiv:2212.02442], we investigate the LHC prospects of pair-produced vectorlike $B$ quarks decaying exotically to a new gauge-singlet (pseudo)scalar field $\Phi$ and a $b$ quark. After the electroweak symmetry breaking, the $\Phi$ decays predominantly to $gg/bb$ final states, leading to a fully hadronic $2b+4j$ or $6b$ signature. Because of the large Standard Model background and the lack of leptonic handles, it is a difficult channel to probe. To overcome the challenge, we employ a hybrid deep learning model containing a graph neural network followed by a deep neural network. We estimate that such a state-of-the-art deep learning analysis pipeline can lead to a performance comparable to that in the semi-leptonic mode, taking the discovery (exclusion) reach up to about $M_B=1.8\:(2.4)$~TeV at HL-LHC when $B$ decays fully exotically, i.e., BR$(B \to b\Phi) = 100\%$.

arxiv情報

著者 Jai Bardhan,Tanumoy Mandal,Subhadip Mitra,Cyrin Neeraj,Mihir Rawat
発行日 2025-05-12 17:20:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, hep-ex, hep-ph | Tagging fully hadronic exotic decays of the vectorlike $\mathbf{B}$ quark using a graph neural network はコメントを受け付けていません