Antithetic Noise in Diffusion Models

要約

拡散モデルにおけるアンチテーテス初期ノイズの体系的な研究を開始します。
多様なデータセット、テキスト条件付けされた潜在的拡散モデル、拡散ポストサンプラーで訓練された無条件モデルを横切ると、各初期ノイズと否定を組み合わせると、一貫して強く負の相関のサンプルが得られることがわかります。
この現象を説明するために、実験と理論分析を組み合わせて、学習したスコア関数はほぼアフィン抗対称(一定のシフトまでの奇妙な対称性)であるという対称性の推測につながり、それを支持する証拠を提供します。
この負の相関を活用すると、2つのアプリケーションが有効になります。(1)質の損失のない安定した拡散などのモデルの画像の多様性の向上、および(2)ダウンストリーム統計を推定する際の不確実性の定量化(たとえば、最大90%の信頼区間)を削る。
これらの利益に基づいて、2点ペアリングをランダム化された準モンテカルロ推定器に拡張し、推定精度をさらに向上させます。
私たちのフレームワークは、トレーニングフリーでモデルに依存しないものであり、ランタイムオーバーヘッドは追加されません。

要約(オリジナル)

We initiate a systematic study of antithetic initial noise in diffusion models. Across unconditional models trained on diverse datasets, text-conditioned latent-diffusion models, and diffusion-posterior samplers, we find that pairing each initial noise with its negation consistently yields strongly negatively correlated samples. To explain this phenomenon, we combine experiments and theoretical analysis, leading to a symmetry conjecture that the learned score function is approximately affine antisymmetric (odd symmetry up to a constant shift), and provide evidence supporting it. Leveraging this negative correlation, we enable two applications: (1) enhancing image diversity in models like Stable Diffusion without quality loss, and (2) sharpening uncertainty quantification (e.g., up to 90% narrower confidence intervals) when estimating downstream statistics. Building on these gains, we extend the two-point pairing to a randomized quasi-Monte Carlo estimator, which further improves estimation accuracy. Our framework is training-free, model-agnostic, and adds no runtime overhead.

arxiv情報

著者 Jing Jia,Sifan Liu,Bowen Song,Wei Yuan,Liyue Shen,Guanyang Wang
発行日 2025-06-06 15:46:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.NA, math.NA, stat.CO, stat.ML | Antithetic Noise in Diffusion Models はコメントを受け付けていません

Physics-Informed Neural Networks for Control of Single-Phase Flow Systems Governed by Partial Differential Equations

要約

部分微分方程式(PDE)によって支配された単相流システムのモデリングと制御は、特に一時的な条件下での課題を提示します。
この作業では、当初、ラベル付きデータを必要とせずに通常の微分方程式(ODE)のモデリングと制御をPDEの場合、特に単一フェーズの非圧縮性および圧縮性流量に、物理的保全法則を統合することなく、制御(PINC)フレームワークの物理情報に基づいたニューラルネットを拡張します。
PDESのPINCモデルは、2つの段階に構成されています。定常状態ネットワークは、広範囲の制御入力の平衡ソリューションを学習し、時間変化の境界条件下で動的な応答をキャプチャする過渡ネットワークです。
初期条件に関する空間座標の次元を減らし、PINCネットワークの効率的なトレーニングを可能にする単純化された仮定を提案します。
この簡素化により、モデル予測制御(MPC)を使用して最適な制御ポリシーの導出が可能になります。
数値実験を通じてアプローチを検証し、物理法則のみを使用して訓練されているPINCモデル、つまりラベル付きデータなしでフローダイナミクスを正確に表し、リアルタイム制御アプリケーションを有効にすることを実証します。
結果は、反復ソルバーを必要とせずにPDEソリューションを効率的に近似するPINCの機能を強調しているため、エンジニアリングアプリケーションの流体の流れの監視と最適化のための有望な代替手段となっています。

要約(オリジナル)

The modeling and control of single-phase flow systems governed by Partial Differential Equations (PDEs) present challenges, especially under transient conditions. In this work, we extend the Physics-Informed Neural Nets for Control (PINC) framework, originally proposed to modeling and control of Ordinary Differential Equations (ODE) without the need of any labeled data, to the PDE case, particularly to single-phase incompressible and compressible flows, integrating neural networks with physical conservation laws. The PINC model for PDEs is structured into two stages: a steady-state network, which learns equilibrium solutions for a wide range of control inputs, and a transient network, which captures dynamic responses under time-varying boundary conditions. We propose a simplifying assumption that reduces the dimensionality of the spatial coordinate regarding the initial condition, allowing the efficient training of the PINC network. This simplification enables the derivation of optimal control policies using Model Predictive Control (MPC). We validate our approach through numerical experiments, demonstrating that the PINC model, which is trained exclusively using physical laws, i.e., without labeled data, accurately represents flow dynamics and enables real-time control applications. The results highlight the PINC’s capability to efficiently approximate PDE solutions without requiring iterative solvers, making it a promising alternative for fluid flow monitoring and optimization in engineering applications.

arxiv情報

著者 Luis Kin Miyatake,Eduardo Camponogara,Eric Aislan Antonelo,Alexey Pavlov
発行日 2025-06-06 15:50:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Physics-Informed Neural Networks for Control of Single-Phase Flow Systems Governed by Partial Differential Equations はコメントを受け付けていません

ICU-TSB: A Benchmark for Temporal Patient Representation Learning for Unsupervised Stratification into Patient Cohorts

要約

臨床的に意味のあるサブグループを特定する患者の層別化は、診断と治療戦略の改善を通じて個別化医療を進めるために不可欠です。
電子健康記録(EHR)、特に集中治療ユニット(ICU)の記録には、この目的のために活用できる豊富な時間的臨床データが含まれています。
この作業では、3つの公的に利用可能なICU EHRデータセットを使用して、時間的患者表現学習に基づいて患者の層別化を評価するための最初の包括的なベンチマークであるICU-TSB(時間的成層ベンチマーク)を紹介します。
私たちのベンチマークの重要な貢献は、発見されたクラスターの臨床的に検証された疾患グループの調整を測定するために、病気の分類法を利用する新しい階層評価フレームワークです。
ICU-TSBを使用した実験では、LSTMやGRUを含む統計的方法といくつかの再発性ニューラルネットワークを、患者の軌跡のその後のクラスタリングのための効果的な患者表現を生成する能力を比較しました。
我々の結果は、一時的な表現学習が臨床的に意味のある患者コホートを再発見できることを示しています。
それにもかかわらず、それは挑戦的なタスクのままであり、V測定は、分類法の最上位レベルの0.46から最低レベルの最大0.40に変化します。
調査結果の実用的な有用性をさらに強化するために、特定されたクラスターに解釈可能なラベルを割り当てるための複数の戦略も評価します。
実験とベンチマークは完全に再現性があり、https://github.com/ds4dh/cbms2025stratificationで入手できます。

要約(オリジナル)

Patient stratification identifying clinically meaningful subgroups is essential for advancing personalized medicine through improved diagnostics and treatment strategies. Electronic health records (EHRs), particularly those from intensive care units (ICUs), contain rich temporal clinical data that can be leveraged for this purpose. In this work, we introduce ICU-TSB (Temporal Stratification Benchmark), the first comprehensive benchmark for evaluating patient stratification based on temporal patient representation learning using three publicly available ICU EHR datasets. A key contribution of our benchmark is a novel hierarchical evaluation framework utilizing disease taxonomies to measure the alignment of discovered clusters with clinically validated disease groupings. In our experiments with ICU-TSB, we compared statistical methods and several recurrent neural networks, including LSTM and GRU, for their ability to generate effective patient representations for subsequent clustering of patient trajectories. Our results demonstrate that temporal representation learning can rediscover clinically meaningful patient cohorts; nevertheless, it remains a challenging task, with v-measuring varying from up to 0.46 at the top level of the taxonomy to up to 0.40 at the lowest level. To further enhance the practical utility of our findings, we also evaluate multiple strategies for assigning interpretable labels to the identified clusters. The experiments and benchmark are fully reproducible and available at https://github.com/ds4dh/CBMS2025stratification.

arxiv情報

著者 Dimitrios Proios,Alban Bornet,Anthony Yazdani,Jose F Rodrigues Jr,Douglas Teodoro
発行日 2025-06-06 15:52:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | ICU-TSB: A Benchmark for Temporal Patient Representation Learning for Unsupervised Stratification into Patient Cohorts はコメントを受け付けていません

Transformative or Conservative? Conservation laws for ResNets and Transformers

要約

グラジエントフロートレーニングのダイナミクスの保全法は、(ほとんど浅い)reluおよび線形ネットワークについてよく理解されていますが、彼らの研究は、より実用的なアーキテクチャのためにほとんど説明されていません。
このペーパーは、現代の建築の保全法を導き出して分析することにより、このギャップを橋渡しします。
このため、まず、畳み込みの有無にかかわらず、relu(または線形)浅いネットワークなどの基本的なビルディングブロックが保全法を簡単に表現し、既知の法則を容易に表現していることを示します。
単一の注意層の場合、すべての保全法も完全に説明し、残留ブロックにはスキップ接続なしで同じブロックと同じ保全法があることを示します。
次に、パラメーターのサブセットのみに依存する保全法の概念を紹介します(たとえば、連続した層、残留ブロック、または注意層に対応する)。
このような法則の特性評価は、単独で対応するビルディングブロックの分析に還元できることを実証します。
最後に、特に確率的勾配降下(SGD)のコンテキストで、連続勾配流領域で最初に確立されたこれらの新たに発見された保全原理が、離散最適化ダイナミクスの下でどのように持続するかを調べます。

要約(オリジナル)

While conservation laws in gradient flow training dynamics are well understood for (mostly shallow) ReLU and linear networks, their study remains largely unexplored for more practical architectures. This paper bridges this gap by deriving and analyzing conservation laws for modern architectures, with a focus on convolutional ResNets and Transformer networks. For this, we first show that basic building blocks such as ReLU (or linear) shallow networks, with or without convolution, have easily expressed conservation laws, and no more than the known ones. In the case of a single attention layer, we also completely describe all conservation laws, and we show that residual blocks have the same conservation laws as the same block without a skip connection. We then introduce the notion of conservation laws that depend only on a subset of parameters (corresponding e.g. to a pair of consecutive layers, to a residual block, or to an attention layer). We demonstrate that the characterization of such laws can be reduced to the analysis of the corresponding building block in isolation. Finally, we examine how these newly discovered conservation principles, initially established in the continuous gradient flow regime, persist under discrete optimization dynamics, particularly in the context of Stochastic Gradient Descent (SGD).

arxiv情報

著者 Sibylle Marcotte,Rémi Gribonval,Gabriel Peyré
発行日 2025-06-06 15:53:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Transformative or Conservative? Conservation laws for ResNets and Transformers はコメントを受け付けていません

Quantifying the Optimization and Generalization Advantages of Graph Neural Networks Over Multilayer Perceptrons

要約

グラフニューラルネットワーク(GNNS)は、グラフ構造データから学習する際に顕著な機能を実証しており、多くの場合、多数のグラフベースのタスクで従来の多層パーセプトロン(MLP)を上回ることがよくあります。
既存の作品は、ラプラシアンの平滑化、表現性、または分離性によるグラフ畳み込みの利点を実証していますが、GNNとMLPを最適化と一般化の観点から比較する定量分析の欠如が残っています。
この研究の目的は、特徴学習理論を通じてグラフ畳み込みの役割を調べることにより、このギャップに対処することを目的としています。
Signal-Noiseデータモデルを使用して、2層グラフ畳み込みネットワーク(GCNS)とそのMLPカウンターパートの間の最適化と一般化の比較分析を実施します。
私たちのアプローチは、GNNSの信号学習と騒音記憶の軌跡を追跡し、トレーニング後の一般化を特徴付けます。
GNNSは信号学習を大幅に優先順位付けし、MLPを超える{低テストエラー}のレジームを$ d^{q-2} $ $を強化することを明らかにします。
この発見は、最適化と一般化の観点からGNNとMLPの間の実質的かつ定量的な矛盾を強調しています。これは、合成データセットと実際のデータセットの両方での経験的シミュレーションによってさらにサポートされている結論です。

要約(オリジナル)

Graph neural networks (GNNs) have demonstrated remarkable capabilities in learning from graph-structured data, often outperforming traditional Multilayer Perceptrons (MLPs) in numerous graph-based tasks. Although existing works have demonstrated the benefits of graph convolution through Laplacian smoothing, expressivity or separability, there remains a lack of quantitative analysis comparing GNNs and MLPs from an optimization and generalization perspective. This study aims to address this gap by examining the role of graph convolution through feature learning theory. Using a signal-noise data model, we conduct a comparative analysis of the optimization and generalization between two-layer graph convolutional networks (GCNs) and their MLP counterparts. Our approach tracks the trajectory of signal learning and noise memorization in GNNs, characterizing their post-training generalization. We reveal that GNNs significantly prioritize signal learning, thus enhancing the regime of {low test error} over MLPs by $D^{q-2}$ times, where $D$ denotes a node’s expected degree and $q$ is the power of ReLU activation function with $q>2$. This finding highlights a substantial and quantitative discrepancy between GNNs and MLPs in terms of optimization and generalization, a conclusion further supported by our empirical simulations on both synthetic and real-world datasets.

arxiv情報

著者 Wei Huang,Yuan Cao,Haonan Wang,Xin Cao,Taiji Suzuki
発行日 2025-06-06 15:58:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Quantifying the Optimization and Generalization Advantages of Graph Neural Networks Over Multilayer Perceptrons はコメントを受け付けていません

How to craft a deep reinforcement learning policy for wind farm flow control

要約

風力発電所内では、タービン間のウェイク効果は、全体的なエネルギー生産を大幅に減らすことができます。
風力発電の流れ制御には、調整されたタービン制御を介してこれらの効果を軽減するために設計された方法が含まれます。
たとえば、ウェイクステアリングは、気流を最適化して出力を増加させるために、特定のタービンを風と意図的に誤解させることです。
ただし、堅牢なウェイクステアリングコントローラーの設計は依然として困難であり、既存の機械学習アプローチは準静的風力条件または小さな風力発電所に限定されています。
この作業は、これらの制限を克服するウェイクステアリングポリシーを開発するための新しい深い強化学習方法を提示します。
私たちのアプローチでは、新しい報酬機能とトレーニング戦略とともに、グラフ注意ネットワークとマルチヘッドの自己触たちブロックを組み合わせた新しいアーキテクチャを紹介します。
結果として得られるモデルは、各タービンのヨー角を計算し、時変風条件でエネルギー生産を最適化します。
定常状態の低忠実度シミュレーションで実施された実証研究は、モデルが完全に接続されたニューラルネットワークの約10倍のトレーニングステップを必要とし、強力な最適化ベースラインと比較してより堅牢なパフォーマンスを達成し、エネルギー生産を最大14%増加させることを示しています。
私たちの知る限り、これは、低忠実で定常状態の数値シミュレーション設定で、時代に変化する風の状態で効果的に一般化する最初の深い強化学習ベースのウェイクステアリングコントローラーです。

要約(オリジナル)

Within wind farms, wake effects between turbines can significantly reduce overall energy production. Wind farm flow control encompasses methods designed to mitigate these effects through coordinated turbine control. Wake steering, for example, consists in intentionally misaligning certain turbines with the wind to optimize airflow and increase power output. However, designing a robust wake steering controller remains challenging, and existing machine learning approaches are limited to quasi-static wind conditions or small wind farms. This work presents a new deep reinforcement learning methodology to develop a wake steering policy that overcomes these limitations. Our approach introduces a novel architecture that combines graph attention networks and multi-head self-attention blocks, alongside a novel reward function and training strategy. The resulting model computes the yaw angles of each turbine, optimizing energy production in time-varying wind conditions. An empirical study conducted on steady-state, low-fidelity simulation, shows that our model requires approximately 10 times fewer training steps than a fully connected neural network and achieves more robust performance compared to a strong optimization baseline, increasing energy production by up to 14 %. To the best of our knowledge, this is the first deep reinforcement learning-based wake steering controller to generalize effectively across any time-varying wind conditions in a low-fidelity, steady-state numerical simulation setting.

arxiv情報

著者 Elie Kadoche,Pascal Bianchi,Florence Carton,Philippe Ciblat,Damien Ernst
発行日 2025-06-06 16:07:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | How to craft a deep reinforcement learning policy for wind farm flow control はコメントを受け付けていません

ByzSecAgg: A Byzantine-Resistant Secure Aggregation Scheme for Federated Learning Based on Coded Computing and Vector Commitment

要約

この論文では、ビザンチンの攻撃やプライバシーの漏れに耐性のある連合学習のための効率的な安全な集約スキームであるByzsecaggを提案します。
個々の更新を処理して、敵対的な行動を管理するために、ノードの共謀に対するデータのプライバシーを維持しながら、何らかの安全な秘密共有が必要です。
ただし、更新の長いベクトルの秘密共有のための通信負荷は非常に高い場合があります。
ユーザーが潜在的な帯域幅の制約を備えたエッジデバイスであることが多いフェデレーション設定では、過度の通信オーバーヘッドは望ましくありません。
Byzsecaggは、ローカル更新をより小さなサブベクターに分割し、Ramp Secret共有を使用してそれらを共有することにより、この問題を解決します。
ただし、この共有方法では、距離ベースの外れ値検出アルゴリズムに必要なペアワイズ距離計算や、ビザンチン攻撃を緩和するための効果的な方法などの双線形計算を認めません。
この問題を克服するために、各ユーザーはランプ共有の別のラウンドを実行し、共有の多項式にデータを埋め込みます。
この手法は、コード化されたコンピューティングからのアイデアに動機付けられ、ペアワイズ距離の安全な計算を可能にします。
さらに、ローカルアップデートの整合性とプライバシーを維持するために、Byzsecaggはベクトルコミットメント方法も使用します。この方法では、コミットメントサイズが一定のままです(つまり、ローカルアップデートの長さでは増加しません)。同時に、秘密共有プロセスの検証を可能にします。
通信負荷の観点から、Byzsecaggは、Breaとして知られる関連するベースラインスキームを大幅に上回ります。

要約(オリジナル)

In this paper, we propose ByzSecAgg, an efficient secure aggregation scheme for federated learning that is resistant to Byzantine attacks and privacy leakages. Processing individual updates to manage adversarial behavior, while preserving the privacy of the data against colluding nodes, requires some sort of secure secret sharing. However, the communication load for secret sharing of long vectors of updates can be very high. In federated settings, where users are often edge devices with potential bandwidth constraints, excessive communication overhead is undesirable. ByzSecAgg solves this problem by partitioning local updates into smaller sub-vectors and sharing them using ramp secret sharing. However, this sharing method does not admit bilinear computations, such as pairwise distances calculations, which are needed for distance-based outlier-detection algorithms, and effective methods for mitigating Byzantine attacks. To overcome this issue, each user runs another round of ramp sharing, with a different embedding of the data in the sharing polynomial. This technique, motivated by ideas from coded computing, enables secure computation of pairwise distance. In addition, to maintain the integrity and privacy of the local update, ByzSecAgg also uses a vector commitment method, in which the commitment size remains constant (i.e., does not increase with the length of the local update), while simultaneously allowing verification of the secret sharing process. In terms of communication load, ByzSecAgg significantly outperforms the related baseline scheme, known as BREA.

arxiv情報

著者 Tayyebeh Jahani-Nezhad,Mohammad Ali Maddah-Ali,Giuseppe Caire
発行日 2025-06-06 16:07:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.DC, cs.IT, cs.LG, math.IT | ByzSecAgg: A Byzantine-Resistant Secure Aggregation Scheme for Federated Learning Based on Coded Computing and Vector Commitment はコメントを受け付けていません

Model-Driven Graph Contrastive Learning

要約

データの基礎となる生成プロセスを考慮してコントラスト学習を導くグラフン(グラフの確率的生成モデル)を活用するモデル駆動型グラフ対照学習(GCL)フレームワークである$ \ textbf {mgcl} $を提案します。
GCLは、表現型ノードまたはグラフ表現を学習するための強力な自己監視フレームワークとして浮上しており、注釈付きラベルに依存することなく、実際のデータに依存することがよくあります。
グラフデータの拡張ビューを対比することにより、GCLは、ノードやグラフ分類など、さまざまな下流タスクで強力なパフォーマンスを実証しました。
ただし、既存の方法は通常、基礎となるデータ分布に合わせて調整されておらず、個々のグラフレベルで動作し、同じモデルから生成されたグラフ間の類似性を無視する手動で設計またはヒューリスティックな増強戦略に依存しています。
逆に、提案されたアプローチでは、MGCLは最初に観察されたデータに関連付けられたグラフンを推定し、次にグラフンに基づいた増強プロセスを定義し、データ適応と原則の増強を可能にします。
さらに、グラフレベルのタスクの場合、MGCLはデータセットをクラスターし、グループごとのグラフンを推定し、共有されたセマンティクスと構造を反映して対照的なペアを可能にします。
ベンチマークデータセットでの広範な実験は、MGCLが最先端のパフォーマンスを達成し、GCLに生成モデルを組み込むことの利点を強調することを示しています。

要約(オリジナル)

We propose $\textbf{MGCL}$, a model-driven graph contrastive learning (GCL) framework that leverages graphons (probabilistic generative models for graphs) to guide contrastive learning by accounting for the data’s underlying generative process. GCL has emerged as a powerful self-supervised framework for learning expressive node or graph representations without relying on annotated labels, which are often scarce in real-world data. By contrasting augmented views of graph data, GCL has demonstrated strong performance across various downstream tasks, such as node and graph classification. However, existing methods typically rely on manually designed or heuristic augmentation strategies that are not tailored to the underlying data distribution and operate at the individual graph level, ignoring similarities among graphs generated from the same model. Conversely, in our proposed approach, MGCL first estimates the graphon associated with the observed data and then defines a graphon-informed augmentation process, enabling data-adaptive and principled augmentations. Additionally, for graph-level tasks, MGCL clusters the dataset and estimates a graphon per group, enabling contrastive pairs to reflect shared semantics and structure. Extensive experiments on benchmark datasets demonstrate that MGCL achieves state-of-the-art performance, highlighting the advantages of incorporating generative models into GCL.

arxiv情報

著者 Ali Azizpour,Nicolas Zilberstein,Santiago Segarra
発行日 2025-06-06 16:17:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Model-Driven Graph Contrastive Learning はコメントを受け付けていません

BiAssemble: Learning Collaborative Affordance for Bimanual Geometric Assembly

要約

部品を完全な全体に組み合わせるプロセスであるシェイプアセンブリは、幅広い現実世界のアプリケーションを備えた重要なロボットスキルです。
さまざまなアセンブリタスクの中で、幾何学的なアセンブリ – 壊れた部分が元の形(粉砕されたボウルの再構築など)に再構築される場所が特に困難です。
これには、ロボットが、さまざまな断片での把握、組み立て、およびその後の両手協調操作のための幾何学的キューを認識する必要があります。
このホワイトペーパーでは、ポイントレベルのアフォーダンスの幾何学的一般化を活用して、長期ホリゾンの作用シーケンスを備えた幾何学的なアセンブリにおける双方向のコラボレーションを認識しています。
壊れた部分の幾何学的多様性によって引き起こされる評価のあいまいさに対処するために、幾何学的な種類とグローバルな再現性を特徴とする現実世界のベンチマークを紹介します。
広範な実験は、以前のアフォーダンスベースと模倣ベースの方法の両方で、私たちのアプローチの優位性を示しています。
プロジェクトページ:https://sites.google.com/view/biassembly/。

要約(オリジナル)

Shape assembly, the process of combining parts into a complete whole, is a crucial robotic skill with broad real-world applications. Among various assembly tasks, geometric assembly–where broken parts are reassembled into their original form (e.g., reconstructing a shattered bowl)–is particularly challenging. This requires the robot to recognize geometric cues for grasping, assembly, and subsequent bimanual collaborative manipulation on varied fragments. In this paper, we exploit the geometric generalization of point-level affordance, learning affordance aware of bimanual collaboration in geometric assembly with long-horizon action sequences. To address the evaluation ambiguity caused by geometry diversity of broken parts, we introduce a real-world benchmark featuring geometric variety and global reproducibility. Extensive experiments demonstrate the superiority of our approach over both previous affordance-based and imitation-based methods. Project page: https://sites.google.com/view/biassembly/.

arxiv情報

著者 Yan Shen,Ruihai Wu,Yubin Ke,Xinyuan Song,Zeyi Li,Xiaoqi Li,Hongwei Fan,Haoran Lu,Hao dong
発行日 2025-06-06 16:30:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | BiAssemble: Learning Collaborative Affordance for Bimanual Geometric Assembly はコメントを受け付けていません

TQml Simulator: Optimized Simulation of Quantum Machine Learning

要約

量子機械学習で使用されるハードウェア効率の高い回路は、通常、均一に適用されたゲートの交互の層で構成されています。
このような回路の高速数値シミュレーターは、この分野で研究を進めるために重要です。
この作業では、量子機械学習アルゴリズムの全体的なシミュレーションを加速することを目的とした、量子状態ベクトル上のゲートの層の作用をシミュレートするためのユニバーサルおよびゲート固有の手法を数値的にベンチマークします。
私たちの分析は、ゲートの特定の層の最適なシミュレーション方法は、関与するキュービットの数に依存し、テクニックの調整された組み合わせが特定の回路の前方パスと後方パスでかなりのパフォーマンスの向上をもたらす可能性があることを示しています。
これらの洞察に基づいて、特定の回路の各レイヤーに対して最も効率的なシミュレーション方法を採用するTQMLシミュレーターという名前の数値シミュレーターを開発しました。
回転やCNOTなどの標準のゲートセットから構築された回路、およびIONQおよびIBM量子処理ユニットのネイティブゲートでTQMLシミュレーターを評価しました。
ほとんどの場合、当社のシミュレーターは、回路、キッツの数、入力データのバッチサイズ、および使用されているハードウェアに応じて、同等のPennylaneのdefault_Qubitシミュレーターを10倍まで上回ります。

要約(オリジナル)

Hardware-efficient circuits employed in Quantum Machine Learning are typically composed of alternating layers of uniformly applied gates. High-speed numerical simulators for such circuits are crucial for advancing research in this field. In this work, we numerically benchmark universal and gate-specific techniques for simulating the action of layers of gates on quantum state vectors, aiming to accelerate the overall simulation of Quantum Machine Learning algorithms. Our analysis shows that the optimal simulation method for a given layer of gates depends on the number of qubits involved, and that a tailored combination of techniques can yield substantial performance gains in the forward and backward passes for a given circuit. Building on these insights, we developed a numerical simulator, named TQml Simulator, that employs the most efficient simulation method for each layer in a given circuit. We evaluated TQml Simulator on circuits constructed from standard gate sets, such as rotations and CNOTs, as well as on native gates from IonQ and IBM quantum processing units. In most cases, our simulator outperforms equivalent Pennylane’s default_qubit simulator by up to a factor of 10, depending on the circuit, the number of qubits, the batch size of the input data, and the hardware used.

arxiv情報

著者 Viacheslav Kuzmin,Basil Kyriacou,Mateusz Papierz,Mo Kordzanganeh,Alexey Melnikov
発行日 2025-06-06 16:55:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.ET, cs.LG, cs.PF, quant-ph | TQml Simulator: Optimized Simulation of Quantum Machine Learning はコメントを受け付けていません