Strengthening Multi-Robot Systems for SAR: Co-Designing Robotics and Communication Towards 6G

要約

このホワイトペーパーでは、5Gスタンドアロン(SA)に基づいたEdge-Cloudアーキテクチャをサポートするために、モバイルロボットと通信システムの共同設計を強調して、Search and Rescue(SAR)ミッションからのフィールドテストのユースケースを紹介します。
主な目標は、複数のロボットとファーストレスポンダーの効果的な協力に貢献することです。
当社のフィールドエクスペリエンスには、リスクと被害者の検出のためのハイブリッドワイヤレスセンサーネットワーク(H-WSNS)の開発、ミッションリクエストとパス計画のためのエッジデバイスとしてロボットオペレーティングシステム(ROS)に統合されたスマートフォン、リアルタイムの同時ローカリゼーションとマッピング(SLAM)がマルチアクセスエッジコンピューティング(MEC)を介して犠牲になっている(MEC)の実装。
実際のファーストレスポンダーと協力して実施されたこれらの実験は、インテリジェントなネットワークリソース管理の必要性を強調し、低変速度と高帯域幅の要求のバランスを取ります。
ネットワークスライスは、挑戦的なコミュニケーション条件にもかかわらず、重要な緊急サービスが実行されることを保証するための鍵です。
このペーパーでは、緊急対応能力を高めるために、6Gテクノロジーによって対処すべき建築のニーズ、学んだ教訓、および課題を特定しています。

要約(オリジナル)

This paper presents field-tested use cases from Search and Rescue (SAR) missions, highlighting the co-design of mobile robots and communication systems to support Edge-Cloud architectures based on 5G Standalone (SA). The main goal is to contribute to the effective cooperation of multiple robots and first responders. Our field experience includes the development of Hybrid Wireless Sensor Networks (H-WSNs) for risk and victim detection, smartphones integrated into the Robot Operating System (ROS) as Edge devices for mission requests and path planning, real-time Simultaneous Localization and Mapping (SLAM) via Multi-Access Edge Computing (MEC), and implementation of Uncrewed Ground Vehicles (UGVs) for victim evacuation in different navigation modes. These experiments, conducted in collaboration with actual first responders, underscore the need for intelligent network resource management, balancing low-latency and high-bandwidth demands. Network slicing is key to ensuring critical emergency services are performed despite challenging communication conditions. The paper identifies architectural needs, lessons learned, and challenges to be addressed by 6G technologies to enhance emergency response capabilities.

arxiv情報

著者 Juan Bravo-Arrabal,Ricardo Vázquez-Martín,J. J. Fernández-Lozano,Alfonso García-Cerezo
発行日 2025-04-02 17:47:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Strengthening Multi-Robot Systems for SAR: Co-Designing Robotics and Communication Towards 6G はコメントを受け付けていません

Slot-Level Robotic Placement via Visual Imitation from Single Human Video

要約

最新のロボット学習方法の大部分は、新しいタスクに限られたまたは一般化されていない一連の定義されたタスクの学習に焦点を当てています。
ロボットスキルセットを新しいタスクに拡張するには、追加のタスクのための幅広いトレーニングデータを収集することが含まれます。
この論文では、繰り返しタスクのために人間のデモビデオ(パッキングなど)を使用して、ロボットに新しいタスクを教えるという問題に対処します。
このタスクでは、人間のビデオを理解して、どのオブジェクトが操作されているか(ピックオブジェクト)とそれが配置されている場所(配置スロット)を識別する必要があります。
さらに、タスクのロボット実行を可能にするために、推論中にピックオブジェクトと配置スロットを再識別する必要があります。
これに取り組むために、いくつかの高度な視覚基盤モデルと新しいスロットレベルの配置検出器スロットネットを活用するモジュラーシステムであるSlerpを提案し、トレーニング用の高価なビデオデモンストレーションの必要性を排除します。
実際のビデオの新しいベンチマークを使用して、システムを評価します。
評価結果は、Slerpがいくつかのベースラインを上回り、実際のロボットに展開できることを示しています。

要約(オリジナル)

The majority of modern robot learning methods focus on learning a set of pre-defined tasks with limited or no generalization to new tasks. Extending the robot skillset to novel tasks involves gathering an extensive amount of training data for additional tasks. In this paper, we address the problem of teaching new tasks to robots using human demonstration videos for repetitive tasks (e.g., packing). This task requires understanding the human video to identify which object is being manipulated (the pick object) and where it is being placed (the placement slot). In addition, it needs to re-identify the pick object and the placement slots during inference along with the relative poses to enable robot execution of the task. To tackle this, we propose SLeRP, a modular system that leverages several advanced visual foundation models and a novel slot-level placement detector Slot-Net, eliminating the need for expensive video demonstrations for training. We evaluate our system using a new benchmark of real-world videos. The evaluation results show that SLeRP outperforms several baselines and can be deployed on a real robot.

arxiv情報

著者 Dandan Shan,Kaichun Mo,Wei Yang,Yu-Wei Chao,David Fouhey,Dieter Fox,Arsalan Mousavian
発行日 2025-04-02 17:59:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Slot-Level Robotic Placement via Visual Imitation from Single Human Video はコメントを受け付けていません

KD$^{2}$M: An unifying framework for feature knowledge distillation

要約

知識蒸留(KD)は、生徒のニューラルネットに向けて、教師の知識を転送しようとしています。
このプロセスは、ネットワークの予測(つまり、それらの出力)に一致することによってしばしば行われますが、最近、いくつかの作品がニューラルネットの活性化(つまり、それらの機能)の分布と一致するように提案しました。
この論文では、この戦略を形式化する分布マッチング(kd $^{2} $ m)による統一フレームワーク、知識の蒸留を提案します。
私たちの貢献は3つあります。
i)分布マッチングで使用される分布メトリックの概要、ii)コンピュータービジョンデータセットのベンチマーク、およびiii)KDの新しい理論的結果を導き出します。

要約(オリジナル)

Knowledge Distillation (KD) seeks to transfer the knowledge of a teacher, towards a student neural net. This process is often done by matching the networks’ predictions (i.e., their output), but, recently several works have proposed to match the distributions of neural nets’ activations (i.e., their features), a process known as \emph{distribution matching}. In this paper, we propose an unifying framework, Knowledge Distillation through Distribution Matching (KD$^{2}$M), which formalizes this strategy. Our contributions are threefold. We i) provide an overview of distribution metrics used in distribution matching, ii) benchmark on computer vision datasets, and iii) derive new theoretical results for KD.

arxiv情報

著者 Eduardo Fernandes Montesuma
発行日 2025-04-02 14:14:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML | KD$^{2}$M: An unifying framework for feature knowledge distillation はコメントを受け付けていません

Learning with Imperfect Models: When Multi-step Prediction Mitigates Compounding Error

要約

小さな予測間違いが時間とともに蓄積する複合エラーは、学習ベースの制御に大きな課題を提示します。
たとえば、この問題は、多くの場合、モデルベースの強化学習と模倣学習のパフォーマンスを制限します。
複合エラーを緩和するための一般的なアプローチの1つは、単一ステップモデルの自己回帰ロールアウトに依存するのではなく、マルチステップ予測因子を直接トレーニングすることです。
ただし、マルチステップ予測の利点が、より複雑なモデルを学習するという複雑さを上回る場合、それはよく理解されていません。
この作業では、線形動的システムのコンテキストでこのトレードオフの厳密な分析を提供します。
モデルクラスが適切に指定されており、システムのダイナミクスを正確にキャプチャする場合、シングルステップモデルがより低い漸近予測エラーを達成することを示します。
一方、部分的な観測性のためにモデルクラスが誤って指定されると、直接的なマルチステップ予測因子はバイアスを大幅に減らし、したがってシングルステップアプローチを上回ることができます。
これらの理論的結果は数値実験によってサポートされています。また、(a)マルチステップ損失を使用して単一ステップモデルをトレーニングする中間戦略を経験的に評価し、(b)閉ループ制御設定での単一ステップおよびマルチステップ予測因子のパフォーマンスを評価します。

要約(オリジナル)

Compounding error, where small prediction mistakes accumulate over time, presents a major challenge in learning-based control. For example, this issue often limits the performance of model-based reinforcement learning and imitation learning. One common approach to mitigate compounding error is to train multi-step predictors directly, rather than relying on autoregressive rollout of a single-step model. However, it is not well understood when the benefits of multi-step prediction outweigh the added complexity of learning a more complicated model. In this work, we provide a rigorous analysis of this trade-off in the context of linear dynamical systems. We show that when the model class is well-specified and accurately captures the system dynamics, single-step models achieve lower asymptotic prediction error. On the other hand, when the model class is misspecified due to partial observability, direct multi-step predictors can significantly reduce bias and thus outperform single-step approaches. These theoretical results are supported by numerical experiments, wherein we also (a) empirically evaluate an intermediate strategy which trains a single-step model using a multi-step loss and (b) evaluate performance of single step and multi-step predictors in a closed loop control setting.

arxiv情報

著者 Anne Somalwar,Bruce D. Lee,George J. Pappas,Nikolai Matni
発行日 2025-04-02 14:18:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.SY, eess.SY | Learning with Imperfect Models: When Multi-step Prediction Mitigates Compounding Error はコメントを受け付けていません

BlenderGym: Benchmarking Foundational Model Systems for Graphics Editing

要約

3Dグラフィックスの編集は、映画制作やゲームデザインなどのアプリケーションでは重要ですが、非常に専門的なドメインの専門知識を必要とする時間のかかるプロセスのままです。
グラフィカルな編集にはさまざまなタスクを実行する必要があり、それぞれが異なるスキルセットを必要とするため、このプロセスの自動化は困難です。
最近、ビジョン言語モデル(VLM)が編集プロセスを自動化するための強力なフレームワークとして浮上していますが、その開発と評価は、人間レベルの知覚を必要とし、現実世界の編集の複雑さを示す包括的なベンチマークの欠如によってボトルネックされています。
この作業では、3Dグラフィックス編集のための最初の包括的なVLMシステムベンチマークであるBlendergymを提示します。
Blendergymは、コードベースの3D再構成タスクを介してVLMシステムを評価します。
クローズドおよびオープンソースのVLMシステムを評価し、最先端のVLMシステムでさえ、人間のブレンダーユーザーにとって比較的簡単なタスクと闘っていることを観察します。
Blendergymによって有効になっているため、推論スケーリング手法がグラフィックスの編集タスクにVLMのパフォーマンスにどのように影響するかを研究します。
特に、我々の調査結果は、生成のスケーリングをガイドするために使用される検証者自体が推論スケーリングによって改善できることを明らかにし、コーディングおよび数学タスクにおけるLLM生成の推論スケーリングに関する最近の洞察を補完します。
さらに、推論計算は均一に効果的ではなく、生成と検証の間に戦略的に分布することで最適化できることを示します。

要約(オリジナル)

3D graphics editing is crucial in applications like movie production and game design, yet it remains a time-consuming process that demands highly specialized domain expertise. Automating this process is challenging because graphical editing requires performing a variety of tasks, each requiring distinct skill sets. Recently, vision-language models (VLMs) have emerged as a powerful framework for automating the editing process, but their development and evaluation are bottlenecked by the lack of a comprehensive benchmark that requires human-level perception and presents real-world editing complexity. In this work, we present BlenderGym, the first comprehensive VLM system benchmark for 3D graphics editing. BlenderGym evaluates VLM systems through code-based 3D reconstruction tasks. We evaluate closed- and open-source VLM systems and observe that even the state-of-the-art VLM system struggles with tasks relatively easy for human Blender users. Enabled by BlenderGym, we study how inference scaling techniques impact VLM’s performance on graphics editing tasks. Notably, our findings reveal that the verifier used to guide the scaling of generation can itself be improved through inference scaling, complementing recent insights on inference scaling of LLM generation in coding and math tasks. We further show that inference compute is not uniformly effective and can be optimized by strategically distributing it between generation and verification.

arxiv情報

著者 Yunqi Gu,Ian Huang,Jihyeon Je,Guandao Yang,Leonidas Guibas
発行日 2025-04-02 14:51:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.GR, cs.LG | BlenderGym: Benchmarking Foundational Model Systems for Graphics Editing はコメントを受け付けていません

Deep Learning for VWAP Execution in Crypto Markets: Beyond the Volume Curve

要約

ボリューム加重平均価格(VWAP)は、市場参加者全体のパフォーマンスを比較するための偏りのない基準を提供するため、貿易実行のための最も一般的なベンチマークです。
ただし、VWAPを達成することは、2つの動的な要因、ボリュームと価格に依存しているため、本質的に困難です。
従来のアプローチは通常、市場の量曲線を予測することに焦点を当てています。これは、安定した条件下では当てはまるかもしれないが、予測誤差マージンが高い暗号通貨などのより揮発性の環境や市場で最適ではないという仮定です。
この研究では、ボリュームカーブ予測の中間ステップをバイパスすることにより、VWAP実行目標を直接最適化する深い学習フレームワークを提案します。
自動分化とカスタム損失関数を活用して、私の方法では、VWAPの滑りを最小限に抑えるために注文割り当てを調整し、それにより実行問題の複雑さに完全に対処します。
私の結果は、この直接的な最適化アプローチが、Arxiv:2410.21448で提示された素朴な線形モデルを利用する場合でも、従来の方法と比較してより低いVWAP滑りを達成することを示しています。
彼らは、VWAPパフォーマンスに最適化された戦略が正確なボリューム曲線予測から分岐する傾向があるという観察を検証し、したがって、実行目標を直接モデル化するという利点を強調しています。
この研究は、揮発性市場でのVWAP実行のためのより効率的で堅牢なフレームワークに貢献し、直接的な客観的最適化が重要な複雑な金融システムにおける深い学習の可能性を示しています。
私の経験的分析は暗号通貨市場に焦点を当てていますが、フレームワークの根底にある原則は、株式などの他の資産クラスに容易に適用できます。

要約(オリジナル)

Volume-Weighted Average Price (VWAP) is arguably the most prevalent benchmark for trade execution as it provides an unbiased standard for comparing performance across market participants. However, achieving VWAP is inherently challenging due to its dependence on two dynamic factors, volumes and prices. Traditional approaches typically focus on forecasting the market’s volume curve, an assumption that may hold true under steady conditions but becomes suboptimal in more volatile environments or markets such as cryptocurrency where prediction error margins are higher. In this study, I propose a deep learning framework that directly optimizes the VWAP execution objective by bypassing the intermediate step of volume curve prediction. Leveraging automatic differentiation and custom loss functions, my method calibrates order allocation to minimize VWAP slippage, thereby fully addressing the complexities of the execution problem. My results demonstrate that this direct optimization approach consistently achieves lower VWAP slippage compared to conventional methods, even when utilizing a naive linear model presented in arXiv:2410.21448. They validate the observation that strategies optimized for VWAP performance tend to diverge from accurate volume curve predictions and thus underscore the advantage of directly modeling the execution objective. This research contributes a more efficient and robust framework for VWAP execution in volatile markets, illustrating the potential of deep learning in complex financial systems where direct objective optimization is crucial. Although my empirical analysis focuses on cryptocurrency markets, the underlying principles of the framework are readily applicable to other asset classes such as equities.

arxiv情報

著者 Remi Genet
発行日 2025-04-02 14:56:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, q-fin.ST | Deep Learning for VWAP Execution in Crypto Markets: Beyond the Volume Curve はコメントを受け付けていません

Plane-Wave Decomposition and Randomised Training; a Novel Path to Generalised PINNs for SHM

要約

この論文では、フーリエ分解の形式の学習に基づいて、物理学に基づいた神経ネットワーク(PINNS)の定式化と、ランダムに選択された境界条件の広がりに基づくトレーニング方法論を紹介します。
このようにトレーニングすることにより、一般化するPINNを作成します。
トレーニング後、それは任意の一連の境界条件のソリューションを正しく予測し、トレーニングドメインに及ぶサンプル間のこのソリューションを補間するために使用できます。
2つの結合オシレーターのおもちゃシステムに対して、これにより、特定の境界条件からの解のこの分離により、トレーニング時間比と評価時間比の効果的な削減により、PINNの定式化が真の予測機能を与えることを実証します。

要約(オリジナル)

In this paper, we introduce a formulation of Physics-Informed Neural Networks (PINNs), based on learning the form of the Fourier decomposition, and a training methodology based on a spread of randomly chosen boundary conditions. By training in this way we produce a PINN that generalises; after training it can be used to correctly predict the solution for an arbitrary set of boundary conditions and interpolate this solution between the samples that spanned the training domain. We demonstrate for a toy system of two coupled oscillators that this gives the PINN formulation genuine predictive capability owing to an effective reduction of the training to evaluation times ratio due to this decoupling of the solution from specific boundary conditions.

arxiv情報

著者 Rory Clements,James Ellis,Geoff Hassall,Simon Horsley,Gavin Tabor
発行日 2025-04-02 14:59:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, physics.comp-ph | Plane-Wave Decomposition and Randomised Training; a Novel Path to Generalised PINNs for SHM はコメントを受け付けていません

Batch, match, and patch: low-rank approximations for score-based variational inference

要約

ブラックボックス変異推論(BBVI)は、完全な共分散行列を使用して多変量ガウス近似を推定するために使用する場合、高次元の問題に対して不十分にスケーリングします。
このホワイトペーパーでは、スコアベースのBBVIのバッチアンドマッチ(BAM)フレームワークを問題に拡張します。このような共分散行列を保存するのは、それらを推定することは言うまでもなく、問題に費用がかかります。
確率的勾配降下を使用して逆カルバック繰り出しの発散を最小限に抑えるBBVIの古典的なアルゴリズムとは異なり、BAMはより専門的な更新を使用して、ターゲット密度とそのガウス近似のスコアに一致します。
BAMの更新は、完全な共分散行列のよりコンパクトなパラメーター化と統合することにより、それらを拡張します。
特に、因子分析からアイデアを借用すると、BAMの各反復(パッチ)に追加のステップを追加します。これは、新しく更新された各共分散マトリックスを、より効率的にパラメーター化された対角線と低ランクマトリックスに投影します。
このアプローチを、高次元推論におけるさまざまな合成ターゲット分布と現実世界の問題で評価します。

要約(オリジナル)

Black-box variational inference (BBVI) scales poorly to high-dimensional problems when it is used to estimate a multivariate Gaussian approximation with a full covariance matrix. In this paper, we extend the batch-and-match (BaM) framework for score-based BBVI to problems where it is prohibitively expensive to store such covariance matrices, let alone to estimate them. Unlike classical algorithms for BBVI, which use stochastic gradient descent to minimize the reverse Kullback-Leibler divergence, BaM uses more specialized updates to match the scores of the target density and its Gaussian approximation. We extend the updates for BaM by integrating them with a more compact parameterization of full covariance matrices. In particular, borrowing ideas from factor analysis, we add an extra step to each iteration of BaM–a patch–that projects each newly updated covariance matrix into a more efficiently parameterized family of diagonal plus low rank matrices. We evaluate this approach on a variety of synthetic target distributions and real-world problems in high-dimensional inference.

arxiv情報

著者 Chirag Modi,Diana Cai,Lawrence K. Saul
発行日 2025-04-02 15:05:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.CO, stat.ML | Batch, match, and patch: low-rank approximations for score-based variational inference はコメントを受け付けていません

Barrier Certificates for Unknown Systems with Latent States and Polynomial Dynamics using Bayesian Inference

要約

動的システムの安全性の認証は重要ですが、バリア証明書 – システムの軌跡が安全な地域内に残っていることを確認するために広く使用されています – 通常、明示的なシステムモデルが必要です。
ダイナミクスが不明な場合、代わりにデータ駆動型の方法を使用できますが、有効な証明書を取得するには、厳密な不確実性の定量化が必要です。
この目的のために、既存の方法は通常、フルステートの測定に依存しており、適用性を制限します。
このペーパーでは、潜在状態と多項式ダイナミクスを備えた未知のシステムのバリア証明書を合成するための新しいアプローチを提案します。
ベイジアンフレームワークが採用されています。ここでは、ターゲットを絞った限界メトロポリスハスティングサンプラーを介して入出力データを使用して、状態空間表現以前が更新されます。
結果として得られるサンプルは、平面合計プログラムを通じて候補バリア証明書を構築するために使用されます。
候補者が追加のサンプルのテストセットで必要な条件を満たしている場合、それは高い確率のある真の未知のシステムにも有効であることが示されています。
アプローチとその確率的保証は、数値シミュレーションを通じて示されています。

要約(オリジナル)

Certifying safety in dynamical systems is crucial, but barrier certificates – widely used to verify that system trajectories remain within a safe region – typically require explicit system models. When dynamics are unknown, data-driven methods can be used instead, yet obtaining a valid certificate requires rigorous uncertainty quantification. For this purpose, existing methods usually rely on full-state measurements, limiting their applicability. This paper proposes a novel approach for synthesizing barrier certificates for unknown systems with latent states and polynomial dynamics. A Bayesian framework is employed, where a prior in state-space representation is updated using input-output data via a targeted marginal Metropolis-Hastings sampler. The resulting samples are used to construct a candidate barrier certificate through a sum-of-squares program. It is shown that if the candidate satisfies the required conditions on a test set of additional samples, it is also valid for the true, unknown system with high probability. The approach and its probabilistic guarantees are illustrated through a numerical simulation.

arxiv情報

著者 Robert Lefringhausen,Sami Leon Noel Aziz Hanna,Elias August,Sandra Hirche
発行日 2025-04-02 15:12:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.SY, eess.SY, stat.ML | Barrier Certificates for Unknown Systems with Latent States and Polynomial Dynamics using Bayesian Inference はコメントを受け付けていません

Inference of hidden common driver dynamics by anisotropic self-organizing neural networks

要約

2つの駆動動的システムからの時系列データの分析に基づいて、隠された共通ドライバーの基礎となるダイナミクスを推測するための新しいアプローチを導入しています。
推論は、時期の埋め込み、観測されたシステムの固有の次元の推定、およびそれらの相互次元に依存しています。
私たちのアプローチの重要な要素は、コホネンの自己組織化マップに適用される新しい異方性トレーニング手法であり、駆動システムのアトラクタを効果的に学習し、それを自己ダイナミックと共有ダイナミクスに対応するサブマニホールドに分離します。
私たちの方法の有効性を実証するために、セットアップで異なる混oticとしたマップを使用してシミュレートされた実験を実施しました。そこでは、2つの混oticとしたマップが非線形結合を備えた3番目のマップによって駆動されました。
推定された時系列は、観測されたシステムとは対照的に、実際の隠された共通ドライバーの時系列と高い相関を示しました。
再構成の品質を比較し、PCAやICAなどの線形法を含む観察された時系列の背後にある一般的な特徴を見つけることを目的としたいくつかの他の方法や、動的成分分析、標準相関分析、さらには標準相関分析などの非線形法を見つけることを目的としていることが示されています。

要約(オリジナル)

We are introducing a novel approach to infer the underlying dynamics of hidden common drivers, based on analyzing time series data from two driven dynamical systems. The inference relies on time-delay embedding, estimation of the intrinsic dimension of the observed systems, and their mutual dimension. A key component of our approach is a new anisotropic training technique applied to Kohonen’s self-organizing map, which effectively learns the attractor of the driven system and separates it into submanifolds corresponding to the self-dynamics and shared dynamics. To demonstrate the effectiveness of our method, we conducted simulated experiments using different chaotic maps in a setup, where two chaotic maps were driven by a third map with nonlinear coupling. The inferred time series exhibited high correlation with the time series of the actual hidden common driver, in contrast to the observed systems. The quality of our reconstruction were compared and shown to be superior to several other methods that are intended to find the common features behind the observed time series, including linear methods like PCA and ICA as well as nonlinear methods like dynamical component analysis, canonical correlation analysis and even deep canonical correlation analysis.

arxiv情報

著者 Zsigmond Benkő,Marcell Stippinger,Zoltán Somogyvári
発行日 2025-04-02 15:17:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Inference of hidden common driver dynamics by anisotropic self-organizing neural networks はコメントを受け付けていません