3D Equivariant Visuomotor Policy Learning via Spherical Projection

要約

等量モデルは最近、拡散ポリシーのデータ効率を大きく改善することが示されています。
ただし、この方向を調査した以前の作業は、主にワークスペースに固定された複数のカメラによって生成されたポイントクラウド入力に焦点を当てていました。
このタイプのポイントクラウド入力は、主要な入力モダリティがGOPROのような目の中のRGBカメラである現在の設定と互換性がありません。
このペーパーでは、2D RGBカメラ画像から球体に機能を投影するプロセスAプロセスを拡散ポリシーモデルに組み込むことにより、このギャップを閉じます。
これにより、ポイントクラウドを明示的に再構築することなく、(3)の対称性について推論することができます。
私たちの方法は、パフォーマンスとサンプル効率の両方の点で一貫して強力なベースラインを上回ることを実証するシミュレーションと現実世界の両方で広範な実験を実行します。
私たちの仕事は、単眼RGB入力のみを使用して機能するロボット操作のためのSO(3)equivariantポリシー学習フレームワークです。

要約(オリジナル)

Equivariant models have recently been shown to improve the data efficiency of diffusion policy by a significant margin. However, prior work that explored this direction focused primarily on point cloud inputs generated by multiple cameras fixed in the workspace. This type of point cloud input is not compatible with the now-common setting where the primary input modality is an eye-in-hand RGB camera like a GoPro. This paper closes this gap by incorporating into the diffusion policy model a process that projects features from the 2D RGB camera image onto a sphere. This enables us to reason about symmetries in SO(3) without explicitly reconstructing a point cloud. We perform extensive experiments in both simulation and the real world that demonstrate that our method consistently outperforms strong baselines in terms of both performance and sample efficiency. Our work is the first SO(3)-equivariant policy learning framework for robotic manipulation that works using only monocular RGB inputs.

arxiv情報

著者 Boce Hu,Dian Wang,David Klee,Heng Tian,Xupeng Zhu,Haojie Huang,Robert Platt,Robin Walters
発行日 2025-05-22 17:49:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | 3D Equivariant Visuomotor Policy Learning via Spherical Projection はコメントを受け付けていません

An Operator Splitting View of Federated Learning

要約

過去数年にわたって、フェデレートラーニング($ \ texttt {fl} $)コミュニティは、新しい$ \ texttt {fl} $ algorithmsの拡散を目撃しました。
ただし、$ \ texttt {fl} $の理論の控えめになっていることは依然として断片化されており、これらのアルゴリズムの徹底的な正式な比較はとらえどころのないままです。
このギャップに動機付けられて、既存の$ \ texttt {fl} $アルゴリズムの多くは、オペレーターの分割観点から理解できることを示します。
この統一により、さまざまなアルゴリズムを簡単に比較し、以前の収束結果を改善し、新しいアルゴリズムバリアントを明らかにすることができます。
特に、私たちの分析は、$ \ texttt {fl} $アルゴリズムのステップサイズによって果たす重要な役割を明らかにしています。
統一はまた、通信オーバーヘッドを発生させることなく、$ \ texttt {fl} $アルゴリズムを加速するための合理化された経済的方法につながります。
凸モデルと非凸モデルの両方で数値実験を行い、調査結果を検証します。

要約(オリジナル)

Over the past few years, the federated learning ($\texttt{FL}$) community has witnessed a proliferation of new $\texttt{FL}$ algorithms. However, our understating of the theory of $\texttt{FL}$ is still fragmented, and a thorough, formal comparison of these algorithms remains elusive. Motivated by this gap, we show that many of the existing $\texttt{FL}$ algorithms can be understood from an operator splitting point of view. This unification allows us to compare different algorithms with ease, to refine previous convergence results and to uncover new algorithmic variants. In particular, our analysis reveals the vital role played by the step size in $\texttt{FL}$ algorithms. The unification also leads to a streamlined and economic way to accelerate $\texttt{FL}$ algorithms, without incurring any communication overhead. We perform numerical experiments on both convex and nonconvex models to validate our findings.

arxiv情報

著者 Saber Malekmohammadi,Kiarash Shaloudegi,Zeou Hu,Yaoliang Yu
発行日 2025-05-22 16:26:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | An Operator Splitting View of Federated Learning はコメントを受け付けていません

A Multi-Step Comparative Framework for Anomaly Detection in IoT Data Streams

要約

モノのインターネット(IoT)デバイスの迅速な拡大により、重要なセキュリティの課題が導入され、正確な異常検出の必要性が強調されています。
この目的のために多くの研究が機械学習(ML)方法を提案していますが、限られた研究では、異なる前処理ステップ(通常の正規化、変換、特徴の選択)が、異なるモデルアーキテクチャを備えたインタラクチャを体系的に調べます。
このギャップに対処するために、このペーパーでは、3つのMLアルゴリズム(RNN-LSTM、自動エンコーダーニューラルネットワーク(ANN)、および勾配ブースト(GBoosting)に対する3つのMLアルゴリズムに対する前処理の選択肢の組み合わせの影響を評価するマルチステップ評価フレームワーク)を紹介します。
IOTID20データセットでの実験は、Gboostingがプレ前処理構成全体で一貫して優れた精度をもたらすことを示していますが、RNN-LSTMはZスコア正規化で顕著な利益を示し、自動エンコーダーはリコールで優れています。
前処理決定の構造化された分析と、さまざまなML技術との相互作用を提供することにより、提案されたフレームワークは、IoT環境での異常検出性能を強化するための実用的なガイダンスを提供します。

要約(オリジナル)

The rapid expansion of Internet of Things (IoT) devices has introduced critical security challenges, underscoring the need for accurate anomaly detection. Although numerous studies have proposed machine learning (ML) methods for this purpose, limited research systematically examines how different preprocessing steps–normalization, transformation, and feature selection–interact with distinct model architectures. To address this gap, this paper presents a multi-step evaluation framework assessing the combined impact of preprocessing choices on three ML algorithms: RNN-LSTM, autoencoder neural networks (ANN), and Gradient Boosting (GBoosting). Experiments on the IoTID20 dataset shows that GBoosting consistently delivers superior accuracy across preprocessing configurations, while RNN-LSTM shows notable gains with z-score normalization and autoencoders excel in recall, making them well-suited for unsupervised scenarios. By offering a structured analysis of preprocessing decisions and their interplay with various ML techniques, the proposed framework provides actionable guidance to enhance anomaly detection performance in IoT environments.

arxiv情報

著者 Mohammed Al-Qudah,Fadi AlMahamid
発行日 2025-05-22 16:28:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | A Multi-Step Comparative Framework for Anomaly Detection in IoT Data Streams はコメントを受け付けていません

How high is `high’? Rethinking the roles of dimensionality in topological data analysis and manifold learning

要約

一般化されたハンソンライト不平等を提示し、それを使用して、データポイントクラウドのジオメトリに関する新しい統計的洞察を確立します。
データの一般的なランダム関数モデルの設定では、次元の3つの概念が再生される役割を明確にします。周囲の固有の次元$ p _ {\ mathrm {int}} $。
サンプル全体の機能的な複雑さを測定する相関ランク。
データに隠された多様体構造の次元である潜在的な内因性次元。
我々の分析は、持続図が潜在的な相同性を明らかにし、マニホールド構造が出現するために$ p _ {\ mathrm {int}} \ gg \ log n $、$ n $がサンプルサイズであることが十分であることを示しています。
これらの理論的視点から通知されて、Gardner et al。
(Nature、2022):私たちの調査結果は、この構造が実際に物理空間に等程度であることを初めて明らかにします。つまり、グリッド細胞の活動は現実世界の幾何学的に忠実な表現を伝えます。

要約(オリジナル)

We present a generalised Hanson-Wright inequality and use it to establish new statistical insights into the geometry of data point-clouds. In the setting of a general random function model of data, we clarify the roles played by three notions of dimensionality: ambient intrinsic dimension $p_{\mathrm{int}}$, which measures total variability across orthogonal feature directions; correlation rank, which measures functional complexity across samples; and latent intrinsic dimension, which is the dimension of manifold structure hidden in data. Our analysis shows that in order for persistence diagrams to reveal latent homology and for manifold structure to emerge it is sufficient that $p_{\mathrm{int}}\gg \log n$, where $n$ is the sample size. Informed by these theoretical perspectives, we revisit the ground-breaking neuroscience discovery of toroidal structure in grid-cell activity made by Gardner et al. (Nature, 2022): our findings reveal, for the first time, evidence that this structure is in fact isometric to physical space, meaning that grid cell activity conveys a geometrically faithful representation of the real world.

arxiv情報

著者 Hannah Sansford,Nick Whiteley,Patrick Rubin-Delanchy
発行日 2025-05-22 16:34:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML | How high is `high’? Rethinking the roles of dimensionality in topological data analysis and manifold learning はコメントを受け付けていません

SimSort: A Data-Driven Framework for Spike Sorting by Large-Scale Electrophysiology Simulation

要約

スパイクソートは、脳内の電極によって記録された個々のニューロンから電気信号を識別および分離するニューラル記録に不可欠なプロセスであり、研究者が特定のニューロンがどのように通信し、情報を処理するかを研究できるようにします。
重要な神経科学的ブレークスルーに貢献したスパイクの並べ替え方法は多数存在しますが、多くはヒューリスティックに設計されているため、実際の神経記録からグラウンドトゥルースラベルを取得することが難しいため、正確性を検証することが困難です。
この作業では、データ駆動型の深い学習ベースのアプローチを探ります。
まず、生物学的に現実的な計算モデルを使用した電気生理学シミュレーションを通じて大規模なデータセットを作成することから始めます。
次に、スパイクソートのための事前削除フレームワークであるSimSortを提示します。
シミュレートされたデータのみでトレーニングされたSimSortは、実際のスパイクソートタスクに対するゼロショットの一般化可能性を実証し、複数のベンチマークにわたって既存の方法で一貫した改善をもたらします。
これらの結果は、実験的神経科学におけるスパイクソートの堅牢性とスケーラビリティを強化するためのシミュレーション駆動型の事前供与の可能性を強調しています。

要約(オリジナル)

Spike sorting is an essential process in neural recording, which identifies and separates electrical signals from individual neurons recorded by electrodes in the brain, enabling researchers to study how specific neurons communicate and process information. Although there exist a number of spike sorting methods which have contributed to significant neuroscientific breakthroughs, many are heuristically designed, making it challenging to verify their correctness due to the difficulty of obtaining ground truth labels from real-world neural recordings. In this work, we explore a data-driven, deep learning-based approach. We begin by creating a large-scale dataset through electrophysiology simulations using biologically realistic computational models. We then present SimSort, a pretraining framework for spike sorting. Trained solely on simulated data, SimSort demonstrates zero-shot generalizability to real-world spike sorting tasks, yielding consistent improvements over existing methods across multiple benchmarks. These results highlight the potential of simulation-driven pretraining to enhance the robustness and scalability of spike sorting in experimental neuroscience.

arxiv情報

著者 Yimu Zhang,Dongqi Han,Yansen Wang,Zhenning Lv,Yu Gu,Dongsheng Li
発行日 2025-05-22 16:48:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, q-bio.NC | SimSort: A Data-Driven Framework for Spike Sorting by Large-Scale Electrophysiology Simulation はコメントを受け付けていません

Statistical Test for Saliency Maps of Graph Neural Networks via Selective Inference

要約

グラフニューラルネットワーク(GNNS)は、さまざまなドメインでグラフ構造化データを処理する能力で顕著になりました。
ただし、GNNの決定を解釈することは重要な課題であり、影響力のあるノードとエッジを識別するための顕著性マップの採用につながります。
その有用性にもかかわらず、特にノイズに対する堅牢性の観点から、GNN顕著性マップの信頼性が疑問視されています。
この研究では、顕著性マップの重要性を厳密に評価するための統計テストフレームワークを提案します。
私たちの主な貢献は、データの二重浸漬によって引き起こされるタイプIエラー率のインフレに対処し、選択的推論のフレームワークを活用することにあります。
私たちの方法は、タイプIエラー率を制御しながら統計的に有効な$ p $値を提供し、特定された顕著なサブグラフにランダムアーティファクトではなく意味のある情報が含まれるようにします。
当社の方法の有効性を実証するために、合成データセットと実世界の両方のデータセットで実験を実施し、GNN解釈の信頼性を評価する際の有効性を示しています。

要約(オリジナル)

Graph Neural Networks (GNNs) have gained prominence for their ability to process graph-structured data across various domains. However, interpreting GNN decisions remains a significant challenge, leading to the adoption of saliency maps for identifying influential nodes and edges. Despite their utility, the reliability of GNN saliency maps has been questioned, particularly in terms of their robustness to noise. In this study, we propose a statistical testing framework to rigorously evaluate the significance of saliency maps. Our main contribution lies in addressing the inflation of the Type I error rate caused by double-dipping of data, leveraging the framework of Selective Inference. Our method provides statistically valid $p$-values while controlling the Type I error rate, ensuring that identified salient subgraphs contain meaningful information rather than random artifacts. To demonstrate the effectiveness of our method, we conduct experiments on both synthetic and real-world datasets, showing its effectiveness in assessing the reliability of GNN interpretations.

arxiv情報

著者 Shuichi Nishino,Tomohiro Shiraishi,Teruyuki Katsuoka,Ichiro Takeuchi
発行日 2025-05-22 16:50:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML | Statistical Test for Saliency Maps of Graph Neural Networks via Selective Inference はコメントを受け付けていません

Code Graph Model (CGM): A Graph-Integrated Large Language Model for Repository-Level Software Engineering Tasks

要約

大規模な言語モデル(LLMS)の最近の進歩は、機能レベルのコード生成に有望であることを示していますが、リポジトリレベルのソフトウェアエンジニアリングタスクは依然として困難です。
現在のソリューションは、主に独自のLLMエージェントに依存しており、予測不可能性を導入し、アクセシビリティを制限し、データプライバシーとモデルのカスタマイズに関する懸念を引き起こします。
このペーパーでは、オープンソースLLMSがエージェントベースのアプローチを必要とせずにリポジトリレベルのタスクに効果的に対処できるかどうかを調査します。
これは、LLMがセマンティック情報と構造依存関係を介してコードベース内の機能とファイルを理解できるようにすることで可能であることを示します。
この目的のために、リポジトリコードグラフ構造をLLMの注意メカニズムに統合し、特殊なアダプターを使用してLLMの入力スペースにマップノード属性を統合するコードグラフモデル(CGM)を導入します。
エージェントレスグラフラグフレームワークと組み合わせると、オープンソースQWEN2.5-72Bモデルを使用して、SWEベンチライトベンチマークで43.00%の解像度率を達成します。
このパフォーマンスは、オープンウェイトモデルの中で1位、オープンソースシステムを備えた方法の中で2番目にランクされ、全体で8番目にランク付けされ、以前のベストオープンソースベースのメソッドを12.33%上回ります。

要約(オリジナル)

Recent advances in Large Language Models (LLMs) have shown promise in function-level code generation, yet repository-level software engineering tasks remain challenging. Current solutions predominantly rely on proprietary LLM agents, which introduce unpredictability and limit accessibility, raising concerns about data privacy and model customization. This paper investigates whether open-source LLMs can effectively address repository-level tasks without requiring agent-based approaches. We demonstrate this is possible by enabling LLMs to comprehend functions and files within codebases through their semantic information and structural dependencies. To this end, we introduce Code Graph Models (CGMs), which integrate repository code graph structures into the LLM’s attention mechanism and map node attributes to the LLM’s input space using a specialized adapter. When combined with an agentless graph RAG framework, our approach achieves a 43.00% resolution rate on the SWE-bench Lite benchmark using the open-source Qwen2.5-72B model. This performance ranks first among open weight models, second among methods with open-source systems, and eighth overall, surpassing the previous best open-source model-based method by 12.33%.

arxiv情報

著者 Hongyuan Tao,Ying Zhang,Zhenhao Tang,Hongen Peng,Xukun Zhu,Bingchang Liu,Yingguang Yang,Ziyin Zhang,Zhaogui Xu,Haipeng Zhang,Linchao Zhu,Rui Wang,Hang Yu,Jianguo Li,Peng Di
発行日 2025-05-22 17:00:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.SE | Code Graph Model (CGM): A Graph-Integrated Large Language Model for Repository-Level Software Engineering Tasks はコメントを受け付けていません

Unsupervised Prompting for Graph Neural Networks

要約

グラフニューラルネットワーク(GNNS)の迅速な調整方法は、トレーニング前のステップと微調整ステップの間のセマンティックギャップに対処するために一般的になりました。
ただし、既存のGNNプロンプトメソッドはラベル付きデータに依存しており、下流タスクの軽量微調整を伴います。
一方、大規模な言語モデル(LLMS)のコンテキスト内学習方法は、パラメーターの更新がなく、ラベル付けされたデータがないか、最小限のラベル付けされたデータを使用して有望なパフォーマンスを示しています。
これらのアプローチに触発されて、この作業では、最初にGNNプロンプトの方法を評価するための挑戦的な問題のセットアップを紹介します。
このセットアップは、プロンプト関数を促進し、GNNのパラメーターを更新せずにラベル付きデータを使用して、共変量シフトの下で、事前に訓練されたGNNの一般化をターゲットデータセットに強化します。
次に、擬似標識による一貫性の正則化に基づいて、完全に監視されていないプロンプト方法を提案します。
2つの正規化手法を使用して、プロンプトされたグラフの分布を元のデータに合わせ、偏った予測を減らします。
問題の設定に基づく広範な実験を通じて、監視されていないアプローチが、ラベルにアクセスできる最先端のプロンプト方法よりも優れていることを実証します。

要約(オリジナル)

Prompt tuning methods for Graph Neural Networks (GNNs) have become popular to address the semantic gap between pre-training and fine-tuning steps. However, existing GNN prompting methods rely on labeled data and involve lightweight fine-tuning for downstream tasks. Meanwhile, in-context learning methods for Large Language Models (LLMs) have shown promising performance with no parameter updating and no or minimal labeled data. Inspired by these approaches, in this work, we first introduce a challenging problem setup to evaluate GNN prompting methods. This setup encourages a prompting function to enhance a pre-trained GNN’s generalization to a target dataset under covariate shift without updating the GNN’s parameters and with no labeled data. Next, we propose a fully unsupervised prompting method based on consistency regularization through pseudo-labeling. We use two regularization techniques to align the prompted graphs’ distribution with the original data and reduce biased predictions. Through extensive experiments under our problem setting, we demonstrate that our unsupervised approach outperforms the state-of-the-art prompting methods that have access to labels.

arxiv情報

著者 Peyman Baghershahi,Sourav Medya
発行日 2025-05-22 17:03:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Unsupervised Prompting for Graph Neural Networks はコメントを受け付けていません

Scalable and Interpretable Contextual Bandits: A Literature Review and Retail Offer Prototype

要約

このホワイトペーパーでは、コンテキストマルチアライムバンディット(CMAB)メソッドの簡潔なレビューを紹介し、スケーラブルで解釈可能なオファー選択のための実験的なフレームワークを紹介し、急速に変化するオファーの課題に対処します。
アプローチは製品カテゴリレベルでコンテキストをモデル化し、オファーが複数のカテゴリにまたがることができるようになり、同様のオファー全体で知識の転送を可能にします。
これにより、動的環境での学習効率と一般化が改善されます。
このフレームワークは、マルチカテゴリコンテキストをサポートするために標準のCMAB方法論を拡張し、効率的な機能エンジニアリングとモジュラー設計を通じてスケーラビリティを実現します。
MPG(メンバー購入ギャップ)やMF(Matrix Factorization)などの高度な機能は、微妙なユーザーオファーインタラクションをキャプチャし、実用的な展開のためのPythonでの実装を使用します。
重要な貢献度は大規模な解釈可能性です。ロジスティック回帰モデルは、リアルタイム、ユーザーレベルの追跡、進化する好みの説明のために大規模な言語モデル(LLM)インターフェイスを介してアクセス可能な透明な重量ベクトルを生成します。
これにより、詳細なメンバープロファイルの生成と行動パターンの識別が可能になり、パーソナライズされたオファーの最適化をサポートし、自動化された意思決定に対する信頼を高めることができます。
一般化された線形モデルやトンプソンサンプリングなどの確立されたパラダイムと一緒にプロトタイプを位置付けることにより、研究と実世界のCMABアプリケーションの両方に対してその価値を示します。

要約(オリジナル)

This paper presents a concise review of Contextual Multi-Armed Bandit (CMAB) methods and introduces an experimental framework for scalable, interpretable offer selection, addressing the challenge of fast-changing offers. The approach models context at the product category level, allowing offers to span multiple categories and enabling knowledge transfer across similar offers. This improves learning efficiency and generalization in dynamic environments. The framework extends standard CMAB methodology to support multi-category contexts, and achieves scalability through efficient feature engineering and modular design. Advanced features such as MPG (Member Purchase Gap) and MF (Matrix Factorization) capture nuanced user-offer interactions, with implementation in Python for practical deployment. A key contribution is interpretability at scale: logistic regression models yield transparent weight vectors, accessible via a large language model (LLM) interface for real-time, user-level tracking and explanation of evolving preferences. This enables the generation of detailed member profiles and identification of behavioral patterns, supporting personalized offer optimization and enhancing trust in automated decisions. By situating our prototype alongside established paradigms like Generalized Linear Models and Thompson Sampling, we demonstrate its value for both research and real-world CMAB applications.

arxiv情報

著者 Nikola Tankovic,Robert Sajina
発行日 2025-05-22 17:13:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Scalable and Interpretable Contextual Bandits: A Literature Review and Retail Offer Prototype はコメントを受け付けていません

TULiP: Test-time Uncertainty Estimation via Linearization and Weight Perturbation

要約

信頼できる不確実性推定方法は、オープンワールドの深い学習モデルの安全な展開に不可欠な多くの最新の分散(OOD)検出器の基礎です。
この作業では、OOD検出の理論的に駆動される事後不確実性推定器であるチューリップを提案します。
私たちのアプローチは、収束前にネットワークに適用される仮想的な摂動を考慮します。
線形化されたトレーニングのダイナミクスに基づいて、このような摂動の効果をバウンドし、摂動モデルパラメーターによって計算可能な不確実性スコアをもたらします。
最終的に、私たちのアプローチは、サンプリングされた予測のセットから不確実性を計算します。
合成回帰データセットと分類データセットのバウンドを視覚化します。
さらに、画像分類のために大規模なOOD検出ベンチマークを使用してチューリップの有効性を示します。
私たちの方法は、特に分散近くのサンプルの場合、最先端のパフォーマンスを示しています。

要約(オリジナル)

A reliable uncertainty estimation method is the foundation of many modern out-of-distribution (OOD) detectors, which are critical for safe deployments of deep learning models in the open world. In this work, we propose TULiP, a theoretically-driven post-hoc uncertainty estimator for OOD detection. Our approach considers a hypothetical perturbation applied to the network before convergence. Based on linearized training dynamics, we bound the effect of such perturbation, resulting in an uncertainty score computable by perturbing model parameters. Ultimately, our approach computes uncertainty from a set of sampled predictions. We visualize our bound on synthetic regression and classification datasets. Furthermore, we demonstrate the effectiveness of TULiP using large-scale OOD detection benchmarks for image classification. Our method exhibits state-of-the-art performance, particularly for near-distribution samples.

arxiv情報

著者 Yuhui Zhang,Dongshen Wu,Yuichiro Wada,Takafumi Kanamori
発行日 2025-05-22 17:16:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML | TULiP: Test-time Uncertainty Estimation via Linearization and Weight Perturbation はコメントを受け付けていません