Revisiting the Equivalence of Bayesian Neural Networks and Gaussian Processes: On the Importance of Learning Activations

要約

ガウスプロセス(GPS)は、関数空間前のプライアーを指定するための便利なフレームワークを提供し、不確実性をモデル化するための自然な選択となっています。
対照的に、ベイジアンニューラルネットワーク(BNNS)はより大きなスケーラビリティと拡張性を提供しますが、GPSの有利な特性がありません。
これにより、GP様行動を複製できるBNNの開発が動機付けられます。
ただし、既存のソリューションは特定のGPカーネルに限定されるか、ヒューリスティックに依存しています。
訓練可能な活性化が、GPプライアーを幅広いBNNに効果的にマッピングするために重要であることを実証します。
具体的には、閉じた形式の2ワーザースタイン距離を活用して、リダメーター化されたプライアーと活性化の効率的な勾配ベースの最適化を活用します。
学習したアクティベーションを超えて、設計ごとにグローバルな定常性を確保するトレーニング可能な定期的なアクティベーションを導入し、GPハイパーパラメーターを条件として効率的なモデル選択を可能にする機能的プライアーも導入します。
経験的に、私たちの方法は、より強力な理論的基盤を提供しながら、既存のアプローチを一貫して上回るか、ヒューリスティックな方法のパフォーマンスを上回ります。

要約(オリジナル)

Gaussian Processes (GPs) provide a convenient framework for specifying function-space priors, making them a natural choice for modeling uncertainty. In contrast, Bayesian Neural Networks (BNNs) offer greater scalability and extendability but lack the advantageous properties of GPs. This motivates the development of BNNs capable of replicating GP-like behavior. However, existing solutions are either limited to specific GP kernels or rely on heuristics. We demonstrate that trainable activations are crucial for effective mapping of GP priors to wide BNNs. Specifically, we leverage the closed-form 2-Wasserstein distance for efficient gradient-based optimization of reparameterized priors and activations. Beyond learned activations, we also introduce trainable periodic activations that ensure global stationarity by design, and functional priors conditioned on GP hyperparameters to allow efficient model selection. Empirically, our method consistently outperforms existing approaches or matches performance of the heuristic methods, while offering stronger theoretical foundations.

arxiv情報

著者 Marcin Sendera,Amin Sorkhei,Tomasz Kuśmierczyk
発行日 2025-02-17 17:11:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML | Revisiting the Equivalence of Bayesian Neural Networks and Gaussian Processes: On the Importance of Learning Activations はコメントを受け付けていません

Classifying the Stoichiometry of Virus-like Particles with Interpretable Machine Learning

要約

ウイルス様粒子(VLP)は、免疫トリガー特性のためにワクチンの発達に役立ちます。
それらの化学量論を理解する、VLPを形成するタンパク質サブユニットの数は、ワクチンの最適化にとって重要です。
しかし、化学量論を決定するための現在の実験方法は時間がかかり、高度に精製されたタンパク質が必要です。
タンパク質の化学量論クラスを効率的に分類するために、新しいデータセットをキュレートし、解釈可能なデータ駆動型のパイプラインをレバレバリングする線形機械学習モデルを提案します。
また、モデルのパフォーマンスと解釈可能性に対する機能エンコーディングの影響、および分類に影響を与える主要なタンパク質シーケンス機能を特定する方法についても調査します。
パイプラインの評価は、VLPアセンブリに影響を与える可能性のあるタンパク質特徴を明らかにしながら、化学量論を分類できることを示しています。
この作業で使用されているデータとコードは、https://github.com/shef-are/stoicimlで公開されています。

要約(オリジナル)

Virus-like particles (VLPs) are valuable for vaccine development due to their immune-triggering properties. Understanding their stoichiometry, the number of protein subunits to form a VLP, is critical for vaccine optimisation. However, current experimental methods to determine stoichiometry are time-consuming and require highly purified proteins. To efficiently classify stoichiometry classes in proteins, we curate a new dataset and propose an interpretable, data-driven pipeline leveraging linear machine learning models. We also explore the impact of feature encoding on model performance and interpretability, as well as methods to identify key protein sequence features influencing classification. The evaluation of our pipeline demonstrates that it can classify stoichiometry while revealing protein features that possibly influence VLP assembly. The data and code used in this work are publicly available at https://github.com/Shef-AIRE/StoicIML.

arxiv情報

著者 Jiayang Zhang,Xianyuan Liu,Wei Wu,Sina Tabakhi,Wenrui Fan,Shuo Zhou,Kang Lan Tee,Tuck Seng Wong,Haiping Lu
発行日 2025-02-17 17:16:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, q-bio.BM, q-bio.QM | Classifying the Stoichiometry of Virus-like Particles with Interpretable Machine Learning はコメントを受け付けていません

Low-Rank Thinning

要約

薄くなる目標は、小さなポイントの小さなセットを使用してデータセットを要約することです。
驚くべきことに、カーネルの半分や圧縮などのガウス薄薄化アルゴリズムは、均一なサブサンプリングの品質と一致し、要約ポイントの数を大幅に減らします。
ただし、既存の保証は、制限された分布範囲とカーネルベースの品質測定のみをカバーし、悲観的な次元依存性に苦しんでいます。
これらの欠陥に対処するために、カーネルまたはデータマトリックスがほぼ低ランクである場合はいつでも高品質の圧縮を保証する、分布およびカーネルに適用されるサブガウス薄化の新しい低ランク分析を導入します。
技術の幅広い適用性を実証するために、トランスの注意を近似し、並べ替えによる確率勾配トレーニングを加速するための最もよく知られている保証を改善する実用的なサブガウス薄化アプローチを設計し、直線的な時間における分布を区別します。

要約(オリジナル)

The goal in thinning is to summarize a dataset using a small set of representative points. Remarkably, sub-Gaussian thinning algorithms like Kernel Halving and Compress can match the quality of uniform subsampling while substantially reducing the number of summary points. However, existing guarantees cover only a restricted range of distributions and kernel-based quality measures and suffer from pessimistic dimension dependence. To address these deficiencies, we introduce a new low-rank analysis of sub-Gaussian thinning that applies to any distribution and any kernel, guaranteeing high-quality compression whenever the kernel or data matrix is approximately low-rank. To demonstrate the broad applicability of the techniques, we design practical sub-Gaussian thinning approaches that improve upon the best known guarantees for approximating attention in transformers, accelerating stochastic gradient training through reordering, and distinguishing distributions in near-linear time.

arxiv情報

著者 Annabelle Michael Carrell,Albert Gong,Abhishek Shetty,Raaz Dwivedi,Lester Mackey
発行日 2025-02-17 17:30:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.OC, math.ST, stat.ME, stat.ML, stat.TH | Low-Rank Thinning はコメントを受け付けていません

Unifying Explainable Anomaly Detection and Root Cause Analysis in Dynamical Systems

要約

さまざまな科学および工学ドメインで一般的な動的システムは、パフォーマンスと信頼性に大きな影響を与える可能性のある異常の影響を受けます。
このペーパーでは、異常検出、根本原因の局在化、および通常の微分方程式(ODE)によって支配された動的システムにおける異常なタイプの分類の重要な課題について説明します。
異常の2つのカテゴリを定義します。つまり、相互接続された変数を介して伝播するサイバーアノマリーと、個々の変数に局在したままの測定異常です。
これらの課題に対処するために、モデル内注文の説明可能な学習フレームワークである解釈可能な因果関係の通常の微分方程式(ICODE)ネットワークを提案します。
ICODEは、根本原因分析(RCA)を実行するために説明チャネルを介して因果関係の推論を使用しながら、異常検出のためにニューラルODを活用し、特定の期間が異常としてフラグが付けられる理由を解明します。
ICODEは、単一の解釈可能なフレームワーク内で異常検出、RCA、および異常タイプの分類を同時に実行するように設計されています。
私たちのアプローチは、異常がシステムの根本的なodeを変化させ、変数間の因果関係の変化として顕在化するという仮説に基づいています。
学習されたモデルパラメーターの摂動をどのように使用して、時系列データに異常とその根本原因を特定できるかについての理論的分析を提供します。
包括的な実験的評価は、さまざまな動的システムにわたるICODEの有効性を実証し、異常を正確に検出し、その種類を分類し、その起源を特定する能力を示しています。

要約(オリジナル)

Dynamical systems, prevalent in various scientific and engineering domains, are susceptible to anomalies that can significantly impact their performance and reliability. This paper addresses the critical challenges of anomaly detection, root cause localization, and anomaly type classification in dynamical systems governed by ordinary differential equations (ODEs). We define two categories of anomalies: cyber anomalies, which propagate through interconnected variables, and measurement anomalies, which remain localized to individual variables. To address these challenges, we propose the Interpretable Causality Ordinary Differential Equation (ICODE) Networks, a model-intrinsic explainable learning framework. ICODE leverages Neural ODEs for anomaly detection while employing causality inference through an explanation channel to perform root cause analysis (RCA), elucidating why specific time periods are flagged as anomalous. ICODE is designed to simultaneously perform anomaly detection, RCA, and anomaly type classification within a single, interpretable framework. Our approach is grounded in the hypothesis that anomalies alter the underlying ODEs of the system, manifesting as changes in causal relationships between variables. We provide a theoretical analysis of how perturbations in learned model parameters can be utilized to identify anomalies and their root causes in time series data. Comprehensive experimental evaluations demonstrate the efficacy of ICODE across various dynamical systems, showcasing its ability to accurately detect anomalies, classify their types, and pinpoint their origins.

arxiv情報

著者 Yue Sun,Rick S. Blum,Parv Venkitasubramaniam
発行日 2025-02-17 18:01:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML | Unifying Explainable Anomaly Detection and Root Cause Analysis in Dynamical Systems はコメントを受け付けていません

How compositional generalization and creativity improve as diffusion models are trained

要約

自然データは、多くの場合、機能の階層的な構成として編成されます。
組み合わせ数の新しいデータを生成するために、組成ルールを学習するために生成モデルはいくつのサンプルが必要ですか?
データのどのシグナルが学習するために悪用されますか?
これらの質問を理論的および経験的に調査します。
理論的には、言語や画像などのデータの構造を表すために使用される、単純な確率的コンテキストのない文法で訓練された拡散モデルを検討します。
拡散モデルは、統計的に類似したコンテキストを持つクラスタリング機能に必要なサンプルの複雑さで構成ルールを学習することを実証します。これは、Word2VECアルゴリズムと同様のプロセスです。
ただし、このクラスタリングは階層的に登場します。より長いコンテキストに関連する高レベルでより抽象的な機能には、より多くのデータを特定する必要があります。
このメカニズムは、上記のコンテキストサイズとともに多項式に拡大するサンプルの複雑さにつながります。
その結果、中間データセットサイズでトレーニングされた拡散モデルは、特定のスケールまで一貫性のあるデータを生成しますが、グローバルな一貫性がありません。
これらの予測をさまざまなドメインでテストし、顕著な一致を見つけます。生成されたテキストと画像の両方が、トレーニング時間またはデータセットサイズが大きくなるにつれて徐々に大きなコヒーレンスの長さを実現します。
ここで紹介する階層的クラスタリングメカニズムと物理学の繰り込みグループとの間のつながりについて説明します。

要約(オリジナル)

Natural data is often organized as a hierarchical composition of features. How many samples do generative models need to learn the composition rules, so as to produce a combinatorial number of novel data? What signal in the data is exploited to learn? We investigate these questions both theoretically and empirically. Theoretically, we consider diffusion models trained on simple probabilistic context-free grammars – tree-like graphical models used to represent the structure of data such as language and images. We demonstrate that diffusion models learn compositional rules with the sample complexity required for clustering features with statistically similar context, a process similar to the word2vec algorithm. However, this clustering emerges hierarchically: higher-level, more abstract features associated with longer contexts require more data to be identified. This mechanism leads to a sample complexity that scales polynomially with the said context size. As a result, diffusion models trained on intermediate dataset size generate data coherent up to a certain scale, but that lacks global coherence. We test these predictions in different domains, and find remarkable agreement: both generated texts and images achieve progressively larger coherence lengths as the training time or dataset size grows. We discuss connections between the hierarchical clustering mechanism we introduce here and the renormalization group in physics.

arxiv情報

著者 Alessandro Favero,Antonio Sclocchi,Francesco Cagnetta,Pascal Frossard,Matthieu Wyart
発行日 2025-02-17 18:06:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML | How compositional generalization and creativity improve as diffusion models are trained はコメントを受け付けていません

SWE-Lancer: Can Frontier LLMs Earn $1 Million from Real-World Freelance Software Engineering?

要約

SWE-Lancerを紹介します。これは、Upworkの1,400を超えるフリーランスソフトウェアエンジニアリングタスクのベンチマークで、実際の支払いで合計100万米ドルの価値があります。
SWE-Lancerには、\ $ 50のバグ修正から\ $ 32,000の機能実装までの独立したエンジニアリングタスクと、モデルが技術的な実装提案を選択する管理タスクの両方を含みます。
独立したタスクは、経験豊富なソフトウェアエンジニアによってトリプル検証されたエンドツーエンドテストで採点されますが、元の雇用されたエンジニアリングマネージャーの選択に対して管理上の決定が評価されます。
モデルのパフォーマンスを評価し、フロンティアモデルがまだタスクの大部分を解決できないことがわかります。
将来の研究を促進するために、統一されたDockerイメージとパブリック評価の分割であるSWE-Lancer Diamond(https://github.com/openai/swelancer-benchmark)をオープンソースします。
モデルのパフォーマンスを金銭的価値にマッピングすることにより、SWE-LancerがAIモデル開発の経済的影響に関するより多くの研究を可能にすることを願っています。

要約(オリジナル)

We introduce SWE-Lancer, a benchmark of over 1,400 freelance software engineering tasks from Upwork, valued at \$1 million USD total in real-world payouts. SWE-Lancer encompasses both independent engineering tasks–ranging from \$50 bug fixes to \$32,000 feature implementations–and managerial tasks, where models choose between technical implementation proposals. Independent tasks are graded with end-to-end tests triple-verified by experienced software engineers, while managerial decisions are assessed against the choices of the original hired engineering managers. We evaluate model performance and find that frontier models are still unable to solve the majority of tasks. To facilitate future research, we open-source a unified Docker image and a public evaluation split, SWE-Lancer Diamond (https://github.com/openai/SWELancer-Benchmark). By mapping model performance to monetary value, we hope SWE-Lancer enables greater research into the economic impact of AI model development.

arxiv情報

著者 Samuel Miserendino,Michele Wang,Tejal Patwardhan,Johannes Heidecke
発行日 2025-02-17 18:41:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | SWE-Lancer: Can Frontier LLMs Earn $1 Million from Real-World Freelance Software Engineering? はコメントを受け付けていません

Minimal Ranks, Maximum Confidence: Parameter-efficient Uncertainty Quantification for LoRA

要約

低ランク適応(LORA)により、重量の更新を低ランクマトリックスに分解し、ストレージと計算オーバーヘッドを大幅に削減することにより、大きな言語モデルのパラメーター効率の高い微調整を可能にします。
効果的ですが、標準のLORAには不確実性の定量化のメカニズムがあり、自信過剰で較正されていないモデルにつながります。
LORAのベイジアンバリエーションはこの制限に対処しますが、トレーニング可能なパラメーターの数が大幅に増加したため、元の効率性の向上を部分的に相殺します。
さらに、これらのモデルは訓練が難しく、不安定な収束に苦しむ可能性があります。
この作業では、新しいパラメーター効率の高いベイジアンロラを提案し、非常に低次元パラメータースペースで効果的な不確実性の定量化が達成できることを実証します。
提案された方法は、計算効率を維持しながら、キャリブレーションと一般化の改善により強力なパフォーマンスを実現します。
私たちの経験的調査結果は、重量空間の適切な投影により、(1)不確実性を低次元空間で効果的にモデル化できることを示しています。

要約(オリジナル)

Low-Rank Adaptation (LoRA) enables parameter-efficient fine-tuning of large language models by decomposing weight updates into low-rank matrices, significantly reducing storage and computational overhead. While effective, standard LoRA lacks mechanisms for uncertainty quantification, leading to overconfident and poorly calibrated models. Bayesian variants of LoRA address this limitation, but at the cost of a significantly increased number of trainable parameters, partially offsetting the original efficiency gains. Additionally, these models are harder to train and may suffer from unstable convergence. In this work, we propose a novel parameter-efficient Bayesian LoRA, demonstrating that effective uncertainty quantification can be achieved in very low-dimensional parameter spaces. The proposed method achieves strong performance with improved calibration and generalization while maintaining computational efficiency. Our empirical findings show that, with the appropriate projection of the weight space: (1) uncertainty can be effectively modeled in a low-dimensional space, and (2) weight covariances exhibit low ranks.

arxiv情報

著者 Patryk Marszałek,Klaudia Bałazy,Jacek Tabor,Tomasz Kuśmierczyk
発行日 2025-02-17 18:46:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Minimal Ranks, Maximum Confidence: Parameter-efficient Uncertainty Quantification for LoRA はコメントを受け付けていません

Splitting criteria for ordinal decision trees: an experimental study

要約

順序分類(OC)は、ラベルが自然な順序を示す分類タスクに対処する機械学習フィールドです。
すべてのクラスを等しく異なるものとして扱う名目分類とは異なり、OCは順序関係を考慮に入れ、より正確で関連性のある結果を生み出します。
これは、分類エラーの大きさが影響を与えるアプリケーションで特に重要です。
それにもかかわらず、OCの問題は多くの場合、公称方法を使用して取り組まれ、最適ではないソリューションにつながります。
意思決定ツリーは最も人気のある分類アプローチの1つですが、他の分類器と比較して、順序ツリーベースのアプローチはあまり注目されていません。
この作業は、順序関係をキャプチャするために特別に設計された樹木ベースの方法論の実験的研究を実施します。
順序分割基準の包括的な調査が提供され、明確にするために文献で使用される表記法を標準化します。
3つの順序分割基準、順序ジニ(ogini)、加重情報ゲイン(WIG)、およびランキング不純物(RI)は、決定ツリー分類器に組み込むことにより、最初の2つの名目対応(GINIおよび情報ゲイン)と比較されます。

よく知られているOC評価メトリックを使用した順序と公称分割基準の最初の実験的比較をサポートする、45の公開されているOCデータセットを考慮した広範なリポジトリが提示されています。
結果の統計分析は、Oginiがこれまでで最も効果的な順序分割基準として強調しています。
ソースコード、データセット、および結果は、研究コミュニティが利用できるようになります。

要約(オリジナル)

Ordinal Classification (OC) is a machine learning field that addresses classification tasks where the labels exhibit a natural order. Unlike nominal classification, which treats all classes as equally distinct, OC takes the ordinal relationship into account, producing more accurate and relevant results. This is particularly critical in applications where the magnitude of classification errors has implications. Despite this, OC problems are often tackled using nominal methods, leading to suboptimal solutions. Although decision trees are one of the most popular classification approaches, ordinal tree-based approaches have received less attention when compared to other classifiers. This work conducts an experimental study of tree-based methodologies specifically designed to capture ordinal relationships. A comprehensive survey of ordinal splitting criteria is provided, standardising the notations used in the literature for clarity. Three ordinal splitting criteria, Ordinal Gini (OGini), Weighted Information Gain (WIG), and Ranking Impurity (RI), are compared to the nominal counterparts of the first two (Gini and information gain), by incorporating them into a decision tree classifier. An extensive repository considering 45 publicly available OC datasets is presented, supporting the first experimental comparison of ordinal and nominal splitting criteria using well-known OC evaluation metrics. Statistical analysis of the results highlights OGini as the most effective ordinal splitting criterion to date. Source code, datasets, and results are made available to the research community.

arxiv情報

著者 Rafael Ayllón-Gavilán,Francisco José Martínez-Estudillo,David Guijo-Rubio,César Hervás-Martínez,Pedro Antonio Gutiérrez
発行日 2025-02-17 18:53:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Splitting criteria for ordinal decision trees: an experimental study はコメントを受け付けていません

Learning Smooth and Expressive Interatomic Potentials for Physical Property Prediction

要約

機械学習間原子間ポテンシャル(MLIP)は、計算コストの一部で量子機械的計算を近似するのにますます効果的になっています。
ただし、テストセットの延期されたエラーの低下は、常に下流の物理的プロパティ予測タスクの結果が改善されるとは限りません。
この論文では、分子動的シミュレーション中にエネルギーを節約する実用的な能力に関するMLIPをテストすることを提案します。
合格すると、テストエラーと物理的なプロパティ予測タスクのパフォーマンスとの間に相関が改善されます。
このテストに失敗したモデルにつながる可能性のある選択肢を特定し、これらの観察結果を使用して、非常に発現するモデルを改善します。
結果として得られるモデルであるESENは、材料の安定性予測、熱伝導率予測、フォノン計算など、さまざまな物理的特性予測タスクに関する最先端の結果を提供します。

要約(オリジナル)

Machine learning interatomic potentials (MLIPs) have become increasingly effective at approximating quantum mechanical calculations at a fraction of the computational cost. However, lower errors on held out test sets do not always translate to improved results on downstream physical property prediction tasks. In this paper, we propose testing MLIPs on their practical ability to conserve energy during molecular dynamic simulations. If passed, improved correlations are found between test errors and their performance on physical property prediction tasks. We identify choices which may lead to models failing this test, and use these observations to improve upon highly-expressive models. The resulting model, eSEN, provides state-of-the-art results on a range of physical property prediction tasks, including materials stability prediction, thermal conductivity prediction, and phonon calculations.

arxiv情報

著者 Xiang Fu,Brandon M. Wood,Luis Barroso-Luque,Daniel S. Levine,Meng Gao,Misko Dzamba,C. Lawrence Zitnick
発行日 2025-02-17 18:57:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, physics.comp-ph | Learning Smooth and Expressive Interatomic Potentials for Physical Property Prediction はコメントを受け付けていません

Learning Getting-Up Policies for Real-World Humanoid Robots

要約

自動落下回復は、ヒューマノイドロボットを確実に展開する前に、重要な前提条件です。
ヒューマノイドが転倒した後、ヒューマノイドロボットが動作すると予想されるさまざまな構成のために、立ち上がるための手描きのコントローラーは困難です。
このホワイトペーパーでは、ヒューマノイドロボットがさまざまな地形のさまざまな構成から立ち上がることができるコントローラーを生産する学習フレームワークを開発します。
ヒューマノイド運動学習の以前の成功したアプリケーションとは異なり、上昇するタスクには複雑な接触パターンが含まれ、衝突ジオメトリとスパースの報酬を正確にモデル化する必要があります。
カリキュラムに続く2フェーズアプローチを通じて、これらの課題に対処します。
最初の段階では、滑らかさまたは速度 /トルクの制限に関する最小限の制約の下で、良い上昇軌道を発見することに焦点を当てています。
次に、第2段階では、発見された動きを、初期構成と地形の変動に対して堅牢な展開可能な(つまり、滑らかで遅い)動きに洗練されます。
これらの革新により、現実世界のG1ヒューマノイドロボットは、私たちが考慮した2つの主要な状況から立ち上がることができます:a)横向きに横たわってb)横に横たわって、どちらも平らで変形可能な滑りやすい表面と斜面でテストされました(例えば、ずさんな
草と雪原)。
私たちの知る限り、これは、現実の世界で人間サイズのヒューマノイドロボットのために学んだ学んだ成功したポリシーの最初の成功したデモです。
プロジェクトページ:https://humanoid-getup.github.io/

要約(オリジナル)

Automatic fall recovery is a crucial prerequisite before humanoid robots can be reliably deployed. Hand-designing controllers for getting up is difficult because of the varied configurations a humanoid can end up in after a fall and the challenging terrains humanoid robots are expected to operate on. This paper develops a learning framework to produce controllers that enable humanoid robots to get up from varying configurations on varying terrains. Unlike previous successful applications of humanoid locomotion learning, the getting-up task involves complex contact patterns, which necessitates accurately modeling the collision geometry and sparser rewards. We address these challenges through a two-phase approach that follows a curriculum. The first stage focuses on discovering a good getting-up trajectory under minimal constraints on smoothness or speed / torque limits. The second stage then refines the discovered motions into deployable (i.e. smooth and slow) motions that are robust to variations in initial configuration and terrains. We find these innovations enable a real-world G1 humanoid robot to get up from two main situations that we considered: a) lying face up and b) lying face down, both tested on flat, deformable, slippery surfaces and slopes (e.g., sloppy grass and snowfield). To the best of our knowledge, this is the first successful demonstration of learned getting-up policies for human-sized humanoid robots in the real world. Project page: https://humanoid-getup.github.io/

arxiv情報

著者 Xialin He,Runpei Dong,Zixuan Chen,Saurabh Gupta
発行日 2025-02-17 18:59:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | Learning Getting-Up Policies for Real-World Humanoid Robots はコメントを受け付けていません