Efficient Continual Adaptation of Pretrained Robotic Policy with Online Meta-Learned Adapters

要約

継続的な適応は、一般的な自律エージェントにとって不可欠です。
たとえば、スキルのレパートリーで前提とされた家庭用ロボットは、各世帯に固有の目に見えないタスクに適応する必要があります。
これにより動機付けられ、言語モデルのパラメーター効率の高い微調整に基づいて、以前の作品は軽量アダプターを探索して、前提条件のポリシーを適応させました。
ただし、これらのアプローチはタスクの学習を個別に扱い、タスク間の知識移転を制限します。
このホワイトペーパーでは、オンラインメタ学習アダプター(OMLA)を提案します。
アダプターを直接適用する代わりに、OMLAは、以前に学習したタスクから、新しいメタラーニング目標を通じて現在の学習タスクへの知識移転を促進できます。
シミュレートされた環境と現実世界の両方の環境での広範な実験は、オムラがベースラインの方法と比較してより良い適応パフォーマンスにつながる可能性があることを示しています。
プロジェクトリンク:https://ricky-zhu.github.io/omla/。

要約(オリジナル)

Continual adaptation is essential for general autonomous agents. For example, a household robot pretrained with a repertoire of skills must still adapt to unseen tasks specific to each household. Motivated by this, building upon parameter-efficient fine-tuning in language models, prior works have explored lightweight adapters to adapt pretrained policies, which can preserve learned features from the pretraining phase and demonstrate good adaptation performances. However, these approaches treat task learning separately, limiting knowledge transfer between tasks. In this paper, we propose Online Meta-Learned adapters (OMLA). Instead of applying adapters directly, OMLA can facilitate knowledge transfer from previously learned tasks to current learning tasks through a novel meta-learning objective. Extensive experiments in both simulated and real-world environments demonstrate that OMLA can lead to better adaptation performances compared to the baseline methods. The project link: https://ricky-zhu.github.io/OMLA/.

arxiv情報

著者 Ruiqi Zhu,Endong Sun,Guanhe Huang,Oya Celiktutan
発行日 2025-03-27 13:19:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | Efficient Continual Adaptation of Pretrained Robotic Policy with Online Meta-Learned Adapters はコメントを受け付けていません

Data-Driven Contact-Aware Control Method for Real-Time Deformable Tool Manipulation: A Case Study in the Environmental Swabbing

要約

変形可能なオブジェクト操作(DOM)は、適切なモデルベースの制御戦略を開発することの複雑さのため、ロボット工学における重要な課題のままです。
変形可能なツール操作(DTM)は、ロボットとその環境の間に追加の不確実性を導入することにより、このタスクをさらに複雑にします。
人間はタッチとエクスペリエンスを使用して楽に変形可能なツールを操作しますが、ロボットシステムは安定性と精度を維持するのに苦労しています。
これらの課題に対処するために、食品の安全性のための環境スワブサンプリングのケーススタディを通じて実証された、リアルタイムの変形可能なツール操作のための新しい状態に適したKoopman LQR(SA-KLQR)制御フレームワークを提示します。
この方法は、Koopmanオペレーターベースの制御を活用して、ツールの変形と接触力の状態依存の変動に適応しながら、非線形ダイナミクスを線形化します。
触覚ベースのフィードバックシステムは、SWABツールの角度、接触圧、および表面カバレッジを動的に推定および調節し、食品安全基準の遵守を確保します。
さらに、センサー埋め込まれたコンタクトパッドモニターは、ツールのピボットと変形を緩和するために力分布を強制し、動的相互作用中の安定性を改善します。
実験結果は、SA-KLQRアプローチを検証し、正確な接触角の推定、堅牢な軌跡追跡、信頼できる力の規制を実証します。
提案されたフレームワークは、変形可能なツール操作における精度、適応性、およびリアルタイム制御を強化し、データ駆動型の学習とロボット相互作用タスクにおける最適な制御とのギャップを埋めます。

要約(オリジナル)

Deformable Object Manipulation (DOM) remains a critical challenge in robotics due to the complexities of developing suitable model-based control strategies. Deformable Tool Manipulation (DTM) further complicates this task by introducing additional uncertainties between the robot and its environment. While humans effortlessly manipulate deformable tools using touch and experience, robotic systems struggle to maintain stability and precision. To address these challenges, we present a novel State-Adaptive Koopman LQR (SA-KLQR) control framework for real-time deformable tool manipulation, demonstrated through a case study in environmental swab sampling for food safety. This method leverages Koopman operator-based control to linearize nonlinear dynamics while adapting to state-dependent variations in tool deformation and contact forces. A tactile-based feedback system dynamically estimates and regulates the swab tool’s angle, contact pressure, and surface coverage, ensuring compliance with food safety standards. Additionally, a sensor-embedded contact pad monitors force distribution to mitigate tool pivoting and deformation, improving stability during dynamic interactions. Experimental results validate the SA-KLQR approach, demonstrating accurate contact angle estimation, robust trajectory tracking, and reliable force regulation. The proposed framework enhances precision, adaptability, and real-time control in deformable tool manipulation, bridging the gap between data-driven learning and optimal control in robotic interaction tasks.

arxiv情報

著者 Siavash Mahmoudi,Amirreza Davar,Dongyi Wang
発行日 2025-03-27 13:27:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Data-Driven Contact-Aware Control Method for Real-Time Deformable Tool Manipulation: A Case Study in the Environmental Swabbing はコメントを受け付けていません

How NeRFs and 3D Gaussian Splatting are Reshaping SLAM: a Survey

要約

過去20年にわたって、同時ローカリゼーションとマッピング(SLAM)の分野での研究は重要な進化を遂げており、未知の環境の自律的な調査を可能にする上でその重要な役割を強調しています。
この進化は、手作りの方法から、深い学習の時代から、神経放射輝度フィールド(NERF)および3Dガウススプラッティング(3DG)表現に焦点を当てた最近の開発にまで及びます。
成長する研究機関とトピックに関する包括的な調査の欠如を認識して、このペーパーは、ラディアンスフィールドの最新の進歩のレンズを通してスラムの進歩の最初の包括的な概要を提供することを目的としています。
背景、進化の道、固有の強み、制限に光を当て、動的な進歩と特定の課題を強調するための基本的な参照として機能します。

要約(オリジナル)

Over the past two decades, research in the field of Simultaneous Localization and Mapping (SLAM) has undergone a significant evolution, highlighting its critical role in enabling autonomous exploration of unknown environments. This evolution ranges from hand-crafted methods, through the era of deep learning, to more recent developments focused on Neural Radiance Fields (NeRFs) and 3D Gaussian Splatting (3DGS) representations. Recognizing the growing body of research and the absence of a comprehensive survey on the topic, this paper aims to provide the first comprehensive overview of SLAM progress through the lens of the latest advancements in radiance fields. It sheds light on the background, evolutionary path, inherent strengths and limitations, and serves as a fundamental reference to highlight the dynamic progress and specific challenges.

arxiv情報

著者 Fabio Tosi,Youmin Zhang,Ziren Gong,Erik Sandström,Stefano Mattoccia,Martin R. Oswald,Matteo Poggi
発行日 2025-03-27 14:03:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | How NeRFs and 3D Gaussian Splatting are Reshaping SLAM: a Survey はコメントを受け付けていません

Cooking Task Planning using LLM and Verified by Graph Network

要約

調理作業は、複雑さのためにロボット工学にとって挑戦的な問題のままです。
料理のビデオは、このようなタスクの貴重な情報源ですが、このデータをロボット環境に変換する方法という点で多くの変動性を紹介します。
この研究の目的は、大規模な言語モデル(LLM)ベースのタスクおよびモーションプランニング(TAMP)フレームワークを使用して、字幕付きのビデオから調理タスクプランを自律的に生成し、実行することにより、タスク計画の生成ステップに焦点を当て、このプロセスを合理化することを目的としています。
従来のLLMベースのタスク計画方法は、ビデオの不確実性とその出力の幻覚のリスクにより、調理ビデオデータを解釈するのに適していません。
これらの問題の両方に対処するために、機能的なオブジェクト指向ネットワーク(FOON)と組み合わせてLLMを使用して、計画を検証し、障害の場合にフィードバックを提供します。
この組み合わせは、ロボットによって論理的に正しく、実行可能な操作モーションを使用してタスクシーケンスを生成できます。
デュアルアームロボットセットアップのいくつかのショットLLMのみのアプローチによって生成された計画に対して、私たちのアプローチから5つの調理レシピの生成された計画の実行を比較します。
私たちのアプローチによって生成された4つの計画を正常に実行することができますが、LLMのみを使用して生成された計画の1つだけが実行される可能性があります。

要約(オリジナル)

Cooking tasks remain a challenging problem for robotics due to their complexity. Videos of people cooking are a valuable source of information for such task, but introduces a lot of variability in terms of how to translate this data to a robotic environment. This research aims to streamline this process, focusing on the task plan generation step, by using a Large Language Model (LLM)-based Task and Motion Planning (TAMP) framework to autonomously generate cooking task plans from videos with subtitles, and execute them. Conventional LLM-based task planning methods are not well-suited for interpreting the cooking video data due to uncertainty in the videos, and the risk of hallucination in its output. To address both of these problems, we explore using LLMs in combination with Functional Object-Oriented Networks (FOON), to validate the plan and provide feedback in case of failure. This combination can generate task sequences with manipulation motions that are logically correct and executable by a robot. We compare the execution of the generated plans for 5 cooking recipes from our approach against the plans generated by a few-shot LLM-only approach for a dual-arm robot setup. It could successfully execute 4 of the plans generated by our approach, whereas only 1 of the plans generated by solely using the LLM could be executed.

arxiv情報

著者 Ryunosuke Takebayashi,Vitor Hideyo Isume,Takuya Kiyokawa,Weiwei Wan,Kensuke Harada
発行日 2025-03-27 14:47:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Cooking Task Planning using LLM and Verified by Graph Network はコメントを受け付けていません

Dataset and Analysis of Long-Term Skill Acquisition in Robot-Assisted Minimally Invasive Surgery

要約

目的:私たちは、手術居住者の間の長期的なロボット外科的スキルの習得と、パフォーマンスに対する疲労の影響を調査することを目指しています。
方法:6か月間、手術居住者は月に1回3回のトレーニングセッションに参加し、26時間の病院シフトを囲んでいました。
各シフトで、彼らはシフトの前、最中、およびシフト後に予定されているトレーニングセッションに参加しました。
各トレーニングセッションで、彼らは3つのドライラブトレーニングタスクを実行しました:リングタワーの転送、結び目、縫合。
運動学的データ、アクティビティ追跡、縫合パッドのスキャンと同期したビデオを含む包括的なデータセットを収集しました。
結果:異なる外科的専門分野の18人の居住者によって行われた972回の試験のデータセットを収集しました。
参加者は、すべてのタスクにわたって一貫したパフォーマンス改善を示しました。
さらに、メトリックやタスク間でシフトの学習と忘却の間にバリエーションが発見され、疲労の可能性のある影響についてのヒントが見つかりました。
結論:最初の分析からの結果は、拡張間隔とさまざまなレベルの疲労を伴うロボット外科スキルの長期学習プロセスに光を当てています。
重要性:この研究では、トレーニングプロトコルの最適化と手術のAIアプリケーションの強化を目的とした将来の研究の基礎となり、最終的には患者の転帰の改善に貢献しています。
データセットは、ジャーナルの提出を受け入れると利用可能になります。

要約(オリジナル)

Objective: We aim to investigate long-term robotic surgical skill acquisition among surgical residents and the effects of training intervals and fatigue on performance. Methods: For six months, surgical residents participated in three training sessions once a month, surrounding a single 26-hour hospital shift. In each shift, they participated in training sessions scheduled before, during, and after the shift. In each training session, they performed three dry-lab training tasks: Ring Tower Transfer, Knot-Tying, and Suturing. We collected a comprehensive dataset, including videos synchronized with kinematic data, activity tracking, and scans of the suturing pads. Results: We collected a dataset of 972 trials performed by 18 residents of different surgical specializations. Participants demonstrated consistent performance improvement across all tasks. In addition, we found variations in between-shift learning and forgetting across metrics and tasks, and hints for possible effects of fatigue. Conclusion: The findings from our first analysis shed light on the long-term learning processes of robotic surgical skills with extended intervals and varying levels of fatigue. Significance: This study lays the groundwork for future research aimed at optimizing training protocols and enhancing AI applications in surgery, ultimately contributing to improved patient outcomes. The dataset will be made available upon acceptance of our journal submission.

arxiv情報

著者 Yarden Sharon,Alex Geftler,Hanna Kossowsky Lev,Ilana Nisky
発行日 2025-03-27 15:08:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Dataset and Analysis of Long-Term Skill Acquisition in Robot-Assisted Minimally Invasive Surgery はコメントを受け付けていません

Towards Optimizing a Convex Cover of Collision-Free Space for Trajectory Generation

要約

凸状のカバーを最適化するためのオンライン反復アルゴリズムを提案します。
凸カバーは、ポリトープの結合が障害物のない空間を表すようにポリトープのセットで構成されており、凸カバー内にあるロボットの軌跡を見つけることができます。
軌跡の最適化を促進するSFCを見つけるために、幾何学または運動学的プランナーによって初期化された指定されたウェイポイントを含む最大ボリュームの重複したポリトープを繰り返し見つけます。
ウェイポイントでの制約は、共同最適化問題の2つの交互段階に表示されます。これは、部分的に分布した変数を持つ新しいヒューリスティックベースの反復アルゴリズムによって解決されます。
さまざまなパラメーター化された環境を使用して、提案されたアルゴリズムの有効性を検証し、2段階のモーション計画のためのアプリケーションを示します。

要約(オリジナル)

We propose an online iterative algorithm to optimize a convex cover to under-approximate the free space for autonomous navigation to delineate Safe Flight Corridors (SFC). The convex cover consists of a set of polytopes such that the union of the polytopes represents obstacle-free space, allowing us to find trajectories for robots that lie within the convex cover. In order to find the SFC that facilitates trajectory optimization, we iteratively find overlapping polytopes of maximum volumes that include specified waypoints initialized by a geometric or kinematic planner. Constraints at waypoints appear in two alternating stages of a joint optimization problem, which is solved by a novel heuristic-based iterative algorithm with partially distributed variables. We validate the effectiveness of our proposed algorithm using a range of parameterized environments and show its applications for two-stage motion planning.

arxiv情報

著者 Yuwei Wu,Igor Spasojevic,Pratik Chaudhari,Vijay Kumar
発行日 2025-03-27 15:12:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Towards Optimizing a Convex Cover of Collision-Free Space for Trajectory Generation はコメントを受け付けていません

Model-Predictive Trajectory Generation for Aerial Search and Coverage

要約

このペーパーでは、ガウス混合モデル(GMM)によってモデル化されたターゲット領域の事前知識を表す不確実性マップに基づいて、無人航空機(UAV)を使用した検索およびカバレッジミッションの軌跡計画アルゴリズムを紹介します。
軌道計画の問題は、最適な制御問題(OCP)として策定されており、指定されたミッション期間内の不確実性の削減を最大化することを目的としています。
ただし、これにより、客観的な機能性を閉じた形で表現できない扱いやすいOCPが得られます。
これに対処するために、最適なソリューションを近似するために、目的関数のリラックスした配合に基づいて、モデル予測制御(MPC)アルゴリズムを提案します。
この緩和は、軌道に沿ったUAVの可視性領域の重複を罰することにより、効率的なマップ探査を促進します。
このアルゴリズムは、効率的でスムーズな軌道を生成でき、リアルタイムの計画に適した標準的な非線形プログラミングソルバーを使用して効率的に実装できます。
多くの場合、ミッションスペースの離散化や複雑な混合整数定式化を使用することに依存する従来の方法とは異なり、私たちのアプローチは計算上効率的で実装が容易です。
MPCアルゴリズムは最初にMATLABで評価され、その後、ガゼボシミュレーションと屋外環境で実施された実際の実験テストが続きます。
結果は、提案された戦略が、検索およびカバレッジミッションの効率的かつスムーズな軌跡を生成できることを示しています。

要約(オリジナル)

This paper introduces a trajectory planning algorithm for search and coverage missions with an Unmanned Aerial Vehicle (UAV) based on an uncertainty map that represents prior knowledge of the target region, modeled by a Gaussian Mixture Model (GMM). The trajectory planning problem is formulated as an Optimal Control Problem (OCP), which aims to maximize the uncertainty reduction within a specified mission duration. However, this results in an intractable OCP whose objective functional cannot be expressed in closed form. To address this, we propose a Model Predictive Control (MPC) algorithm based on a relaxed formulation of the objective function to approximate the optimal solutions. This relaxation promotes efficient map exploration by penalizing overlaps in the UAV’s visibility regions along the trajectory. The algorithm can produce efficient and smooth trajectories, and it can be efficiently implemented using standard Nonlinear Programming solvers, being suitable for real-time planning. Unlike traditional methods, which often rely on discretizing the mission space and using complex mixed-integer formulations, our approach is computationally efficient and easier to implement. The MPC algorithm is initially assessed in MATLAB, followed by Gazebo simulations and actual experimental tests conducted in an outdoor environment. The results demonstrate that the proposed strategy can generate efficient and smooth trajectories for search and coverage missions.

arxiv情報

著者 Hugo Matias,Daniel Silvestre
発行日 2025-03-27 15:55:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Model-Predictive Trajectory Generation for Aerial Search and Coverage はコメントを受け付けていません

Enhancing Underwater Navigation through Cross-Correlation-Aware Deep INS/DVL Fusion

要約

自律的な水中車両の正確なナビゲーションは、ドップラー速度ログ(DVL)速度測定の精度に大きく依存します。
深い学習の最近の進歩は、複数のセンサーモダリティにわたって時空間的依存関係を活用することにより、DVL出力を改善する上で重要な可能性を示しています。
ただし、これらの推定値を拡張カルマンフィルターなどのモデルベースのフィルターに統合すると、統計的な矛盾、特にプロセスノイズと測定ノイズの相互相関が導入されます。
このペーパーでは、相互相関を認識しているディープイン/DVL融合フレームワークを提案することにより、この課題に対処します。
DVLと慣性データを使用してAUV速度を推定するように設計された畳み込みニューラルネットワークであるBeam​​Snetに基づいて、騒音源間で誘導される相互相関を明示的に説明するナビゲーションフィルターにその出力を統合します。
このアプローチはフィルターの一貫性を改善し、基礎となるセンサーエラー構造をよりよく反映します。
2つの実際の水中軌道で評価された提案された方法は、状態の不確実性の観点から、最小二乗と相互相関アプローチの両方よりも優れています。
特に、改善は速度およびずれの角度信頼メトリックで10%を超えています。
経験的パフォーマンスを実証するだけでなく、このフレームワークは、確率的フィルターに深い学習出力を埋め込むための理論的に原則的なメカニズムを提供します。

要約(オリジナル)

The accurate navigation of autonomous underwater vehicles critically depends on the precision of Doppler velocity log (DVL) velocity measurements. Recent advancements in deep learning have demonstrated significant potential in improving DVL outputs by leveraging spatiotemporal dependencies across multiple sensor modalities. However, integrating these estimates into model-based filters, such as the extended Kalman filter, introduces statistical inconsistencies, most notably, cross-correlations between process and measurement noise. This paper addresses this challenge by proposing a cross-correlation-aware deep INS/DVL fusion framework. Building upon BeamsNet, a convolutional neural network designed to estimate AUV velocity using DVL and inertial data, we integrate its output into a navigation filter that explicitly accounts for the cross-correlation induced between the noise sources. This approach improves filter consistency and better reflects the underlying sensor error structure. Evaluated on two real-world underwater trajectories, the proposed method outperforms both least squares and cross-correlation-neglecting approaches in terms of state uncertainty. Notably, improvements exceed 10% in velocity and misalignment angle confidence metrics. Beyond demonstrating empirical performance, this framework provides a theoretically principled mechanism for embedding deep learning outputs within stochastic filters.

arxiv情報

著者 Nadav Cohen,Itzik Klein
発行日 2025-03-27 17:38:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Enhancing Underwater Navigation through Cross-Correlation-Aware Deep INS/DVL Fusion はコメントを受け付けていません

Constraint-based causal discovery with tiered background knowledge and latent variables in single or overlapping datasets

要約

この論文では、制約ベースの因果発見の中で階層化された背景知識を使用することを検討します。
私たちの焦点は、因果的な十分性を緩和する設定、つまり、複数のオーバーラップデータセットの場合のように、関連する情報をまったく測定できないか、共同ではないために発生する可能性のある潜在変数を許可することです。
最初に、「階層化されたFCI」(TFCI)アルゴリズムの特性に関する新しい洞察を提示します。
これに基づいて、階層化された背景知識、「階層型IOD」(TiOD)アルゴリズムを組み込んだIOD(重複するデータセットの統合)アルゴリズムの新しい拡張機能を導入します。
階層化された背景知識TFCIとTIODの完全な使用法の下で、TioDとTFCIの単純なバージョンは健全で完全であることを示します。
さらに、TioDアルゴリズムは、マルコフの等価クラスの明らかな制限を超えても、IODアルゴリズムよりもかなり効率的で有益であると予想されることが多いことを示します。
私たちは、この効率と情報性の利益の条件について正式な結果を提供します。
私たちの結果には、階層化された背景知識の正確な役割と有用性を示す一連の例が伴います。

要約(オリジナル)

In this paper we consider the use of tiered background knowledge within constraint based causal discovery. Our focus is on settings relaxing causal sufficiency, i.e. allowing for latent variables which may arise because relevant information could not be measured at all, or not jointly, as in the case of multiple overlapping datasets. We first present novel insights into the properties of the ‘tiered FCI’ (tFCI) algorithm. Building on this, we introduce a new extension of the IOD (integrating overlapping datasets) algorithm incorporating tiered background knowledge, the ‘tiered IOD’ (tIOD) algorithm. We show that under full usage of the tiered background knowledge tFCI and tIOD are sound, while simple versions of the tIOD and tFCI are sound and complete. We further show that the tIOD algorithm can often be expected to be considerably more efficient and informative than the IOD algorithm even beyond the obvious restriction of the Markov equivalence classes. We provide a formal result on the conditions for this gain in efficiency and informativeness. Our results are accompanied by a series of examples illustrating the exact role and usefulness of tiered background knowledge.

arxiv情報

著者 Christine W. Bang,Vanessa Didelez
発行日 2025-03-27 14:14:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.ST, stat.ML, stat.TH | Constraint-based causal discovery with tiered background knowledge and latent variables in single or overlapping datasets はコメントを受け付けていません

Bayesian Pseudo Posterior Mechanism for Differentially Private Machine Learning

要約

差別的なプライバシー(DP)は、モデルのトレーニングにデータを使用している個人のプライバシーを保護するための強力な保証を提供するため、展開された機械学習アプリケーションにとってますます重要になっています。
ただし、機械学習で一般的に使用されるDPメカニズムは、非常に不均衡または小さなラベル付きトレーニングセットなど、多くの現実世界分布に苦労する傾向があります。
この作業では、ランダム化メカニズムとしての開示リスクに比例して承認の尤度をダウンウェイトする擬似事後分布を使用することにより、深い学習モデルであるSWAG-PPMの新しいスケーラブルなDPメカニズムを提案します。
公式統計の動機付けの例として、米国の労働安全衛生管理局(OSHA)が発行した非常に不均衡なパブリックデータセットを使用して、職場の傷害テキスト分類タスクに関するSWAG-PPMを示します。
SWAG-PPMは、同様のプライバシー予算で業界標準のDP-SGDを大幅に上回る一方で、非プライベートコンパレータに対する控えめなユーティリティの劣化のみを示していることがわかります。

要約(オリジナル)

Differential privacy (DP) is becoming increasingly important for deployed machine learning applications because it provides strong guarantees for protecting the privacy of individuals whose data is used to train models. However, DP mechanisms commonly used in machine learning tend to struggle on many real world distributions, including highly imbalanced or small labeled training sets. In this work, we propose a new scalable DP mechanism for deep learning models, SWAG-PPM, by using a pseudo posterior distribution that downweights by-record likelihood contributions proportionally to their disclosure risks as the randomized mechanism. As a motivating example from official statistics, we demonstrate SWAG-PPM on a workplace injury text classification task using a highly imbalanced public dataset published by the U.S. Occupational Safety and Health Administration (OSHA). We find that SWAG-PPM exhibits only modest utility degradation against a non-private comparator while greatly outperforming the industry standard DP-SGD for a similar privacy budget.

arxiv情報

著者 Robert Chew,Matthew R. Williams,Elan A. Segarra,Alexander J. Preiss,Amanda Konet,Terrance D. Savitsky
発行日 2025-03-27 14:17:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG, stat.ML | Bayesian Pseudo Posterior Mechanism for Differentially Private Machine Learning はコメントを受け付けていません