Multi-Robot System for Cooperative Exploration in Unknown Environments: A Survey

要約

大規模で極端な屋外環境での野外探査の真の必要性により、協力的な探査タスクは注目を集めています。
このペーパーでは、マルチロボット協同組合探査システムの包括的なレビューを紹介します。
まず、ロボット探査の進化をレビューし、マルチロボット協同組合探査に合わせたモジュラー研究フレームワークを導入します。
このフレームワークに基づいて、主要なシステムコンポーネントを体系的に分類および要約します。
マルチロボット探索の基礎モジュールとして、ローカリゼーションとマッピングモジュールは、主にグローバルおよび相対的なポーズ推定、およびマルチロボットマップ合併手法に焦点を当てることにより導入されます。
協同モーションモジュールは、学習ベースのアプローチとマルチステージ計画にさらに分けられ、後者にはターゲット生成、タスクの割り当て、およびモーション計画戦略が含まれます。
実際の環境の通信制約を考えると、通信モジュールも分析し、ロボットがローカル通信範囲内および限られた伝送機能の下でどのように情報を交換するかを強調します。
さらに、DARPA Subt Challengeでマルチロボット協同組合探査システムの実際の適用を紹介します。
最後に、現実世界の傾向に照らして、マルチロボット協同組合探査の課題と将来の研究の方向性について説明します。
このレビューは、この分野の研究者と実践者にとって貴重な参照として機能することを目的としています。

要約(オリジナル)

With the real need of field exploration in large-scale and extreme outdoor environments, cooperative exploration tasks have garnered increasing attention. This paper presents a comprehensive review of multi-robot cooperative exploration systems. First, we review the evolution of robotic exploration and introduce a modular research framework tailored for multi-robot cooperative exploration. Based on this framework, we systematically categorize and summarize key system components. As a foundational module for multi-robot exploration, the localization and mapping module is primarily introduced by focusing on global and relative pose estimation, as well as multi-robot map merging techniques. The cooperative motion module is further divided into learning-based approaches and multi-stage planning, with the latter encompassing target generation, task allocation, and motion planning strategies. Given the communication constraints of real-world environments, we also analyze the communication module, emphasizing how robots exchange information within local communication ranges and under limited transmission capabilities. In addition, we introduce the actual application of multi-robot cooperative exploration systems in DARPA SubT Challenge. Finally, we discuss the challenges and future research directions for multi-robot cooperative exploration in light of real-world trends. This review aims to serve as a valuable reference for researchers and practitioners in the field.

arxiv情報

著者 Chuqi Wang,Chao Yu,Xin Xu,Yuman Gao,Xinyi Yang,Wenhao Tang,Shu’ang Yu,Yinuo Chen,Feng Gao,ZhuoZhu Jian,Xinlei Chen,Fei Gao,Boyu Zhou,Yu Wang
発行日 2025-05-21 16:50:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Multi-Robot System for Cooperative Exploration in Unknown Environments: A Survey はコメントを受け付けていません

RoboCrowd: Scaling Robot Data Collection through Crowdsourcing

要約

近年、大規模な人間のデモからの模倣学習は、ロボットポリシーをトレーニングするための有望なパラダイムとして浮上しています。
ただし、大量の人間のデモを収集する負担は、収集時間と専門家のオペレーターへのアクセスの必要性の点で重要です。
クラウドソーシングの原則とインセンティブデザインを利用することにより、ワークロードを分散する新しいデータ収集パラダイム、Robocrowdを紹介します。
Robocrowdは、スケーラブルなデータ収集の有効化を支援し、ロボットポリシーのより効率的な学習を促進します。
アロハの上にロボクロウドを構築します(Zhao etal。2023) – 操り人形様式を介してデータ収集をサポートする両手プラットフォーム – 公共環境での対面デモンストレーションをクラウドソーシングするための設計スペースを探索します。
3つのクラスのインセンティブメカニズムを提案して、システムとのやり取りのための動機付けのさまざまなソース、つまり重要な報酬、本質的な関心、社会的比較の3つのクラスを提案します。
これらのインセンティブは、物理的な報酬、魅力的または挑戦的な操作、およびリーダーボードなどのゲーミフィケーション要素を含むタスクを介してインスタンス化します。
私たちは、プラットフォームが大学のカフェにある大規模な2週間のフィールド実験を実施しています。
私たちはこのシステムとの大幅な関与を観察しています – 200人以上の個人が独立して合計800を超えるインタラクションエピソードを提供することを志願しました。
私たちの調査結果は、提案されたインセンティブを、ユーザーのデータの量と品質を形成するメカニズムとして検証しています。
さらに、クラウドソーシングされたデータは、専門家のデモンストレーションで微調整されたポリシーの有用なトレーニングデータとして役立つことを実証します。このデータが利用できない場合と比較して、パフォーマンスを最大20%増加させます。
これらの結果は、クラウドソーシングとインセンティブデザインの原則を慎重に実装することにより、ロボクロウドがロボットデータ収集の負担を軽減する可能性を示唆しています。

要約(オリジナル)

In recent years, imitation learning from large-scale human demonstrations has emerged as a promising paradigm for training robot policies. However, the burden of collecting large quantities of human demonstrations is significant in terms of collection time and the need for access to expert operators. We introduce a new data collection paradigm, RoboCrowd, which distributes the workload by utilizing crowdsourcing principles and incentive design. RoboCrowd helps enable scalable data collection and facilitates more efficient learning of robot policies. We build RoboCrowd on top of ALOHA (Zhao et al. 2023) — a bimanual platform that supports data collection via puppeteering — to explore the design space for crowdsourcing in-person demonstrations in a public environment. We propose three classes of incentive mechanisms to appeal to users’ varying sources of motivation for interacting with the system: material rewards, intrinsic interest, and social comparison. We instantiate these incentives through tasks that include physical rewards, engaging or challenging manipulations, as well as gamification elements such as a leaderboard. We conduct a large-scale, two-week field experiment in which the platform is situated in a university cafe. We observe significant engagement with the system — over 200 individuals independently volunteered to provide a total of over 800 interaction episodes. Our findings validate the proposed incentives as mechanisms for shaping users’ data quantity and quality. Further, we demonstrate that the crowdsourced data can serve as useful pre-training data for policies fine-tuned on expert demonstrations — boosting performance up to 20% compared to when this data is not available. These results suggest the potential for RoboCrowd to reduce the burden of robot data collection by carefully implementing crowdsourcing and incentive design principles.

arxiv情報

著者 Suvir Mirchandani,David D. Yuan,Kaylee Burns,Md Sazzad Islam,Tony Z. Zhao,Chelsea Finn,Dorsa Sadigh
発行日 2025-05-21 17:16:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | RoboCrowd: Scaling Robot Data Collection through Crowdsourcing はコメントを受け付けていません

Graph Conditional Flow Matching for Relational Data Generation

要約

データ統合は、プライバシーを向上させる技術として勢いを増しています。
単一テーブルの表形式データ生成にはかなりの進歩が見られますが、マルチテーブルデータの現在の方法には、複雑なリレーショナル構造をキャプチャするために必要な柔軟性と表現性が欠けていることがよくあります。
特に、彼らは、複数の親テーブルを備えたテーブルや、同じテーブル間の複数のタイプのリンクなど、長距離依存関係や複雑な外国人関係と格闘しています。
外部キー関係によって形成されたグラフを考慮して、リレーショナルデータセットのコンテンツを生成するリレーショナルデータの生成モデルを提案します。
これを行います。フローマッチングにより、リレーショナルデータベース全体のコンテンツの深い生成モデルを学習します。ここでは、Neural NetworkがDenoiseレコードにトレーニングし、接続されたレコードから情報を取得するためにグラフニューラルネットワークを活用します。
各レコードの生成は、同じ接続されたコンポーネント内の他のレコードの影響を受ける可能性があるため、複雑な構造でリレーショナルデータセットをサポートできるため、私たちの方法は柔軟です。
いくつかのベンチマークデータセットでの方法を評価し、合成データの忠実度の観点から最先端のパフォーマンスを達成することを示します。

要約(オリジナル)

Data synthesis is gaining momentum as a privacy-enhancing technology. While single-table tabular data generation has seen considerable progress, current methods for multi-table data often lack the flexibility and expressiveness needed to capture complex relational structures. In particular, they struggle with long-range dependencies and complex foreign-key relationships, such as tables with multiple parent tables or multiple types of links between the same pair of tables. We propose a generative model for relational data that generates the content of a relational dataset given the graph formed by the foreign-key relationships. We do this by learning a deep generative model of the content of the whole relational database by flow matching, where the neural network trained to denoise records leverages a graph neural network to obtain information from connected records. Our method is flexible, as it can support relational datasets with complex structures, and expressive, as the generation of each record can be influenced by any other record within the same connected component. We evaluate our method on several benchmark datasets and show that it achieves state-of-the-art performance in terms of synthetic data fidelity.

arxiv情報

著者 Davide Scassola,Sebastiano Saccani,Luca Bortolussi
発行日 2025-05-21 15:45:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T07, cs.LG | Graph Conditional Flow Matching for Relational Data Generation はコメントを受け付けていません

Breast Cancer Classification Using Gradient Boosting Algorithms Focusing on Reducing the False Negative and SHAP for Explainability

要約

がんは、世界で最も多くの女性を殺す病気の1つであり、乳がんが癌の症例の数が最も多く、その結果死亡の原因となっています。
ただし、早期発見とその結果、早期治療によって防止できます。
この種の癌の検出または困odの開発は、健康的な生活の向上にとって重要です。
多くの研究は、がんの予測に高い精度を持つモデルに焦点を当てていますが、精度だけでは常に信頼できるメトリックではない場合があります。
この研究は、リコールメトリックに焦点を当てた乳がんを予測するためのブーストに基づいて、さまざまな機械学習アルゴリズムのパフォーマンスを研究するための調査アプローチを意味します。
機械学習アルゴリズムの強化は、医療疾患を検出するための効果的なツールであることが証明されています。
カリフォルニア大学アーバイン(UCI)リポジトリのデータセットは、属性を含むモデル分類器を訓練およびテストするために利用されています。
この研究の主な目的は、Adaboost、Xgboost、CatBoost、LightGBMなどの最先端のブーストアルゴリズムを使用して、乳がんを予測および診断し、リコール、ROC-AUC、および混乱マトリックスに関する最も効果的なメトリックを見つけることです。
さらに、我々の研究は、オプトゥーナ、ハイパーパラメーターの最適化のライブラリであるOptunaでこれらの4つのブーストアルゴリズムを使用し、モデルの解釈可能性を改善するSHAPメソッドを使用した最初の研究であり、乳がんを特定して予測するためのサポートとして使用できます。
すべてのモデルのAUCを改善したり、リコールしたり、AdaboostとLigthgbmの偽陰性を減らすことができました。最終的なAUCは、すべてのモデルで99.41 \%を超えていました。

要約(オリジナル)

Cancer is one of the diseases that kill the most women in the world, with breast cancer being responsible for the highest number of cancer cases and consequently deaths. However, it can be prevented by early detection and, consequently, early treatment. Any development for detection or perdition this kind of cancer is important for a better healthy life. Many studies focus on a model with high accuracy in cancer prediction, but sometimes accuracy alone may not always be a reliable metric. This study implies an investigative approach to studying the performance of different machine learning algorithms based on boosting to predict breast cancer focusing on the recall metric. Boosting machine learning algorithms has been proven to be an effective tool for detecting medical diseases. The dataset of the University of California, Irvine (UCI) repository has been utilized to train and test the model classifier that contains their attributes. The main objective of this study is to use state-of-the-art boosting algorithms such as AdaBoost, XGBoost, CatBoost and LightGBM to predict and diagnose breast cancer and to find the most effective metric regarding recall, ROC-AUC, and confusion matrix. Furthermore, our study is the first to use these four boosting algorithms with Optuna, a library for hyperparameter optimization, and the SHAP method to improve the interpretability of our model, which can be used as a support to identify and predict breast cancer. We were able to improve AUC or recall for all the models and reduce the False Negative for AdaBoost and LigthGBM the final AUC were more than 99.41\% for all models.

arxiv情報

著者 João Manoel Herrera Pinheiro,Marcelo Becker
発行日 2025-05-21 15:48:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CY, cs.LG, q-bio.QM | Breast Cancer Classification Using Gradient Boosting Algorithms Focusing on Reducing the False Negative and SHAP for Explainability はコメントを受け付けていません

Antimatter Annihilation Vertex Reconstruction with Deep Learning for ALPHA-g Radial Time Projection Chamber

要約

CERNでのAlpha-G実験は、抗水素原子の陸生重力加速度を正確に測定することを目的としています。
アルファ-G磁気トラップを囲む放射状時間投影チャンバー(RTPC)は、頂点と呼ばれる消滅位置を決定するために使用されます。
標準的なアプローチでは、ガス内の相互作用の位置からRTPCのイオン化粒子の軌跡を識別し、それらの軌跡(ヘリックス)が互いに最も近くを通過するポイントを見つけることにより頂点の位置を推測する必要があります。
この作業では、ポイントネットのディープラーニングアーキテクチャに基づいたモデルのアンサンブルを使用して、頂点再構成に対する新しいアプローチを提示します。
新たに開発されたモデルである消滅再構築のポイントネットアンサンブル(PEAR)は、頂点とRTPCの宇宙堆積物との関係を直接学習し、粒子トラックを識別して適合させる必要性を排除します。
Pearは、シミュレートされたデータから垂直頂点位置を再構築する際の強力なパフォーマンスを示しています。これは、考慮されるすべてのメトリックの標準的なアプローチよりも優れています。
さらに、深い学習アプローチは、標準的なアプローチが失敗したときに垂直頂点の位置を再構築できます。

要約(オリジナル)

The ALPHA-g experiment at CERN aims to precisely measure the terrestrial gravitational acceleration of antihydrogen atoms. A radial Time Projection Chamber (rTPC), that surrounds the ALPHA-g magnetic trap, is employed to determine the annihilation location, called the vertex. The standard approach requires identifying the trajectories of the ionizing particles in the rTPC from the location of their interaction in the gas (spacepoints), and inferring the vertex positions by finding the point where those trajectories (helices) pass closest to one another. In this work, we present a novel approach to vertex reconstruction using an ensemble of models based on the PointNet deep learning architecture. The newly developed model, PointNet Ensemble for Annihilation Reconstruction (PEAR), directly learns the relation between the location of the vertices and the rTPC spacepoints, thus eliminating the need to identify and fit the particle tracks. PEAR shows strong performance in reconstructing vertical vertex positions from simulated data, that is superior to the standard approach for all metrics considered. Furthermore, the deep learning approach can reconstruct the vertical vertex position when the standard approach fails.

arxiv情報

著者 Ashley Ferreira,Mahip Singh,Yukiya Saito,Andrea Capra,Ina Carli,Daniel Duque Quiceno,Wojciech T. Fedorko,Makoto C. Fujiwara,Muyan Li,Lars Martin,Gareth Smith,Anqui Xu
発行日 2025-05-21 15:49:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, hep-ex, physics.ins-det | Antimatter Annihilation Vertex Reconstruction with Deep Learning for ALPHA-g Radial Time Projection Chamber はコメントを受け付けていません

A Trajectory-Based Bayesian Approach to Multi-Objective Hyperparameter Optimization with Epoch-Aware Trade-Offs

要約

機械学習モデルのトレーニングには、モデルパフォーマンスのエポックごとのモニタリングを可能にするリソース集約型のノイズの多い反復学習手順が本質的に含まれます。
ただし、反復学習手順から得られた洞察は、通常、多目的ハイパーパラメーター最適化シナリオでは十分に活用されていません。
この分野での限られた研究にもかかわらず、既存の方法は一般に、モデルトレーニングの終了時にのみトレードオフを識別し、過剰適合などの場合には以前のエポックでトレードオフが出現する可能性があるという事実を見落としています。
このギャップを埋めるために、トレーニングエポックの数を単なる補助パラメーターではなく、以前のトレーニング段階でのトレードオフを説明するために、トレーニングエポックの数を決定変数として扱う強化された多目的ハイパーパラメーター最適化問題を提案します。
この問題を解決し、反復学習に対応するために、2つの機能を特徴とする軌道ベースの多目的ベイジアン最適化アルゴリズムを提示します。
合成シミュレーションとハイパーパラメーターチューニングベンチマークの実験は、私たちのアルゴリズムがチューニング効率を改善しながら望ましいトレードオフを効果的に識別できることを示しています。

要約(オリジナル)

Training machine learning models inherently involves a resource-intensive and noisy iterative learning procedure that allows epoch-wise monitoring of the model performance. However, the insights gained from the iterative learning procedure typically remain underutilized in multi-objective hyperparameter optimization scenarios. Despite the limited research in this area, existing methods commonly identify the trade-offs only at the end of model training, overlooking the fact that trade-offs can emerge at earlier epochs in cases such as overfitting. To bridge this gap, we propose an enhanced multi-objective hyperparameter optimization problem that treats the number of training epochs as a decision variable, rather than merely an auxiliary parameter, to account for trade-offs at an earlier training stage. To solve this problem and accommodate its iterative learning, we then present a trajectory-based multi-objective Bayesian optimization algorithm characterized by two features: 1) a novel acquisition function that captures the improvement along the predictive trajectory of model performances over epochs for any hyperparameter setting and 2) a multi-objective early stopping mechanism that determines when to terminate the training to maximize epoch efficiency. Experiments on synthetic simulations and hyperparameter tuning benchmarks demonstrate that our algorithm can effectively identify the desirable trade-offs while improving tuning efficiency.

arxiv情報

著者 Wenyu Wang,Zheyi Fan,Szu Hui Ng
発行日 2025-05-21 15:52:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | A Trajectory-Based Bayesian Approach to Multi-Objective Hyperparameter Optimization with Epoch-Aware Trade-Offs はコメントを受け付けていません

A packing lemma for VCN${}_k$-dimension and learning high-dimensional data

要約

最近、著者は、グラフ、ハイパーグラフ、リレーショナル構造の学習に適した高性度PAC学習の理論を導入しました。
同じ最初の研究で、著者は、vapnik-chervonenkis-natarajan(vcn $ {} _ k $)$ k $ k $ c $ c $ exedizensionのagnight on packのみを離れる、vcn $ {} _ k $)と呼ばれる組み合わせの次元の観点から、高性度PAC学習のすべての概念をほぼ完全に特徴づける統計学習の基本的な定理の高性度類似体であることを証明しました。
学習可能性。
この作業では、非勤務していない非存在性の高い高性度PACの学習性が、Hausslerパッキングプロパティの高性度バージョンを意味することを証明することにより、この特性評価を完了します。
これは、古典的なPAC Learnabilityが古典的なHaussler Packingプロパティを意味するという直接的な証拠を取得することによって行われます。

要約(オリジナル)

Recently, the authors introduced the theory of high-arity PAC learning, which is well-suited for learning graphs, hypergraphs and relational structures. In the same initial work, the authors proved a high-arity analogue of the Fundamental Theorem of Statistical Learning that almost completely characterizes all notions of high-arity PAC learning in terms of a combinatorial dimension, called the Vapnik–Chervonenkis–Natarajan (VCN${}_k$) $k$-dimension, leaving as an open problem only the characterization of non-partite, non-agnostic high-arity PAC learnability. In this work, we complete this characterization by proving that non-partite non-agnostic high-arity PAC learnability implies a high-arity version of the Haussler packing property, which in turn implies finiteness of VCN${}_k$-dimension. This is done by obtaining direct proofs that classic PAC learnability implies classic Haussler packing property, which in turn implies finite Natarajan dimension and noticing that these direct proofs nicely lift to high-arity.

arxiv情報

著者 Leonardo N. Coregliano,Maryanthe Malliaris
発行日 2025-05-21 16:03:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: (Primary), cs.LG, math.ST, stat.TH | A packing lemma for VCN${}_k$-dimension and learning high-dimensional data はコメントを受け付けていません

Diffusion-based Method for Satellite Pattern-of-Life Identification

要約

衛星パターンオブライフ(POL)の識別は、宇宙の安全性と衛星監視には重要です。ステーションキーピング、ドリフトなどの典型的な衛星行動の分析を含みます。ただし、既存のPOL識別方法は、航空宇宙システムの複雑さ、衛星行動の変動、および観測のサンプリング速度の変動により未発達のままです。
最初の試みで、衛星軌道の動きの知識と機械学習モデルを組み合わせて、ドメインの専門知識に基づいた機械学習方法(Expert-ML)を開発しました。
Expert-MLメソッドは、シミュレーションデータと通常のサンプリングレートの現実世界データで高精度を達成しました。
ただし、このアプローチには、ドメインの専門知識が必要であり、データサンプリングレートが変化するとパフォーマンスが大幅に低下するため、一般性が不足しています。
一般性を達成するために、新しい拡散ベースのPOL識別方法を提案します。
事前のアプローチとは異なり、提案された方法は拡散モデルを活用して、手動の洗練またはドメイン固有の知識なしにエンドツーエンドの識別を実現します。
具体的には、多変量の時系列エンコーダーを使用して、衛星位置データの隠された表現をキャプチャします。
エンコードされた機能は、その後、除去プロセスに条件付き情報として組み込まれ、POLラベルを生成します。
実際の衛星設定全体での実験を通じて、提案されている拡散ベースの方法は、その識別品質が高いことを実証し、データサンプリングレートを減らしても堅牢なソリューションを提供し、実際の衛星行動パターンの識別、追跡、および関連するミッション展開における大きな可能性を示します。

要約(オリジナル)

Satellite pattern-of-life (PoL) identification is crucial for space safety and satellite monitoring, involving the analysis of typical satellite behaviors such as station-keeping, drift, etc. However, existing PoL identification methods remain underdeveloped due to the complexity of aerospace systems, variability in satellite behaviors, and fluctuating observation sampling rates. In a first attempt, we developed a domain expertise-informed machine learning method (Expert-ML) to combine satellite orbital movement knowledge and machine learning models. The Expert-ML method achieved high accuracy results in simulation data and real-world data with normal sampling rate. However, this approach lacks of generality as it requires domain expertise and its performance degraded significantly when data sampling rate varied. To achieve generality, we propose a novel diffusion-based PoL identification method. Distinct from prior approaches, the proposed method leverages a diffusion model to achieve end-to-end identification without manual refinement or domain-specific knowledge. Specifically, we employ a multivariate time-series encoder to capture hidden representations of satellite positional data. The encoded features are subsequently incorporated as conditional information in the denoising process to generate PoL labels. Through experimentation across real-world satellite settings, our proposed diffusion-based method demonstrates its high identification quality and provides a robust solution even with reduced data sampling rates, indicating its great potential in practical satellite behavior pattern identification, tracking and related mission deployment.

arxiv情報

著者 Yongchao Ye,Xinting Zhu,Xuejin Shen,Xiaoyu Chen,Lishuai Li,S. Joe Qin
発行日 2025-05-21 16:09:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CE, cs.LG | Diffusion-based Method for Satellite Pattern-of-Life Identification はコメントを受け付けていません

Privacy-Preserving Conformal Prediction Under Local Differential Privacy

要約

Conformal Prediction(CP)は、一連の候補クラスに、真のクラスを含む確率が保証されていることを提供します。
ただし、通常、クリーンラベルを備えたキャリブレーションに依存しています。
アグリゲーターが信頼されず、真のラベルの摂動バージョンのみにアクセスできるプライバシーに敏感なシナリオに対処します。
ローカル差別的プライバシー(LDP)の下で2つの補完的なアプローチを提案します。
最初のアプローチでは、ユーザーはモデルにアクセスするのではなく、K-ARYランダム化応答を使用して入力機能と摂動ラベルを提供します。
より厳格なプライバシーの制約を強制する2番目のアプローチでは、ユーザーはバイナリ検索応答によって適合スコアにノイズを追加します。
この方法では、分類モデルへのアクセスが必要ですが、両方のデータとラベルのプライバシーを保持します。
どちらのアプローチでも、真のラベルにアクセスすることなく、騒々しいデータからコンフォーマルしきい値を直接計算します。
有限サンプルのカバレッジ保証を証明し、重度のランダム化下でも堅牢なカバレッジを示します。
このアプローチは、予測的な不確実性制御を備えた強力なローカルプライバシーを統合し、ユーザーが自分のスコアを計算できる(または喜んで計算する)かどうかに関係なく、医療イメージングや大規模な言語モデルクエリなどのデリケートなアプリケーションに適しています。

要約(オリジナル)

Conformal prediction (CP) provides sets of candidate classes with a guaranteed probability of containing the true class. However, it typically relies on a calibration set with clean labels. We address privacy-sensitive scenarios where the aggregator is untrusted and can only access a perturbed version of the true labels. We propose two complementary approaches under local differential privacy (LDP). In the first approach, users do not access the model but instead provide their input features and a perturbed label using a k-ary randomized response. In the second approach, which enforces stricter privacy constraints, users add noise to their conformity score by binary search response. This method requires access to the classification model but preserves both data and label privacy. Both approaches compute the conformal threshold directly from noisy data without accessing the true labels. We prove finite-sample coverage guarantees and demonstrate robust coverage even under severe randomization. This approach unifies strong local privacy with predictive uncertainty control, making it well-suited for sensitive applications such as medical imaging or large language model queries, regardless of whether users can (or are willing to) compute their own scores.

arxiv情報

著者 Coby Penso,Bar Mahpud,Jacob Goldberger,Or Sheffet
発行日 2025-05-21 16:29:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML | Privacy-Preserving Conformal Prediction Under Local Differential Privacy はコメントを受け付けていません

Are machine learning interpretations reliable? A stability study on global interpretations

要約

機械学習システムは、ハイステークスドメインでますます使用されているため、これらのシステムへの信頼を改善するためにそれらを解釈できるようにすることに重点が置かれています。
これに応じて、さまざまな解釈可能な機械学習(IML)方法が開発されており、それ以外の場合はブラックボックスモデルに関する人間に理解できる洞察を生み出しています。
これらの方法では、基本的な疑問が生じます。これらの解釈は信頼できますか?
監視されたモデルの予測精度やその他の評価メトリックとは異なり、真の解釈への近接性を定義することは困難です。
代わりに、私たちは信頼性の前提条件であると主張する密接に関連する質問をします。これらの解釈は安定していますか?
安定性を、データまたはアルゴリズムへの小さなランダムな摂動の下で一貫性または信頼できる結果として定義します。
この研究では、表形式データに関する監視されたおよび監督されていないタスクの両方について、一般的な機械学習のグローバル解釈に関する最初の体系的で大規模な経験的安定性研究を実施します。
私たちの調査結果は、一般的な解釈方法はしばしば不安定であり、特に予測自体よりも安定性が低く、機械学習予測の精度と関連する解釈の安定性との間に関連性がないことを明らかにしています。
さらに、単一の方法では、さまざまなベンチマークデータセットにわたって最も安定した解釈を一貫して提供しないことを示します。
全体として、これらの結果は、解釈可能性だけが信頼を保証しないことを示唆しており、将来の仕事における解釈の安定性の厳密な評価の必要性を強調しています。
これらの原則をサポートするために、研究者が独自のデータ駆動型解釈と発見の安定性と信頼性を評価できるようにするために、オープンソースIMLダッシュボードとPythonパッケージを開発およびリリースしました。

要約(オリジナル)

As machine learning systems are increasingly used in high-stakes domains, there is a growing emphasis placed on making them interpretable to improve trust in these systems. In response, a range of interpretable machine learning (IML) methods have been developed to generate human-understandable insights into otherwise black box models. With these methods, a fundamental question arises: Are these interpretations reliable? Unlike with prediction accuracy or other evaluation metrics for supervised models, the proximity to the true interpretation is difficult to define. Instead, we ask a closely related question that we argue is a prerequisite for reliability: Are these interpretations stable? We define stability as findings that are consistent or reliable under small random perturbations to the data or algorithms. In this study, we conduct the first systematic, large-scale empirical stability study on popular machine learning global interpretations for both supervised and unsupervised tasks on tabular data. Our findings reveal that popular interpretation methods are frequently unstable, notably less stable than the predictions themselves, and that there is no association between the accuracy of machine learning predictions and the stability of their associated interpretations. Moreover, we show that no single method consistently provides the most stable interpretations across a range of benchmark datasets. Overall, these results suggest that interpretability alone does not warrant trust, and underscores the need for rigorous evaluation of interpretation stability in future work. To support these principles, we have developed and released an open source IML dashboard and Python package to enable researchers to assess the stability and reliability of their own data-driven interpretations and discoveries.

arxiv情報

著者 Luqin Gan,Tarek M. Zikry,Genevera I. Allen
発行日 2025-05-21 16:34:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.AP, stat.ML | Are machine learning interpretations reliable? A stability study on global interpretations はコメントを受け付けていません