DeSIA: Attribute Inference Attacks Against Limited Fixed Aggregate Statistics

要約

経験的推論攻撃は、実際にデータリリースメカニズムのプライバシーリスクを評価するための一般的なアプローチです。
機械学習モデルまたは合成データリリースを評価するためにアクティブな攻撃文献が存在しますが、現在、限られた数の統計のみがリリースされている場合、固定集計統計の同等の方法がありません。
ここでは、固定集計統計とDESIAと呼ばれる属性推論攻撃に対する推論攻撃フレームワークを提案します。
米国国勢調査PPMFデータセットに対してDesiaをインスタンス化し、再構成ベースの攻撃を強く上回るように表示します。
特に、Desiaが脆弱なユーザーを特定するのに非常に効果的であることを示し、10ドルの誤った陽性率で0.14の真の正のレートを達成します。
次に、DESIAを示して、属性を検証できないユーザーに対してうまく機能し、集約統計の数とノイズのレベルの追加を変更する場合。
また、Desiaの広範なアブレーション研究を実施し、Desiaをメンバーシップ推論タスクにどのようにうまく適合させることができるかを示します。
全体として、我々の結果は、比較的少数の集合体がリリースされている場合でも、集約だけではプライバシーを保護するのに十分ではないことを示しており、集約統計がリリースされる前に正式なプライバシーメカニズムとテストの必要性を強調しています。

要約(オリジナル)

Empirical inference attacks are a popular approach for evaluating the privacy risk of data release mechanisms in practice. While an active attack literature exists to evaluate machine learning models or synthetic data release, we currently lack comparable methods for fixed aggregate statistics, in particular when only a limited number of statistics are released. We here propose an inference attack framework against fixed aggregate statistics and an attribute inference attack called DeSIA. We instantiate DeSIA against the U.S. Census PPMF dataset and show it to strongly outperform reconstruction-based attacks. In particular, we show DeSIA to be highly effective at identifying vulnerable users, achieving a true positive rate of 0.14 at a false positive rate of $10^{-3}$. We then show DeSIA to perform well against users whose attributes cannot be verified and when varying the number of aggregate statistics and level of noise addition. We also perform an extensive ablation study of DeSIA and show how DeSIA can be successfully adapted to the membership inference task. Overall, our results show that aggregation alone is not sufficient to protect privacy, even when a relatively small number of aggregates are being released, and emphasize the need for formal privacy mechanisms and testing before aggregate statistics are released.

arxiv情報

著者 Yifeng Mao,Bozhidar Stevanoski,Yves-Alexandre de Montjoye
発行日 2025-04-25 17:10:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR | DeSIA: Attribute Inference Attacks Against Limited Fixed Aggregate Statistics はコメントを受け付けていません

Can We Govern the Agent-to-Agent Economy?

要約

AIガバナンスへの現在のアプローチは、AIエージェントが金融運営、管理機能など​​の重要なタスクを管理する未来を予測する上で不足していることがよくあります。
暗号通貨は、AIエージェント間のコラボレーションと委任ダイナミックで価値交換を収益化するための基盤として機能する可能性がありますが、重要な問題は残っています。どのように人間がAIエージェントの将来の経済として意味のある監視と制御を保証することができますか?
この哲学的探査では、業界の新たな概念を強調して、将来の分散型エージェント経済を見越して研究開発の取り組みを知らせます。

要約(オリジナル)

Current approaches to AI governance often fall short in anticipating a future where AI agents manage critical tasks, such as financial operations, administrative functions, and beyond. While cryptocurrencies could serve as the foundation for monetizing value exchange in a collaboration and delegation dynamic among AI agents, a critical question remains: how can humans ensure meaningful oversight and control as a future economy of AI agents scales and evolves? In this philosophical exploration, we highlight emerging concepts in the industry to inform research and development efforts in anticipation of a future decentralized agentic economy.

arxiv情報

著者 Tomer Jordi Chaffer
発行日 2025-04-25 17:21:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.MA | Can We Govern the Agent-to-Agent Economy? はコメントを受け付けていません

Bidirectional Decoding: Improving Action Chunking via Guided Test-Time Sampling

要約

アクションチャンキングとして知られる中間の再生なしで一連のアクションを予測および実行することは、人間のデモンストレーションから学習するロボットでますます使用されています。
しかし、学習したポリシーへの影響は矛盾したままです。一部の研究では、強力な結果を達成するために重要であると感じていますが、他の研究ではパフォーマンスの低下が観察されます。
この論文では、最初に、アクションチャンキングが学習者とデモンストレーターの間の発散にどのように影響するかを分析します。
アクションチャンキングにより、学習者はデモンストレーションでの時間的依存関係をより適切に捉えることができるが、予期しない状態に対する反応性の低下を犠牲にすることができることがわかります。
このトレードオフに対処するために、閉ループの適応でチャンクするアクションを橋渡しするテスト時間推論アルゴリズムである双方向デコード(BID)を提案します。
各タイムステップで、BIDは複数の候補予測をサンプルし、2つの基準に基づいて最適な予測を検索します。(i)以前の決定に沿ったサンプルを支持する後方一貫性。
(ii)将来の計画に対する高い可能性のサンプルを求める前方コントラスト。
アクションチャンク内および範囲間の決定を結合することにより、BIDは長期的な一貫性と短期反応性の両方を促進します。
実験結果は、私たちの方法が、7つのシミュレーションベンチマークと2つの実際のタスクにわたる2つの最先端の生成ポリシーのパフォーマンスを高めることを示しています。
コードとビデオはhttps://bid-robot.github.ioで入手できます。

要約(オリジナル)

Predicting and executing a sequence of actions without intermediate replanning, known as action chunking, is increasingly used in robot learning from human demonstrations. Yet, its effects on the learned policy remain inconsistent: some studies find it crucial for achieving strong results, while others observe decreased performance. In this paper, we first dissect how action chunking impacts the divergence between a learner and a demonstrator. We find that action chunking allows the learner to better capture the temporal dependencies in demonstrations but at the cost of reduced reactivity to unexpected states. To address this tradeoff, we propose Bidirectional Decoding (BID), a test-time inference algorithm that bridges action chunking with closed-loop adaptation. At each timestep, BID samples multiple candidate predictions and searches for the optimal one based on two criteria: (i) backward coherence, which favors samples that align with previous decisions; (ii) forward contrast, which seeks samples of high likelihood for future plans. By coupling decisions within and across action chunks, BID promotes both long-term consistency and short-term reactivity. Experimental results show that our method boosts the performance of two state-of-the-art generative policies across seven simulation benchmarks and two real-world tasks. Code and videos are available at https://bid-robot.github.io.

arxiv情報

著者 Yuejiang Liu,Jubayer Ibn Hamid,Annie Xie,Yoonho Lee,Maximilian Du,Chelsea Finn
発行日 2025-04-25 17:27:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO | Bidirectional Decoding: Improving Action Chunking via Guided Test-Time Sampling はコメントを受け付けていません

Scaling Laws For Scalable Oversight

要約

スケーラブルな監視、より弱いAIシステムがより強力なシステムを監督するプロセスは、将来の緊密なシステムを制御するための重要な戦略として提案されています。
ただし、スケーラブルな監視自体がどのようにスケーリングできるかはまだ不明です。
このギャップに対処するために、監督者の能力と監督されているシステムの関数としての監視の成功の確率を定量化するフレームワークを提案します。
具体的には、私たちのフレームワークは、能力が不一致したプレーヤー間のゲームとしての監視をモデル化しています。
プレーヤーは、一般的な知能の区分的な線形機能である監視固有の欺ception固有のELOスコアを持ち、2つのプラトーがタスクの無能さとタスクの飽和に対応しています。
ゲームNIMの変更されたバージョンでフレームワークを検証し、「Mafia」、「Debate」、「Backdoor Code」、「Wargames」という4つの監視ゲームに適用します。
ゲームごとに、ドメインのパフォーマンスが一般的なAIシステム機能に依存する方法を概算するスケーリング法則を見つけます(一般的な機能のプロキシとしてチャットボットアリーナELOを使用)。
次に、ネストされたスケーラブル監視(NSO)の理論的研究で調査結果を構築します。これは、信頼できるモデルが信頼されていない強力なモデルを監督し、次のステップで信頼できるモデルになるプロセスです。
NSOが成功する条件を特定し、監視の成功の確率を最大化するために、最適な数の監視レベルの数値的に(場合によっては分析的に)導き出します。
数値の例では、NSOの成功率は、ベースライン監督よりも400エロポイントが強いシステムを監督する場合、52%未満であり、さらに強力なシステムを監督するためにさらに減少します。

要約(オリジナル)

Scalable oversight, the process by which weaker AI systems supervise stronger ones, has been proposed as a key strategy to control future superintelligent systems. However, it is still unclear how scalable oversight itself scales. To address this gap, we propose a framework that quantifies the probability of successful oversight as a function of the capabilities of the overseer and the system being overseen. Specifically, our framework models oversight as a game between capability-mismatched players; the players have oversight-specific and deception-specific Elo scores that are a piecewise-linear function of their general intelligence, with two plateaus corresponding to task incompetence and task saturation. We validate our framework with a modified version of the game Nim and then apply it to four oversight games: ‘Mafia’, ‘Debate’, ‘Backdoor Code’ and ‘Wargames’. For each game, we find scaling laws that approximate how domain performance depends on general AI system capability (using Chatbot Arena Elo as a proxy for general capability). We then build on our findings in a theoretical study of Nested Scalable Oversight (NSO), a process in which trusted models oversee untrusted stronger models, which then become the trusted models in the next step. We identify conditions under which NSO succeeds and derive numerically (and in some cases analytically) the optimal number of oversight levels to maximize the probability of oversight success. In our numerical examples, the NSO success rate is below 52% when overseeing systems that are 400 Elo points stronger than the baseline overseer, and it declines further for overseeing even stronger systems.

arxiv情報

著者 Joshua Engels,David D. Baek,Subhash Kantamneni,Max Tegmark
発行日 2025-04-25 17:54:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.LG | Scaling Laws For Scalable Oversight はコメントを受け付けていません

Adapting Probabilistic Risk Assessment for AI

要約

現代の汎用人工知能(AI)システムは、急速に進化する能力と壊滅的な害の可能性がリスクを確実に評価する能力を上回るため、緊急リスク管理の課題を提示します。
現在の方法は、多くの場合、リスクの優先順位に関する選択的テストと文書化されていない仮定に依存しており、ALシステムが社会と生物圏に直接または間接的なリスクをもたらす一連の経路を評価することを深刻に試みることができません。
このホワイトペーパーでは、AIフレームワークの確率的リスク評価(PRA)を紹介し、高度なAIの新しい課題のために高解放性産業(例:原子力、航空宇宙)の確立されたPRA技術を適応させます。
フレームワークは、潜在的なリスクを特定し、尤度と重大度を推定し、適切な粒度での証拠、根本的な仮定、分析を明示的に文書化する際に評価者を導きます。
フレームワークの実装ツールは、結果をすべての評価されたリスクから集約されたリスク推定値を持つリスクレポートカードに統合します。
この体系的なアプローチは、次の3つの進歩を統合します。(1)AIシステムの側面(能力、ドメインの知識、アフォーダンスなど)の第一原理分類法によって導かれる系統的なハザードカバレッジを提供します。
(2)リスク経路モデリングは、システムの側面から双方向分析を使用し、前向き技術を組み込むことを使用して社会的影響まで因果鎖を分析します。
(3)不確実性管理は、シナリオ分解、参照スケール、および明示的なトレースプロトコルを採用して、ノベルティまたは限られたデータで信頼できる投影を構成しています。
さらに、このフレームワークは、重要な決定のために同等の定量化された絶対リスク推定値に証拠を統合することにより、多様な評価方法を調和させます。
これを、AI開発者、評価者、および規制当局向けのワークブックツールとして実装しました。これは、プロジェクトWebサイトで入手できます。

要約(オリジナル)

Modern general-purpose artificial intelligence (AI) systems present an urgent risk management challenge, as their rapidly evolving capabilities and potential for catastrophic harm outpace our ability to reliably assess their risks. Current methods often rely on selective testing and undocumented assumptions about risk priorities, frequently failing to make a serious attempt at assessing the set of pathways through which Al systems pose direct or indirect risks to society and the biosphere. This paper introduces the probabilistic risk assessment (PRA) for AI framework, adapting established PRA techniques from high-reliability industries (e.g., nuclear power, aerospace) for the new challenges of advanced AI. The framework guides assessors in identifying potential risks, estimating likelihood and severity, and explicitly documenting evidence, underlying assumptions, and analyses at appropriate granularities. The framework’s implementation tool synthesizes the results into a risk report card with aggregated risk estimates from all assessed risks. This systematic approach integrates three advances: (1) Aspect-oriented hazard analysis provides systematic hazard coverage guided by a first-principles taxonomy of AI system aspects (e.g. capabilities, domain knowledge, affordances); (2) Risk pathway modeling analyzes causal chains from system aspects to societal impacts using bidirectional analysis and incorporating prospective techniques; and (3) Uncertainty management employs scenario decomposition, reference scales, and explicit tracing protocols to structure credible projections with novelty or limited data. Additionally, the framework harmonizes diverse assessment methods by integrating evidence into comparable, quantified absolute risk estimates for critical decisions. We have implemented this as a workbook tool for AI developers, evaluators, and regulators, available on the project website.

arxiv情報

著者 Anna Katariina Wisakanto,Joe Rogero,Avyay M. Casheekar,Richard Mallah
発行日 2025-04-25 17:59:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.LG, cs.SY, eess.SY, stat.AP | Adapting Probabilistic Risk Assessment for AI はコメントを受け付けていません

Generalization Capability for Imitation Learning

要約

模倣学習は、専門家のデモンストレーションから学ぶことにより、ロボットに多​​用途のスキルを装備するという約束を抱いています。
ただし、有限のデータセットでトレーニングされたポリシーは、トレーニングの分布を超えて一般化するのに苦労しています。
この作業では、模倣学習の一般化能力に関する統一された視点を提示します。
まず、一般化のギャップは、(i)中間表現に関する条件付き情報ボトルネックと、(ii)モデルパラメーターとトレーニングデータセットの間の相互情報によって上限になる可能性があることを示します。
この特性評価は、模倣学習における効果的なトレーニング戦略を設計するための理論的ガイダンスを提供します。特に、より良い一般化を実現するために、大規模な事前に守られたエンコーダ(視覚言語モデルやビジョン基礎モデルなど)をゼロから凍結、微調整、または訓練するかどうかを決定します。
さらに、入力から出力への高い条件付きエントロピーは、より平坦な尤度景観を誘発し、それによって一般化ギャップの上限を減らすことを実証します。
さらに、鋭い局所ミニマからの確率的勾配降下(SGD)エスケープ時間を短縮し、固定最適化予算の下でグローバルオプティマに到達する可能性を高める可能性があります。
これらの洞察は、模倣学習がしばしば限られた一般化を示す理由を説明し、入力データの多様性をスケーリングするだけでなく、同じ入力に条件付けられた出力ラベルの変動性を強化することの重要性を強調しています。

要約(オリジナル)

Imitation learning holds the promise of equipping robots with versatile skills by learning from expert demonstrations. However, policies trained on finite datasets often struggle to generalize beyond the training distribution. In this work, we present a unified perspective on the generalization capability of imitation learning, grounded in both information theorey and data distribution property. We first show that the generalization gap can be upper bounded by (i) the conditional information bottleneck on intermediate representations and (ii) the mutual information between the model parameters and the training dataset. This characterization provides theoretical guidance for designing effective training strategies in imitation learning, particularly in determining whether to freeze, fine-tune, or train large pretrained encoders (e.g., vision-language models or vision foundation models) from scratch to achieve better generalization. Furthermore, we demonstrate that high conditional entropy from input to output induces a flatter likelihood landscape, thereby reducing the upper bound on the generalization gap. In addition, it shortens the stochastic gradient descent (SGD) escape time from sharp local minima, which may increase the likelihood of reaching global optima under fixed optimization budgets. These insights explain why imitation learning often exhibits limited generalization and underscore the importance of not only scaling the diversity of input data but also enriching the variability of output labels conditioned on the same input.

arxiv情報

著者 Yixiao Wang
発行日 2025-04-25 17:59:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO | Generalization Capability for Imitation Learning はコメントを受け付けていません

BiasBench: A reproducible benchmark for tuning the biases of event cameras

要約

イベントベースのカメラは、各ピクセルの光を非同期に検出するバイオ風のセンサーです。
それらは、高い時間分解能、低レイテンシ、高ダイナミックレンジなど、従来のフレームベースのカメラよりもいくつかの利点があるため、コンピュータービジョンやロボティクスなどのフィールドでますます使用されています。
他のカメラと同様に、出力の品質は、イベントベースのカメラのバイアスと呼ばれるカメラの設定が構成されていることに依存します。
フレームベースのカメラには高度な自動構成アルゴリズムがありますが、これらのバイアスを調整するためのこのようなツールはほとんどありません。
体系的なテストフレームワークでは、異なるバイアスで同じシーンを観察する必要があります。これは、イベントカメラが動きがあるときにのみイベントを生成するため、難しいです。
イベントシミュレーターが存在しますが、バイアスは電気回路とピクセル設計に大きく依存するため、利用可能なシミュレータはバイアスチューニングにはあまり適していません。
再現性を可能にするために、グリッドのようなパターンでサンプリングされた設定を備えた複数のシーンを含む新しいイベントデータセットであるBiasbenchを提示します。
3つの異なるシーンを紹介します。それぞれがダウンストリームアプリケーションの品質メトリックを備えています。
さらに、オンラインバイアス調整を促進するための新しいRLベースの方法を提示します。

要約(オリジナル)

Event-based cameras are bio-inspired sensors that detect light changes asynchronously for each pixel. They are increasingly used in fields like computer vision and robotics because of several advantages over traditional frame-based cameras, such as high temporal resolution, low latency, and high dynamic range. As with any camera, the output’s quality depends on how well the camera’s settings, called biases for event-based cameras, are configured. While frame-based cameras have advanced automatic configuration algorithms, there are very few such tools for tuning these biases. A systematic testing framework would require observing the same scene with different biases, which is tricky since event cameras only generate events when there is movement. Event simulators exist, but since biases heavily depend on the electrical circuit and the pixel design, available simulators are not well suited for bias tuning. To allow reproducibility, we present BiasBench, a novel event dataset containing multiple scenes with settings sampled in a grid-like pattern. We present three different scenes, each with a quality metric of the downstream application. Additionally, we present a novel, RL-based method to facilitate online bias adjustments.

arxiv情報

著者 Andreas Ziegler,David Joseph,Thomas Gossard,Emil Moldovan,Andreas Zell
発行日 2025-04-25 10:33:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | BiasBench: A reproducible benchmark for tuning the biases of event cameras はコメントを受け付けていません

Event-Based Eye Tracking. 2025 Event-based Vision Workshop

要約

この調査は、2025年のCVPRイベントベースのビジョンワークショップの一部として編成された2025年のイベントベースのアイトラッキングチャレンジのレビューとして機能します。
この課題は、イベントカメラを記録した目の動きを処理することにより、瞳孔センターを予測するタスクに焦点を当てています。
チームからの革新的な方法をレビューして要約し、将来のイベントベースのアイトラッキング研究を進めるために、チャレンジのトップにランクされています。
各方法で、精度、モデルサイズ、および操作の数が報告されます。
この調査では、ハードウェア設計の観点からのイベントベースのアイトラッキングについても説明します。

要約(オリジナル)

This survey serves as a review for the 2025 Event-Based Eye Tracking Challenge organized as part of the 2025 CVPR event-based vision workshop. This challenge focuses on the task of predicting the pupil center by processing event camera recorded eye movement. We review and summarize the innovative methods from teams rank the top in the challenge to advance future event-based eye tracking research. In each method, accuracy, model size, and number of operations are reported. In this survey, we also discuss event-based eye tracking from the perspective of hardware design.

arxiv情報

著者 Qinyu Chen,Chang Gao,Min Liu,Daniele Perrone,Yan Ru Pei,Zuowen Wang,Zhuo Zou,Shihang Tan,Tao Han,Guorui Lu,Zhen Xu,Junyuan Ding,Ziteng Wang,Zongwei Wu,Han Han,Yuliang Wu,Jinze Chen,Wei Zhai,Yang Cao,Zheng-jun Zha,Nuwan Bandara,Thivya Kandappu,Archan Misra,Xiaopeng Lin,Hongxiang Huang,Hongwei Ren,Bojun Cheng,Hoang M. Truong,Vinh-Thuan Ly,Huy G. Tran,Thuan-Phat Nguyen,Tram T. Doan
発行日 2025-04-25 10:50:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG | Event-Based Eye Tracking. 2025 Event-based Vision Workshop はコメントを受け付けていません

SSL4Eco: A Global Seasonal Dataset for Geospatial Foundation Models in Ecology

要約

生物多様性と気候の危機の悪化により、グローバルな生物多様性マッピングなどの主要生態学的追求がより緊急になります。
リモートセンシングは、生態学的研究のための豊富な地球観測データを提供しますが、ラベル付きのデータセットの希少性は依然として大きな課題です。
最近、自己学習学習により、非標識データからの学習表現が可能になり、一般化可能な機能を備えた前提条件の地理空間モデルの開発が引き起こされました。
ただし、これらのモデルは、多くの場合、高い人間の活動の領域に偏っているデータセットで訓練されており、生態学的領域全体が過小評価されています。
さらに、一部のデータセットはマルチデート画像を通じて季節性に対処しようとしますが、通常、ローカルの生物季節学的サイクルではなく、カレンダーシーズンに従います。
グローバルスケールで植生の季節性を向上させるために、単純なフェノロジーに基づいたサンプリング戦略を提案し、対応するSSL4ECOを導入します。
SSL4ECOから学んだ表現を、多様な生態学的なダウンストリームタスクに関する他のデータセットと比較し、簡単なサンプリング方法が表現品質を一貫して改善し、データセット構築の重要性を強調することを示しています。
SSL4ECOで前処理されたモデルは、8つのダウンストリームタスク(マルチラベル)の分類と回帰にまたがる最先端のパフォーマンスに到達します。
https://github.com/plekhanovaelena/ssl4ecoでマクロ生態学的およびコンピュータービジョンの研究をサポートするために、コード、データ、およびモデルの重みをリリースします。

要約(オリジナル)

With the exacerbation of the biodiversity and climate crises, macroecological pursuits such as global biodiversity mapping become more urgent. Remote sensing offers a wealth of Earth observation data for ecological studies, but the scarcity of labeled datasets remains a major challenge. Recently, self-supervised learning has enabled learning representations from unlabeled data, triggering the development of pretrained geospatial models with generalizable features. However, these models are often trained on datasets biased toward areas of high human activity, leaving entire ecological regions underrepresented. Additionally, while some datasets attempt to address seasonality through multi-date imagery, they typically follow calendar seasons rather than local phenological cycles. To better capture vegetation seasonality at a global scale, we propose a simple phenology-informed sampling strategy and introduce corresponding SSL4Eco, a multi-date Sentinel-2 dataset, on which we train an existing model with a season-contrastive objective. We compare representations learned from SSL4Eco against other datasets on diverse ecological downstream tasks and demonstrate that our straightforward sampling method consistently improves representation quality, highlighting the importance of dataset construction. The model pretrained on SSL4Eco reaches state of the art performance on 7 out of 8 downstream tasks spanning (multi-label) classification and regression. We release our code, data, and model weights to support macroecological and computer vision research at https://github.com/PlekhanovaElena/ssl4eco.

arxiv情報

著者 Elena Plekhanova,Damien Robert,Johannes Dollinger,Emilia Arens,Philipp Brun,Jan Dirk Wegner,Niklaus Zimmermann
発行日 2025-04-25 10:58:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV | SSL4Eco: A Global Seasonal Dataset for Geospatial Foundation Models in Ecology はコメントを受け付けていません

Contrastive Learning and Adversarial Disentanglement for Task-Oriented Semantic Communications

要約

タスク指向のセマンティックコミュニケーションシステムは、特定のタスクに関連する情報のみが伝えられる効率的でインテリジェントなデータ送信を達成するための有望なアプローチとして浮上しています。
ただし、既存の方法は、タスクに関連したタスクに関係のある情報を完全に解き放つために苦労しており、プライバシーの懸念とサブパフォーマンスにつながります。
これに対処するために、CLAD(対照的な学習と敵対的な解体)という名前の情報ボトルネック法を提案します。
CLADは、敵対的な解体を採用してタスクに関係のある情報を破棄しながら、逆の機能を効果的にキャプチャするために対照的な学習を利用します。
さらに、エンコードされた特徴ベクトルの情報性と最小性についての洞察を得るための信頼性が高く再現可能な方法がないため、エンコードされた機能と入力の間の相互情報のプロキシとして使用される比較メトリックとして使用される情報保持指数(IRI)を計算する新しい手法を導入します。
IRIは、異なるタスク指向の通信技術にわたるエンコードされた機能ベクトルの最小性と情報性を定量化します。
私たちの広範な実験は、CLADがセマンティック抽出、タスクパフォ​​ーマンス、プライバシー保存、およびIRIの観点から最先端のベースラインを上回ることを示しています。
CLADは、約2.5〜3%の予測パフォーマンス改善と、IRIの77-90%の減少と敵対的属性推論攻撃精度の57-76%の減少を達成します。

要約(オリジナル)

Task-oriented semantic communication systems have emerged as a promising approach to achieving efficient and intelligent data transmission, where only information relevant to a specific task is communicated. However, existing methods struggle to fully disentangle task-relevant and task-irrelevant information, leading to privacy concerns and subpar performance. To address this, we propose an information-bottleneck method, named CLAD (contrastive learning and adversarial disentanglement). CLAD utilizes contrastive learning to effectively capture task-relevant features while employing adversarial disentanglement to discard task-irrelevant information. Additionally, due to the lack of reliable and reproducible methods to gain insight into the informativeness and minimality of the encoded feature vectors, we introduce a new technique to compute the information retention index (IRI), a comparative metric used as a proxy for the mutual information between the encoded features and the input, reflecting the minimality of the encoded features. The IRI quantifies the minimality and informativeness of the encoded feature vectors across different task-oriented communication techniques. Our extensive experiments demonstrate that CLAD outperforms state-of-the-art baselines in terms of semantic extraction, task performance, privacy preservation, and IRI. CLAD achieves a predictive performance improvement of around 2.5-3%, along with a 77-90% reduction in IRI and a 57-76% decrease in adversarial attribute inference attack accuracy.

arxiv情報

著者 Omar Erak,Omar Alhussein,Wen Tong
発行日 2025-04-25 11:17:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.IT, cs.LG, eess.IV, math.IT | Contrastive Learning and Adversarial Disentanglement for Task-Oriented Semantic Communications はコメントを受け付けていません