AI-Enabled Knowledge Sharing for Enhanced Collaboration and Decision-Making in Non-Profit Healthcare Organizations: A Scoping Review Protocol

要約

このプロトコルは、リソース制限された非営利医療機関におけるAI対応の知識共有に関する既存の証拠を体系的にマッピングするように設計されたスコーピングレビューの概要を示しています。
このレビューの目的は、特にUSAID運用の停止後の外部サポートの減少の文脈において、そのような技術がどのようにコラボレーションと意思決定を強化するかを調査することです。
3つの理論的フレームワーク、すなわち、リソースベースのビュー、動的能力理論、吸収能力理論に導かれたこの研究では、組織の学習と俊敏性の戦略的リソースとイネーブラーとしてのAIの二重の役割を調査します。
プロトコルは、複数のデータベースにわたる体系的な検索戦略、包含および除外基準、および構造化されたデータ抽出プロセスを含む、Prisma-SCRガイドラインに基づいた厳密な方法論的アプローチを詳述します。
理論的洞察を経験的証拠と統合することにより、このスコーピングレビューは、文献の重要なギャップを特定し、非営利のヘルスケア設定における効果的でリソースが最適化されたAIソリューションの設計を通知しようとしています。

要約(オリジナル)

This protocol outlines a scoping review designed to systematically map the existing body of evidence on AI-enabled knowledge sharing in resource-limited non-profit healthcare organizations. The review aims to investigate how such technologies enhance collaboration and decision-making, particularly in the context of reduced external support following the cessation of USAID operations. Guided by three theoretical frameworks namely, the Resource-Based View, Dynamic Capabilities Theory, and Absorptive Capacity Theory, this study will explore the dual role of AI as a strategic resource and an enabler of organizational learning and agility. The protocol details a rigorous methodological approach based on PRISMA-ScR guidelines, encompassing a systematic search strategy across multiple databases, inclusion and exclusion criteria, and a structured data extraction process. By integrating theoretical insights with empirical evidence, this scoping review seeks to identify critical gaps in the literature and inform the design of effective, resource-optimized AI solutions in non-profit healthcare settings.

arxiv情報

著者 Maurice Ongala,Ruth Kiraka,Jyoti Choundrie,Javan Okello
発行日 2025-03-10 17:09:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI | AI-Enabled Knowledge Sharing for Enhanced Collaboration and Decision-Making in Non-Profit Healthcare Organizations: A Scoping Review Protocol はコメントを受け付けていません

Geometric Retargeting: A Principled, Ultrafast Neural Hand Retargeting Algorithm

要約

最近の器用さGEN(Dexgen)システムの一部として開発された、遠速で、伸長のための超高速、および原則的なニューラルハンドリターゲティングアルゴリズムを導入します。
Geortは、人間の指のキーポイントを1kHzでロボットハンドキーポイントに変換し、最先端の速度と精度を達成し、ハイパーパラメーターが大幅に少なくなります。
この高速機能は、Dexgenのようなアクション補正のために基礎コントローラーを活用するなど、柔軟なポストプロセスを可能にします。
Geortは、監視されていない方法で訓練されており、手動の注釈の必要性を排除します。
Geortのコアは、リターゲティングの本質をキャプチャする新しい幾何学的目的関数にあります:モーションの忠実度の維持、構成空間(Cスペース)カバレッジの確保、高い平坦性による均一な応答の維持、ピンチの対応、および自己衝突の防止。
このアプローチは、集中的なテスト時間最適化から解放されており、リアルタイムのハンドリタール操作のためのよりスケーラブルで実用的なソリューションを提供します。

要約(オリジナル)

We introduce Geometric Retargeting (GeoRT), an ultrafast, and principled neural hand retargeting algorithm for teleoperation, developed as part of our recent Dexterity Gen (DexGen) system. GeoRT converts human finger keypoints to robot hand keypoints at 1KHz, achieving state-of-the-art speed and accuracy with significantly fewer hyperparameters. This high-speed capability enables flexible postprocessing, such as leveraging a foundational controller for action correction like DexGen. GeoRT is trained in an unsupervised manner, eliminating the need for manual annotation of hand pairs. The core of GeoRT lies in novel geometric objective functions that capture the essence of retargeting: preserving motion fidelity, ensuring configuration space (C-space) coverage, maintaining uniform response through high flatness, pinch correspondence and preventing self-collisions. This approach is free from intensive test-time optimization, offering a more scalable and practical solution for real-time hand retargeting.

arxiv情報

著者 Zhao-Heng Yin,Changhao Wang,Luis Pineda,Krishna Bodduluri,Tingfan Wu,Pieter Abbeel,Mustafa Mukadam
発行日 2025-03-10 17:10:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.GR, cs.HC, cs.LG, cs.RO | Geometric Retargeting: A Principled, Ultrafast Neural Hand Retargeting Algorithm はコメントを受け付けていません

Queueing, Predictions, and LLMs: Challenges and Open Problems

要約

キューイングシステムは、システムパフォーマンスを改善するために、推定サービス時間などの機械学習予測を適用する多くの機会を提供します。
この統合は、スケジューリングの決定を改善するために予測を効果的に活用する方法について、多くの未解決の疑問を提起します。
最近の研究では、予測されるサービス時間を伴うキューを調査し、通常はシステムの雇用時間を最小限に抑えることを目指しています。
これらの作品をレビューし、予測の有効性を強調し、キューのパフォーマンスに関するオープンな質問を提示します。
次に、スケジューリングで予測を使用する重要な実用的な例、つまり大規模な言語モデル(LLM)システムを検討し、新しいスケジューリングの課題を提示し、パフォーマンスを改善する予測の可能性を強調します。
特に、LLMSが推論を実行することを検討します。
LLMシステムの推論要求(ジョブ)は本質的に複雑です。
それらは、可変推論時間、キー値(kV)ストアメモリの制限によって制約される動的メモリフットプリント、およびパフォーマンスに異なる影響を与える複数の可能な先制アプローチを持っています。
LLMシステムでのスケジューリングの重要な側面に関する背景を提供し、新しいモデルとそれらから発生するオープンな問題を導入します。
キューイング理論からLLMシステムのスケジューリングに洞察と分析を適用する重要な機会があると主張します。

要約(オリジナル)

Queueing systems present many opportunities for applying machine-learning predictions, such as estimated service times, to improve system performance. This integration raises numerous open questions about how predictions can be effectively leveraged to improve scheduling decisions. Recent studies explore queues with predicted service times, typically aiming to minimize job time in the system. We review these works, highlight the effectiveness of predictions, and present open questions on queue performance. We then move to consider an important practical example of using predictions in scheduling, namely Large Language Model (LLM) systems, which presents novel scheduling challenges and highlights the potential for predictions to improve performance. In particular, we consider LLMs performing inference. Inference requests (jobs) in LLM systems are inherently complex; they have variable inference times, dynamic memory footprints that are constrained by key-value (KV) store memory limitations, and multiple possible preemption approaches that affect performance differently. We provide background on the important aspects of scheduling in LLM systems, and introduce new models and open problems that arise from them. We argue that there are significant opportunities for applying insights and analysis from queueing theory to scheduling in LLM systems.

arxiv情報

著者 Michael Mitzenmacher,Rana Shahout
発行日 2025-03-10 17:12:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.DS | Queueing, Predictions, and LLMs: Challenges and Open Problems はコメントを受け付けていません

KSOD: Knowledge Supplement for LLMs On Demand

要約

大規模な言語モデル(LLM)は、さまざまなタスクで顕著な機能を実証していますが、ドメイン固有のタスクでエラーを引き起こしています。
パフォーマンスをさらに向上させるために、KSOD(LLMS On Demandの知識サプリメント)を提案します。これは、知識ベースの監視された微調整(SFT)でLLMSが能力を改善できるようにする新しいフレームワークです。
KSODは、エラーにつながる可能性のあるLLMの潜在的な欠落知識を識別することにより、知識不足の観点からエラーの原因を分析します。
その後、KSODは知識データセットの知識モジュールを調整し、LLMにそれに基づいて特定された知識がないかどうかを確認します。
知識が検証されている場合、KSODは知識モジュールを使用して特定された知識をLLMに補完します。
特定のタスクの代わりに特定の知識でLLMを調整し、2つのドメイン固有のベンチマークと4つの一般的なベンチマークでのタスクと知識と実験を分離し、KSODが他のタスクでのパフォーマンスを維持しながら補足された知識を必要とするタスクでのLLMSのパフォーマンスを強化することを実証的に示しています。
私たちの発見は、知識ベースのSFTを使用してLLMSの機能を改善する可能性を明らかにしました。

要約(オリジナル)

Large Language Models (LLMs) have demonstrated remarkable capabilities in various tasks, yet still produce errors in domain-specific tasks. To further improve their performance, we propose KSOD (Knowledge Supplement for LLMs On Demand), a novel framework that empowers LLMs to improve their capabilities with knowledge-based supervised fine-tuning (SFT). KSOD analyzes the causes of errors from the perspective of knowledge deficiency by identifying potential missing knowledge in LLM that may lead to the errors. Subsequently, KSOD tunes a knowledge module on knowledge dataset and verifies whether the LLM lacks the identified knowledge based on it. If the knowledge is verified, KSOD supplements the LLM with the identified knowledge using the knowledge module. Tuning LLMs on specific knowledge instead of specific task decouples task and knowledge and our experiments on two domain-specific benchmarks and four general benchmarks empirically demonstrate that KSOD enhances the performance of LLMs on tasks requiring the supplemented knowledge while preserving their performance on other tasks. Our findings shed light on the potential of improving the capabilities of LLMs with knowledge-based SFT.

arxiv情報

著者 Haoran Li,Junfeng Hu
発行日 2025-03-10 17:17:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG | KSOD: Knowledge Supplement for LLMs On Demand はコメントを受け付けていません

Inductive Moment Matching

要約

拡散モデルとフローマッチングは、高品質のサンプルを生成しますが、推論では遅くなり、それらを少数のモデルに蒸留することは、しばしば不安定性と広範なチューニングにつながります。
これらのトレードオフを解決するために、単一段階のトレーニング手順を備えた1つまたは少数のサンプリングのための新しいクラスの生成モデルである帰納的モーメントマッチング(IMM)を提案します。
蒸留とは異なり、IMMは2つのネットワークのトレーニング前の初期化と最適化を必要としません。
また、一貫性モデルとは異なり、IMMは分布レベルの収束を保証し、さまざまなハイパーパラメーターと標準モデルアーキテクチャの下で安定したままです。
IMMは、8つの推論ステップのみを使用して1.99 FIDでImagenet-256×256で拡散モデルを上回り、ゼロからトレーニングされたモデルのCIFAR-10で最先端の2ステップFIDをCIFAR-10で達成します。

要約(オリジナル)

Diffusion models and Flow Matching generate high-quality samples but are slow at inference, and distilling them into few-step models often leads to instability and extensive tuning. To resolve these trade-offs, we propose Inductive Moment Matching (IMM), a new class of generative models for one- or few-step sampling with a single-stage training procedure. Unlike distillation, IMM does not require pre-training initialization and optimization of two networks; and unlike Consistency Models, IMM guarantees distribution-level convergence and remains stable under various hyperparameters and standard model architectures. IMM surpasses diffusion models on ImageNet-256×256 with 1.99 FID using only 8 inference steps and achieves state-of-the-art 2-step FID of 1.98 on CIFAR-10 for a model trained from scratch.

arxiv情報

著者 Linqi Zhou,Stefano Ermon,Jiaming Song
発行日 2025-03-10 17:37:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ML | Inductive Moment Matching はコメントを受け付けていません

Runtime Detection of Adversarial Attacks in AI Accelerators Using Performance Counters

要約

AIテクノロジーの迅速な採用は、AIアプリケーションの機密性と完全性を脅かす敵対的な摂動のリスクを含む、いくつかの主要なセキュリティ上の懸念を引き起こします。
AIハードウェアを誤用や多様なセキュリティの脅威から保護することは、困難な作業です。
この課題に対処するために、AIハードウェアの悪意のある使用と攻撃に対する回復力に対する保護のための新しいフレームワークであるSamuraiを提案します。
Samuraiは、AIモデルの動的動作を追跡するためのAIパフォーマンスカウンター(APC)を導入します。AIモデルと、Tantoとして知られるオンチップ機械学習(ML)分析エンジン(Trace Tuservationによる訓練された異常検査)を追跡します。
APCは、さまざまなAI操作の低レベルのハードウェアイベントのランタイムプロファイルを記録します。
その後、APCによって記録された概要情報はTantoによって処理され、潜在的なセキュリティ侵害を効率的に特定し、AIの安全で責任ある使用を確保します。
Samuraiは、モデルの統合を必要とする従来のソフトウェアベースのソリューションに依存することなく、セキュリティの脅威をリアルタイムで検出し、誤用を可能にします。
実験結果は、サムライがさまざまなAIモデルで中程度のオーバーヘッドで敵対攻撃を検出する際に最大97%の精度を達成し、従来のソフトウェアベースのアプローチを大幅に上回ることを示しています。
これにより、セキュリティと規制のコンプライアンスが強化され、AIを緊急の脅威に対して保護するための包括的なソリューションを提供します。

要約(オリジナル)

Rapid adoption of AI technologies raises several major security concerns, including the risks of adversarial perturbations, which threaten the confidentiality and integrity of AI applications. Protecting AI hardware from misuse and diverse security threats is a challenging task. To address this challenge, we propose SAMURAI, a novel framework for safeguarding against malicious usage of AI hardware and its resilience to attacks. SAMURAI introduces an AI Performance Counter (APC) for tracking dynamic behavior of an AI model coupled with an on-chip Machine Learning (ML) analysis engine, known as TANTO (Trained Anomaly Inspection Through Trace Observation). APC records the runtime profile of the low-level hardware events of different AI operations. Subsequently, the summary information recorded by the APC is processed by TANTO to efficiently identify potential security breaches and ensure secure, responsible use of AI. SAMURAI enables real-time detection of security threats and misuse without relying on traditional software-based solutions that require model integration. Experimental results demonstrate that SAMURAI achieves up to 97% accuracy in detecting adversarial attacks with moderate overhead on various AI models, significantly outperforming conventional software-based approaches. It enhances security and regulatory compliance, providing a comprehensive solution for safeguarding AI against emergent threats.

arxiv情報

著者 Habibur Rahaman,Atri Chatterjee,Swarup Bhunia
発行日 2025-03-10 17:38:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.LG | Runtime Detection of Adversarial Attacks in AI Accelerators Using Performance Counters はコメントを受け付けていません

MA-LoT: Multi-Agent Lean-based Long Chain-of-Thought Reasoning enhances Formal Theorem Proving

要約

LEANのようなコンピューターで検証可能な言語を使用して数学的問題を解決することは、数学的およびコンピューターサイエンスコミュニティに大きな影響を与えてきました。
最先端の方法では、単一の大手言語モデル(LLMS)をエージェントまたはプローバーとして利用して、完全な証明を生成するか、ツリー検索を実行します。
ただし、単一エージェントの方法には、自然言語(NL)の高レベルの推論と正式な言語(FL)検証フィードバックを組み合わせるための構造化された方法が本質的に欠けています。
これらの問題を解決するために、Ma-lot:Multi-Agent Based Long-of-Thech of-Thech Framework(私たちの知る限り)を提案します。これは、LEAN4定理の最初のマルチエージェントフレームワークであり、長いCOTの高レベルのNLの推論とFL検証のバランスをとることを証明しています。
この構造化された相互作用を使用して、私たちのアプローチは、過去の方法が苦労している、より深い洞察と長期的な一貫性を証明生成において可能にします。
私たちは、私たちの新しいロットトランスファー学習トレーニング – 訓練 – 推論パイプラインを使用して、長いCOTで緊急の正式な推論能力を活用することにより、これを行います。
広範な実験では、私たちのフレームワークが、MINIF2F-TESTデータセットのLEAN4バージョンで61.07%の精度を達成し、GPT-4(22.95%)、シングルエージェントツリー検索(Internlm-Step-Prover、50.70%)、および全プルフジェネレーション(Godel-Prover、55.33%)を上回ることを示しています。
さらに、私たちの調査結果は、より広い視点でより洞察に満ちた世代のために、長いCOTと正式な検証を組み合わせる可能性を強調しています。

要約(オリジナル)

Solving mathematical problems using computer-verifiable languages like Lean has significantly impacted mathematical and computer science communities. State-of-the-art methods utilize single Large Language Models (LLMs) as agents or provers to either generate complete proof or perform tree searches. However, single-agent methods inherently lack a structured way to combine high-level reasoning in Natural Language (NL) with Formal Language (FL) verification feedback. To solve these issues, we propose MA-LoT: Multi-Agent Lean-based Long Chain-of-Thought framework, (to the best of our knowledge), the first multi-agent framework for Lean4 theorem proving that balance high-level NL reasoning and FL verification in Long CoT. Using this structured interaction, our approach enables deeper insights and long-term coherence in proof generation, with which past methods struggle. We do this by leveraging emergent formal reasoning ability in Long CoT using our novel LoT-Transfer Learning training-inference pipeline. Extensive experiments show that our framework achieves a 61.07% accuracy rate on the Lean4 version of the MiniF2F-Test dataset, largely outperforming GPT-4 (22.95%), single-agent tree search (InternLM-Step-Prover, 50.70%), and whole-proof generation (Godel-Prover, 55.33%) baselines. Furthermore, our findings highlight the potential of combining Long CoT with formal verification for a more insightful generation in a broader perspective.

arxiv情報

著者 Ruida Wang,Rui Pan,Yuxin Li,Jipeng Zhang,Yizhen Jia,Shizhe Diao,Renjie Pi,Junjie Hu,Tong Zhang
発行日 2025-03-10 17:39:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | MA-LoT: Multi-Agent Lean-based Long Chain-of-Thought Reasoning enhances Formal Theorem Proving はコメントを受け付けていません

Optimizing Test-Time Compute via Meta Reinforcement Fine-Tuning

要約

テスト時間計算を効果的に使用するトレーニングモデルは、LLMSの推論パフォーマンスを改善するために重要です。
現在の方法は、検索トレースでの微調整または0/1の結果報酬でRLを実行することにより、主にそうしますが、これらのアプローチはテスト時間計算を効率的に利用していますか?
これらのアプローチは、予算が改善するにつれて拡大し続けますか?
この論文では、これらの質問に答えようとします。
テスト時間計算を最適化する問題を正式に形式化します。これは、テスト時間計算の原則的な視点を提供するメタ補強学習(RL)問題です。
この視点により、テスト時に実行されるいくつかのエピソードで構成されるLLMからの長い出力ストリームを表示することができ、テスト時間計算の有効性を測定する方法として、出力トークンに対する累積後悔の概念を使用するようになります。
RLアルゴリズムがトレーニングよりもトレードオフの探索と搾取を最適にする方法と同様に、累積的な後悔を最小限に抑えることで、トークンストリームでの探索と搾取の最良のバランスが得られます。
最先端のモデルが後悔を最小限に抑えないことを示しますが、結果0/1報酬RLと併せて密な報酬ボーナスを最大化することでそうすることができます。
このボーナスは、出力ストリームの後続の各ブロックによって作成された「進行状況」であり、最終的な成功の可能性の変化によって定量化されます。
これらの洞察を使用して、テスト時間計算を最適化するための新しいクラスの微調整方法であるMETA補強微調整(MRT)を開発します。
MRTは、パフォーマンスが2〜3倍の相対的な増加をもたらし、結果のRLと比較して数学の推論でトークン効率の約1.5倍の増加をもたらします。

要約(オリジナル)

Training models to effectively use test-time compute is crucial for improving the reasoning performance of LLMs. Current methods mostly do so via fine-tuning on search traces or running RL with 0/1 outcome reward, but do these approaches efficiently utilize test-time compute? Would these approaches continue to scale as the budget improves? In this paper, we try to answer these questions. We formalize the problem of optimizing test-time compute as a meta-reinforcement learning (RL) problem, which provides a principled perspective on spending test-time compute. This perspective enables us to view the long output stream from the LLM as consisting of several episodes run at test time and leads us to use a notion of cumulative regret over output tokens as a way to measure the efficacy of test-time compute. Akin to how RL algorithms can best tradeoff exploration and exploitation over training, minimizing cumulative regret would also provide the best balance between exploration and exploitation in the token stream. While we show that state-of-the-art models do not minimize regret, one can do so by maximizing a dense reward bonus in conjunction with the outcome 0/1 reward RL. This bonus is the ”progress” made by each subsequent block in the output stream, quantified by the change in the likelihood of eventual success. Using these insights, we develop Meta Reinforcement Fine-Tuning, or MRT, a new class of fine-tuning methods for optimizing test-time compute. MRT leads to a 2-3x relative gain in performance and roughly a 1.5x gain in token efficiency for math reasoning compared to outcome-reward RL.

arxiv情報

著者 Yuxiao Qu,Matthew Y. R. Yang,Amrith Setlur,Lewis Tunstall,Edward Emanuel Beeching,Ruslan Salakhutdinov,Aviral Kumar
発行日 2025-03-10 17:40:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG | Optimizing Test-Time Compute via Meta Reinforcement Fine-Tuning はコメントを受け付けていません

SDFit: 3D Object Pose and Shape by Fitting a Morphable SDF to a Single Image

要約

単一の画像から3Dオブジェクトのポーズと形状を回復することは、挑戦的で非常に不適切な問題です。
これは、強力な(自己)閉塞、深さのあいまいさ、広大なクラス内およびクラス間形状の分散、および自然画像の3Dグラウンドトゥルースの欠如によるものです。
既存の方法は合成データセット上の深いネットワークを訓練して3D形状を予測しますが、実際のシナリオに一般化するのに苦労し、ノイズの多い推定値を改良するための明示的なフィードバックループを欠いており、主にピクセルアライメントを明示的に考慮せずにジオメトリに焦点を当てます。
この目的のために、2つの重要な観察結果を作成します。(1)堅牢なソリューションには、検索空間を制限する前に強力なカテゴリ固有の形状を課すモデルが必要であり、(2)基礎モデルがジョイントスペースに2D画像と3D形状を埋め込みました。
どちらも曖昧さの解決に役立ちます。
したがって、3つの重要な革新に基づいて構築された新しい最適化フレームワークであるSDFITを提案します。まず、強力な形状として機能する学習されたモーフ可能な署名距離機能(MSDF)モデルを使用して、形状空間を制約します。
第二に、基礎モデルを使用して、画像機能とMSDFの間にリッチな2D対3D対応を確立します。
第三に、MSDFを画像に合わせて、形状とポーズの両方を繰り返し洗練するフィッティングパイプラインを開発します。
PIX3D、PASCAL3D+、およびコミック画像データセットのSDFITを評価します。
SDFITは、SOTAメソッドと同等のパフォーマンスを発揮しながら、オクルージョンに対する並外れた堅牢性を示し、目に見えない画像の再訓練を必要としません。
したがって、SDFITは、野生に一般化するための新しい洞察を提供し、将来の研究への道を開いています。
コードがリリースされます。

要約(オリジナル)

Recovering 3D object pose and shape from a single image is a challenging and highly ill-posed problem. This is due to strong (self-)occlusions, depth ambiguities, the vast intra- and inter-class shape variance, and lack of 3D ground truth for natural images. While existing methods train deep networks on synthetic datasets to predict 3D shapes, they often struggle to generalize to real-world scenarios, lack an explicit feedback loop for refining noisy estimates, and primarily focus on geometry without explicitly considering pixel alignment. To this end, we make two key observations: (1) a robust solution requires a model that imposes a strong category-specific shape prior to constrain the search space, and (2) foundational models embed 2D images and 3D shapes in joint spaces; both help resolve ambiguities. Hence, we propose SDFit, a novel optimization framework that is built on three key innovations: First, we use a learned morphable signed-distance-function (mSDF) model that acts as a strong shape prior, thus constraining the shape space. Second, we use foundational models to establish rich 2D-to-3D correspondences between image features and the mSDF. Third, we develop a fitting pipeline that iteratively refines both shape and pose, aligning the mSDF to the image. We evaluate SDFit on the Pix3D, Pascal3D+, and COMIC image datasets. SDFit performs on par with SotA methods, while demonstrating exceptional robustness to occlusions and requiring no retraining for unseen images. Therefore, SDFit contributes new insights for generalizing in the wild, paving the way for future research. Code will be released.

arxiv情報

著者 Dimitrije Antić,Georgios Paschalidis,Shashank Tripathi,Theo Gevers,Sai Kumar Dwivedi,Dimitrios Tzionas
発行日 2025-03-10 14:43:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV | SDFit: 3D Object Pose and Shape by Fitting a Morphable SDF to a Single Image はコメントを受け付けていません

MIBench: A Comprehensive Framework for Benchmarking Model Inversion Attack and Defense

要約

モデル反転(MI)攻撃は、ターゲットモデルの出力情報を活用してプライバシーに敏感なトレーニングデータを再構築し、ディープニューラルネットワーク(DNNS)のプライバシーの脆弱性に関する重要な懸念を引き起こすことを目的としています。
残念ながら、MI攻撃の急速な進化と並行して、標準化されたメトリックと再現可能な実装を備えた包括的なベンチマークの欠如が恐ろしい課題として浮上しています。
この欠陥は、方法論的進歩の客観的な比較と防衛効果の信頼できる評価を妨げています。
このクリティカルギャップに対処するために、モデルの反転攻撃と防御の体系的な評価のために、Mibenchという名前の最初の実用的なベンチマークを構築します。
このベンチマークは、現在19の最先端の攻撃および防御方法を統合し、9つの標準化された評価プロトコルを包含する拡張可能で再現可能なモジュラーベースのツールボックスに基づいています。
この基盤を活用すると、複数の視点から広範な評価を実施して、ターゲット解像度、モデルの予測力、防衛パフォーマンス、敵対的堅牢性の影響など、さまざまなシナリオでさまざまな方法を総合的に比較および分析します。

要約(オリジナル)

Model Inversion (MI) attacks aim at leveraging the output information of target models to reconstruct privacy-sensitive training data, raising critical concerns regarding the privacy vulnerabilities of Deep Neural Networks (DNNs). Unfortunately, in tandem with the rapid evolution of MI attacks, the absence of a comprehensive benchmark with standardized metrics and reproducible implementations has emerged as a formidable challenge. This deficiency has hindered objective comparison of methodological advancements and reliable assessment of defense efficacy. To address this critical gap, we build the first practical benchmark named MIBench for systematic evaluation of model inversion attacks and defenses. This benchmark bases on an extensible and reproducible modular-based toolbox which currently integrates a total of 19 state-of-the-art attack and defense methods and encompasses 9 standardized evaluation protocols. Capitalizing on this foundation, we conduct extensive evaluation from multiple perspectives to holistically compare and analyze various methods across different scenarios, such as the impact of target resolution, model predictive power, defense performance and adversarial robustness.

arxiv情報

著者 Yixiang Qiu,Hongyao Yu,Hao Fang,Tianqu Zhuang,Wenbo Yu,Bin Chen,Xuan Wang,Shu-Tao Xia,Ke Xu
発行日 2025-03-10 14:46:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.CV | MIBench: A Comprehensive Framework for Benchmarking Model Inversion Attack and Defense はコメントを受け付けていません