要約
デジタル組織病理学の高解像度全体のスライド画像の量が増えているため、重要な保管、伝送、および計算効率の課題が生じます。
JPEGなどの標準的な圧縮方法は、ファイルサイズを削減しますが、多くの場合、下流のタスクに重要な細粒の表現型の詳細を保存できません。
この作業では、病理画像の効率的な学習圧縮フレームワークとして、潜在的拡散モデル向けに設計された自動エンコーダー(AE)を再利用します。
圧縮レベルが変化する3つのAEモデルを体系的にベンチマークし、病理学の基礎モデルを使用して再構築能力を評価します。
病理学固有の学習知覚メトリックを最適化する再構築の忠実度をさらに強化するために、微調整戦略を導入します。
セグメンテーション、パッチ分類、複数のインスタンス学習など、ダウンストリームタスクに関するアプローチを検証し、画像をAE圧縮再構成に置き換えるとパフォーマンスの低下につながることが示されます。
さらに、AEの潜在性のK-Meansクラスタリングベースの量子化方法を提案し、再構成の品質を維持しながら貯蔵効率を改善します。
https://huggingface.co/collections/stonybrook-cvlab/pathology-fine-tuned-aes-67d45fff223a659ff2e3402dd0で微調整された自動エンコーダーの重みを提供します。
要約(オリジナル)
The growing volume of high-resolution Whole Slide Images in digital histopathology poses significant storage, transmission, and computational efficiency challenges. Standard compression methods, such as JPEG, reduce file sizes but often fail to preserve fine-grained phenotypic details critical for downstream tasks. In this work, we repurpose autoencoders (AEs) designed for Latent Diffusion Models as an efficient learned compression framework for pathology images. We systematically benchmark three AE models with varying compression levels and evaluate their reconstruction ability using pathology foundation models. We introduce a fine-tuning strategy to further enhance reconstruction fidelity that optimizes a pathology-specific learned perceptual metric. We validate our approach on downstream tasks, including segmentation, patch classification, and multiple instance learning, showing that replacing images with AE-compressed reconstructions leads to minimal performance degradation. Additionally, we propose a K-means clustering-based quantization method for AE latents, improving storage efficiency while maintaining reconstruction quality. We provide the weights of the fine-tuned autoencoders at https://huggingface.co/collections/StonyBrook-CVLab/pathology-fine-tuned-aes-67d45f223a659ff2e3402dd0.
arxiv情報
著者 | Srikar Yellapragada,Alexandros Graikos,Kostas Triaridis,Zilinghan Li,Tarak Nath Nandi,Ravi K Madduri,Prateek Prasanna,Joel Saltz,Dimitris Samaras |
発行日 | 2025-03-14 17:01:17+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google