Surface-Enhanced Raman Spectroscopy and Transfer Learning Toward Accurate Reconstruction of the Surgical Zone

要約

コヒーレント光の非弾性後方散乱に基づくフォトニックモダリティであるラマン分光法は、手術中の病理組織の診断に使用できる非イオン化ポテンシャルと高度に特異的な分子指紋のような分光シグネチャを提供する、術中のセンシング空間にとって貴重な資産です。
ダイナミックな手術領域。
ラマンは強度が弱いという欠点がありますが、金属ナノ構造を使用してラマン信号を増幅する表面増強ラマン分光法(SERS)は、従来のフォトニックモダリティに匹敵する検出感度を達成できます。
この研究では、健康な組織に埋め込まれた腫瘍の位置と境界を正確に特定できるロボットラマンシステムの概要を説明します。ここでは、選択的に注入されたGold Nanostar領域を備えた組織模倣ファントムとしてモデル化されています。
さらに、収集された生物学的 SERS またはラマン データが相対的に不足しているため、コントロール アガロースと比較して Gold Nanostar の検証分類精度を 100% 達成するために転移学習を実装し、ラマンベースの深層学習トレーニング パイプラインの概念実証を提供します。

30x60mm の手術野を 10.2 分で再構築し、98.2% の精度を達成し、ファントム内の特徴間の相対的な測定値を維持します。
また、84.3% の交差対結合スコアも達成しました。これは、グラウンド トゥルースと予測された再構成の間の重複の範囲です。
最後に、ラマン システムと分類アルゴリズムがサンプルの色ではなく、SERS エージェントの存在に基づいて識別することも示します。
この研究は、術中の腫瘍学的空間におけるインテリジェントなラマン システムの変換における重要なステップを提供します。

要約(オリジナル)

Raman spectroscopy, a photonic modality based on the inelastic backscattering of coherent light, is a valuable asset to the intraoperative sensing space, offering non-ionizing potential and highly-specific molecular fingerprint-like spectroscopic signatures that can be used for diagnosis of pathological tissue in the dynamic surgical field. Though Raman suffers from weakness in intensity, Surface-Enhanced Raman Spectroscopy (SERS), which uses metal nanostructures to amplify Raman signals, can achieve detection sensitivities that rival traditional photonic modalities. In this study, we outline a robotic Raman system that can reliably pinpoint the location and boundaries of a tumor embedded in healthy tissue, modeled here as a tissue-mimicking phantom with selectively infused Gold Nanostar regions. Further, due to the relative dearth of collected biological SERS or Raman data, we implement transfer learning to achieve 100% validation classification accuracy for Gold Nanostars compared to Control Agarose, thus providing a proof-of-concept for Raman-based deep learning training pipelines. We reconstruct a surgical field of 30x60mm in 10.2 minutes, and achieve 98.2% accuracy, preserving relative measurements between features in the phantom. We also achieve an 84.3% Intersection-over-Union score, which is the extent of overlap between the ground truth and predicted reconstructions. Lastly, we also demonstrate that the Raman system and classification algorithm do not discern based on sample color, but instead on presence of SERS agents. This study provides a crucial step in the translation of intelligent Raman systems in intraoperative oncological spaces.

arxiv情報

著者 Ashutosh Raman,Ren A. Odion,Kent K. Yamamoto,Weston Ross,Tuan Vo-Dinh,Patrick J. Codd
発行日 2024-01-16 20:47:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO, eess.IV パーマリンク