要約
近年、診断を容易にするために使用される医用画像と、分類、検出、セグメンテーションなどのタスクを実行するための機械学習技術のパフォーマンスが大幅に改善されました。
その結果、このようなシステムの使用がヘルスケア業界で急速に増加しています。たとえば、医療画像分類システムの形で、これらのモデルは人間の医師と同等の診断を達成しています。
これを観察できるアプリケーションの 1 つは、皮膚鏡画像の皮膚病変の分類などのコンピューター ビジョン タスクです。
ただし、保険会社などのヘルスケア業界の利害関係者が機械学習インフラストラクチャに大規模な投資を続けているため、そのようなシステムの脆弱性を理解することがますます重要になっています。
これらの機械学習モデルによって実行されるタスクの非常に重要な性質のため、これらの脆弱性を利用するために使用できる手法と、それらを防御する方法を分析する必要があります。
このホワイト ペーパーでは、一般的な敵対的攻撃手法について説明します。
Fast Sign Gradient Method と Projected Descent Gradient は、皮膚病変の皮膚鏡画像を分類するようにトレーニングされた畳み込みニューラル ネットワークに対して使用されます。
それに続いて、最も一般的な敵対的防御手法の 1 つである敵対的トレーニングについても説明します。
次に、敵対的な例でトレーニングされたモデルのパフォーマンスが前述の攻撃に対してテストされ、実験の結果に基づいてニューラル ネットワークの堅牢性を向上させるための推奨事項が提供されます。
要約(オリジナル)
There has been a concurrent significant improvement in the medical images used to facilitate diagnosis and the performance of machine learning techniques to perform tasks such as classification, detection, and segmentation in recent years. As a result, a rapid increase in the usage of such systems can be observed in the healthcare industry, for instance in the form of medical image classification systems, where these models have achieved diagnostic parity with human physicians. One such application where this can be observed is in computer vision tasks such as the classification of skin lesions in dermatoscopic images. However, as stakeholders in the healthcare industry, such as insurance companies, continue to invest extensively in machine learning infrastructure, it becomes increasingly important to understand the vulnerabilities in such systems. Due to the highly critical nature of the tasks being carried out by these machine learning models, it is necessary to analyze techniques that could be used to take advantage of these vulnerabilities and methods to defend against them. This paper explores common adversarial attack techniques. The Fast Sign Gradient Method and Projected Descent Gradient are used against a Convolutional Neural Network trained to classify dermatoscopic images of skin lesions. Following that, it also discusses one of the most popular adversarial defense techniques, adversarial training. The performance of the model that has been trained on adversarial examples is then tested against the previously mentioned attacks, and recommendations to improve neural networks robustness are thus provided based on the results of the experiment.
arxiv情報
著者 | Vinay Jogani,Joy Purohit,Ishaan Shivhare,Samina Attari,Shraddha Surtkar |
発行日 | 2022-12-13 18:58:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google