Robust and Explainable Fine-Grained Visual Classification with Transfer Learning: A Dual-Carriageway Framework

要約

深層学習に基づいた実用的なきめの細かい視覚的分類アプリケーションの領域では、一般的なシナリオには、既存のデータセットを使用してモデルをトレーニングすることが含まれます。
その後、新しいデータセットが利用可能になり、両方の側で強化され活用された推論パフォーマンスを達成するための重要な決定を下す必要性が高まります。データセットを最初からトレーニングするか、新しくリリースされたデータセットを使用して初期データセットでトレーニングされたモデルを微調整するかを選択する必要があります。
データセット?
既存の文献では、説明可能性が必要な最適なトレーニング戦略を系統的に決定する方法が不足していることが明らかになりました。
この目的を達成するために、このギャップを埋めるために、自動的に最適なトレーニング ソリューションを検索するフレームワークである Dual-Carriageway Framework (DCF) を紹介します。
DCF は、5 つの異なるトレーニング設定が適用される双方向検索 (既存のデータセットまたは新しくリリースされたデータセットから開始) の設計から恩恵を受けます。
さらに、DCF は、過学習を回避する機能を備えた最適なトレーニング戦略を見つけ出すことができるだけでなく、トレーニングされたモデルの実際の入力と重みから導出される組み込みの定量的および視覚的な説明も生成します。
私たちは、時間的に継続する 2 つの商用製品データセットに対する 3 つの畳み込みニューラル ネットワーク (ResNet18、ResNet34、および Inception-v3) を用いた実験を通じて、DCF の有効性を検証しました。
結果は、微調整パスウェイが、平均精度の点で、既存のデータセットと新しいデータセットでそれぞれ最大 2.13% と 1.23% まで、スクラッチからトレーニングするパスウェイよりも優れていることを示しました。
さらに、DCF は反射パディングを優れたパディング方法として特定し、テスト精度を平均 3.72% 向上させました。
このフレームワークは、きめの細かい視覚的分類タスクにおける堅牢で説明可能な AI ソリューションの開発を導く可能性で際立っています。

要約(オリジナル)

In the realm of practical fine-grained visual classification applications rooted in deep learning, a common scenario involves training a model using a pre-existing dataset. Subsequently, a new dataset becomes available, prompting the desire to make a pivotal decision for achieving enhanced and leveraged inference performance on both sides: Should one opt to train datasets from scratch or fine-tune the model trained on the initial dataset using the newly released dataset? The existing literature reveals a lack of methods to systematically determine the optimal training strategy, necessitating explainability. To this end, we present an automatic best-suit training solution searching framework, the Dual-Carriageway Framework (DCF), to fill this gap. DCF benefits from the design of a dual-direction search (starting from the pre-existing or the newly released dataset) where five different training settings are enforced. In addition, DCF is not only capable of figuring out the optimal training strategy with the capability of avoiding overfitting but also yields built-in quantitative and visual explanations derived from the actual input and weights of the trained model. We validated DCF’s effectiveness through experiments with three convolutional neural networks (ResNet18, ResNet34 and Inception-v3) on two temporally continued commercial product datasets. Results showed fine-tuning pathways outperformed training-from-scratch ones by up to 2.13% and 1.23% on the pre-existing and new datasets, respectively, in terms of mean accuracy. Furthermore, DCF identified reflection padding as the superior padding method, enhancing testing accuracy by 3.72% on average. This framework stands out for its potential to guide the development of robust and explainable AI solutions in fine-grained visual classification tasks.

arxiv情報

著者 Zheming Zuo,Joseph Smith,Jonathan Stonehouse,Boguslaw Obara
発行日 2024-05-09 15:41:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク