要約
日本のアニメーション スタイルのキャラクターの顔を分類するために、このホワイト ペーパーでは、転移学習を使用して、InceptionV3、InceptionResNetV2、MobileNetV2、EfficientNet など、現在利用可能な多くのモデルをさらに掘り下げます。
この論文では、85.08% のトップ 1 精度を達成する EfficientNet-B7 が最高の精度率を持つことを示しています。
81.92% のトップ 1 精度で精度の低い結果を達成する MobileNetV2 は、推論時間が大幅に短縮され、必要なパラメーターが少ないという利点があります。
ただし、実験によると、MobileNet-V2 は過剰適合する傾向があります。
EfficienNet-B0 はオーバーフィッティングの問題を修正しましたが、MobileNet-V2 よりも推論時間が少し遅くなりましたが、83.46% のトップ 1 精度の結果が少し正確になりました。
このホワイト ペーパーでは、Prototyping Networks と呼ばれる少数ショット学習アーキテクチャも使用します。これは、従来の転移学習手法の適切な代替手段を提供します。
要約(オリジナル)
In order to classify Japanese animation-style character faces, this paper attempts to delve further into the many models currently available, including InceptionV3, InceptionResNetV2, MobileNetV2, and EfficientNet, employing transfer learning. This paper demonstrates that EfficientNet-B7, which achieves a top-1 accuracy of 85.08%, has the highest accuracy rate. MobileNetV2, which achieves a less accurate result with a top-1 accuracy of 81.92%, benefits from a significantly faster inference time and fewer required parameters. However, from the experiment, MobileNet-V2 is prone to overfitting; EfficienNet-B0 fixed the overfitting issue but with a cost of a little slower in inference time than MobileNet-V2 but a little more accurate result, top-1 accuracy of 83.46%. This paper also uses a few-shot learning architecture called Prototypical Networks, which offers an adequate substitute for conventional transfer learning techniques.
arxiv情報
著者 | Martinus Grady Naftali,Jason Sebastian Sulistyawan,Kelvin Julian |
発行日 | 2023-01-10 13:44:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google