要約
このホワイト ペーパーでは、転移学習を使用して日本のアニメーション スタイルのキャラクターの顔を分類することで、InceptionV3、InceptionResNetV2、MobileNetV2、EfficientNetB7 など、利用可能なさまざまなモデルをより深く掘り下げることを目的としています。
このホワイト ペーパーでは、EfficientNet-B7 が 85.08% のトップ 1 精度で最高の精度を示し、次に MobileNetV2 がわずかに精度の低い結果を示しましたが、推論時間がはるかに短く、必要なパラメーターの数が少ないという利点があります。
また、このホワイト ペーパーでは、従来の転移学習方法の代替として使用できる適切な結果を生成する少数ショット学習フレームワーク、特に Prototyping Networks も使用します。
要約(オリジナル)
This paper aims to dive more deeply into various models available, including InceptionV3, InceptionResNetV2, MobileNetV2, and EfficientNetB7, using transfer learning to classify Japanese animation-style character faces. This paper has shown that EfficientNet-B7 has the highest accuracy rate with 85.08% top-1 Accuracy, followed by MobileNetV2, having a slightly less accurate result but with the benefits of much lower inference time and fewer number of required parameters. This paper also uses a few-shot learning framework, specifically Prototypical Networks, which produces decent results that can be used as an alternative to traditional transfer learning methods.
arxiv情報
著者 | Martinus Grady Naftali,Jason Sebastian Sulistyawan,Kelvin Julian,Felix Indra Kurniadi |
発行日 | 2022-08-24 08:33:17+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google