要約
このホワイトペーパーでは、利用可能なさまざまなモデルをより深く掘り下げることを目的としています。
InceptionV3、InceptionResNetV2、MobileNetV2、および EfficientNetB7 は、転移学習を使用して、日本のアニメーション スタイルのキャラクターの顔を分類します。
このホワイト ペーパーでは、EfficientNet-B7 が 85.08\% のトップ 1 精度で最高の精度を示し、MobileNetV2 がそれに続きます。結果の精度はわずかに劣りますが、推論時間が大幅に短縮され、必要なパラメーターの数が少ないという利点があります。
また、このホワイト ペーパーでは、従来の転移学習方法の代替として使用できる適切な結果を生成する少数ショット学習フレームワーク、特に Prototyping Networks も使用します。
要約(オリジナル)
This paper aims to dive more deeply into various models available, including; InceptionV3, InceptionResNetV2, MobileNetV2, and EfficientNetB7 using transfer learning, to classify Japanese animation-style character faces. This paper has shown that EfficientNet-B7 has the highest accuracy rate with 85.08\% top-1 Accuracy, followed by MobileNetV2, having a slightly less accurate result but with the benefits of much lower inference time and fewer number of required parameters. This paper also uses a few-shot learning framework, specifically Prototypical Networks, which produces decent results that can be used as an alternative to traditional transfer learning methods.
arxiv情報
著者 | Martinus Grady Naftali,Jason Sebastian Sulistyawan,Kelvin Julian,Felix Indra Kurniadi |
発行日 | 2022-08-23 14:50:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google