要約
学習スタイルとは、個人が新しい知識を得るために採用するトレーニングメカニズムの一種を指します。
VARK モデルが示唆するように、人間は情報を取得して効果的に処理するために、視覚 (V)、聴覚 (A)、読み取り/書き込み (R)、運動感覚 (K) など、さまざまな学習の好みを持っています。
私たちの取り組みでは、この知識多様化の概念を活用して、知識蒸留 (KD) や相互学習 (ML) などのモデル圧縮技術のパフォーマンスを向上させることに努めています。
その結果、私たちは統一されたフレームワークで教師 1 名と生徒 2 名のネットワークを使用し、教師から生徒への知識の伝達 (KD) だけでなく、生徒間の共同学習 (ML) も促進します。
教師が予測や特徴表現の形で同じ知識を生徒ネットワークと共有する従来のアプローチとは異なり、私たちが提案するアプローチは、1人の生徒を予測でトレーニングし、もう1人を教師からの特徴マップでトレーニングすることで、より多様な戦略を採用しています。
私たちは、2 つの学生ネットワーク間での予測と特徴マップの交換を促進することで、この知識の多様化をさらに拡張し、学生の学習体験を豊かにします。
私たちは、2 つの異なるネットワーク アーキテクチャの組み合わせを使用して、分類タスクとセグメンテーション タスクの両方について 3 つのベンチマーク データセットを使用して包括的な実験を実施しました。
これらの実験結果は、KD と ML の組み合わせフレームワークにおける知識の多様化が、予測のみを使用する従来の KD または ML 技術 (同様のネットワーク構成を使用) よりも優れており、平均 2% の改善が見られることを示しています。
さらに、さまざまなタスク、さまざまなネットワーク アーキテクチャ、および最先端技術による一貫したパフォーマンスの向上により、提案されたモデルの堅牢性と一般化可能性が確立されます。
要約(オリジナル)
Learning style refers to a type of training mechanism adopted by an individual to gain new knowledge. As suggested by the VARK model, humans have different learning preferences, like Visual (V), Auditory (A), Read/Write (R), and Kinesthetic (K), for acquiring and effectively processing information. Our work endeavors to leverage this concept of knowledge diversification to improve the performance of model compression techniques like Knowledge Distillation (KD) and Mutual Learning (ML). Consequently, we use a single-teacher and two-student network in a unified framework that not only allows for the transfer of knowledge from teacher to students (KD) but also encourages collaborative learning between students (ML). Unlike the conventional approach, where the teacher shares the same knowledge in the form of predictions or feature representations with the student network, our proposed approach employs a more diversified strategy by training one student with predictions and the other with feature maps from the teacher. We further extend this knowledge diversification by facilitating the exchange of predictions and feature maps between the two student networks, enriching their learning experiences. We have conducted comprehensive experiments with three benchmark datasets for both classification and segmentation tasks using two different network architecture combinations. These experimental results demonstrate that knowledge diversification in a combined KD and ML framework outperforms conventional KD or ML techniques (with similar network configuration) that only use predictions with an average improvement of 2%. Furthermore, consistent improvement in performance across different tasks, with various network architectures, and over state-of-the-art techniques establishes the robustness and generalizability of the proposed model
arxiv情報
著者 | Usma Niyaz,Abhishek Singh Sambyal,Deepti R. Bathula |
発行日 | 2023-11-22 15:23:44+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google