要約
この論文では、感情的な推論と分類のための小規模なマルチモーダル言語モデルのファミリーである TinyEmo を紹介します。
私たちのアプローチの特徴: (1) 事前トレーニング段階と微調整段階の両方のための合成感情指示データセット、(2) より効率的なトレーニングと推論を可能にする言語モデルからの分類を委任するメトリック プロジェクター、(3) マルチ
感情的推論のためのモーダル大規模言語モデル (MM-LLM)、および (4) バイアス検出のための半自動フレームワーク。
TinyEmo は、同等のモデルよりも大幅に少ないパラメータを使用しながら、感情分類と感情推論を実行できます。
この効率性により、より多様な感情データセットを自由に組み込むことが可能になり、最小モデル (7 億パラメータ) が 70 億を超えるパラメータを持つ汎用 MM-LLM に基づく大規模な最先端モデルを上回る、分類タスクで優れたパフォーマンスを実現します。
さらに、メトリック プロジェクターを使用すると、追加のトレーニングなしで大規模モデルの解釈可能性と間接的なバイアス検出が可能になり、AI システムを理解して改善するためのアプローチが提供されます。
https://github.com/ggcr/TinyEmo でコード、モデル、データセットをリリースします。
要約(オリジナル)
This paper introduces TinyEmo, a family of small multi-modal language models for emotional reasoning and classification. Our approach features: (1) a synthetic emotional instruct dataset for both pre-training and fine-tuning stages, (2) a Metric Projector that delegates classification from the language model allowing for more efficient training and inference, (3) a multi-modal large language model (MM-LLM) for emotional reasoning, and (4) a semi-automated framework for bias detection. TinyEmo is able to perform emotion classification and emotional reasoning, all while using substantially fewer parameters than comparable models. This efficiency allows us to freely incorporate more diverse emotional datasets, enabling strong performance on classification tasks, with our smallest model (700M parameters) outperforming larger state-of-the-art models based on general-purpose MM-LLMs with over 7B parameters. Additionally, the Metric Projector allows for interpretability and indirect bias detection in large models without additional training, offering an approach to understand and improve AI systems. We release code, models, and dataset at https://github.com/ggcr/TinyEmo
arxiv情報
著者 | Cristian Gutierrez |
発行日 | 2024-10-09 17:03:49+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google