要約
大規模言語モデル (LLM) は、その優れたパフォーマンスにより、近年大きな注目を集めています。
多くの研究がさまざまな観点からこれらのモデルを評価してきましたが、LLM が暗黙的および明示的な感情検索を実行できる程度はほとんど解明されていません。
このギャップに対処するために、この研究では、LLM の常識的な感情検索能力を調査します。
複数のモデルを含む広範な実験を通じて、感情想起に関する LLM の能力を系統的に評価します。
具体的には、暗黙的および明示的な感情検索におけるLLMのパフォーマンスと、LLMが検索する感情イベントの多様性を検証するための教師あり対比プローブ法を提案します。
この結果は、感情の検索を処理する際の LLM の強みと限界についての貴重な洞察を提供します。
要約(オリジナル)
Large language models (LLMs) have garnered significant attention in recent years due to their impressive performance. While considerable research has evaluated these models from various perspectives, the extent to which LLMs can perform implicit and explicit emotion retrieval remains largely unexplored. To address this gap, this study investigates LLMs’ emotion retrieval capabilities in commonsense. Through extensive experiments involving multiple models, we systematically evaluate the ability of LLMs on emotion retrieval. Specifically, we propose a supervised contrastive probing method to verify LLMs’ performance for implicit and explicit emotion retrieval, as well as the diversity of the emotional events they retrieve. The results offer valuable insights into the strengths and limitations of LLMs in handling emotion retrieval.
arxiv情報
著者 | Guimin Hu,Hasti Seifi |
発行日 | 2024-11-04 16:44:42+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google