CharacterGLM: Customizing Chinese Conversational AI Characters with Large Language Models

要約

このペーパーでは、ChatGLM 上に構築された一連のモデルである CharacterGLM を紹介します。モデル サイズは 6B から 66B パラメーターの範囲です。
当社の CharacterGLM は、キャラクターベースの対話 (CharacterDial) を生成するために設計されており、人々の固有の社会的欲求や感情的なニーズを満たすために、会話型 AI システムにキャラクターのカスタマイズを装備することを目的としています。
CharacterGLM に加えて、さまざまな AI キャラクターやソーシャル エージェントの属性 (アイデンティティ、興味、視点、経験、実績、社会的関係など) や行動 (言語的特徴、感情表現、対話パターンなど) を構成してカスタマイズできます。

私たちのモデルは、手動評価によると、特に一貫性、人間らしさ、エンゲージメントの点で、GPT シリーズを含むほとんどの主流のクローズソース大言語モデルよりも優れています。
キャラクターベースの対話生成に向けたさらなる研究開発を促進するために、CharacterGLM の 6B バージョンとトレーニング データのサブセットをリリースします。

要約(オリジナル)

In this paper, we present CharacterGLM, a series of models built upon ChatGLM, with model sizes ranging from 6B to 66B parameters. Our CharacterGLM is designed for generating Character-based Dialogues (CharacterDial), which aims to equip a conversational AI system with character customization for satisfying people’s inherent social desires and emotional needs. On top of CharacterGLM, we can customize various AI characters or social agents by configuring their attributes (identities, interests, viewpoints, experiences, achievements, social relationships, etc.) and behaviors (linguistic features, emotional expressions, interaction patterns, etc.). Our model outperforms most mainstream close-source large langauge models, including the GPT series, especially in terms of consistency, human-likeness, and engagement according to manual evaluations. We will release our 6B version of CharacterGLM and a subset of training data to facilitate further research development in the direction of character-based dialogue generation.

arxiv情報

著者 Jinfeng Zhou,Zhuang Chen,Dazhen Wan,Bosi Wen,Yi Song,Jifan Yu,Yongkang Huang,Libiao Peng,Jiaming Yang,Xiyao Xiao,Sahand Sabour,Xiaohan Zhang,Wenjing Hou,Yijia Zhang,Yuxiao Dong,Jie Tang,Minlie Huang
発行日 2023-11-28 14:49:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク