要約
AI 駆動のチャットボットは、心理的苦痛に対処するための新たなソリューションとなっています。
心理療法のデータが不足しているため、研究者はオンラインのピアサポートフォーラムから収集した対話を使用して訓練を行っています。
しかし、このようなプラットフォームでの回答は専門家によって提供されたものではないため、適合する回答と不適合な回答の両方が含まれます。
この研究では、動機付け面接治療誠実性 (MITI) コードと呼ばれる十分に確立された行動コーディング スキームから適応したラベルを使用して、オンラインの遭難支援対話に存在する適合および不適合の反応タイプを認識することを試み、一部の反応タイプがどのように反応するかを示します。
より MI に準拠した形式に言い換えられると、チャットボットの応答が MI 戦略にさらに準拠できるようになります。
概念実証として、Blender と GPT3 を微調整して、MI 非遵守の「許可なくアドバイスする」応答を「許可付きでアドバイスする」に言い換えるいくつかのリフレーズを構築します。
人件費のコストを回避しながら、擬似並列コーパスを構築することでこれをどのように達成できるかを示します。
自動および人間による評価を通じて、トレーニング データが少ない場合でも、プロンプトやデータ拡張などの手法を使用して、意図したスタイルを反映し、元のテキストの内容を保持する実質的に優れた言い換えを生成できることを示します。
要約(オリジナル)
AI-driven chatbots have become an emerging solution to address psychological distress. Due to the lack of psychotherapeutic data, researchers use dialogues scraped from online peer support forums to train them. But since the responses in such platforms are not given by professionals, they contain both conforming and non-conforming responses. In this work, we attempt to recognize these conforming and non-conforming response types present in online distress-support dialogues using labels adapted from a well-established behavioral coding scheme named Motivational Interviewing Treatment Integrity (MITI) code and show how some response types could be rephrased into a more MI adherent form that can, in turn, enable chatbot responses to be more compliant with the MI strategy. As a proof of concept, we build several rephrasers by fine-tuning Blender and GPT3 to rephrase MI non-adherent ‘Advise without permission’ responses into ‘Advise with permission’. We show how this can be achieved with the construction of pseudo-parallel corpora avoiding costs for human labor. Through automatic and human evaluation we show that in the presence of less training data, techniques such as prompting and data augmentation can be used to produce substantially good rephrasings that reflect the intended style and preserve the content of the original text.
arxiv情報
著者 | Anuradha Welivita,Pearl Pu |
発行日 | 2023-05-17 13:18:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google