InterPrompt: Interpretable Prompting for Interrelated Interpersonal Risk Factors in Reddit Posts

要約

メンタルヘルスの専門家や臨床医は、対人リスク因子 (IRF) による精神疾患の急増を観察しています。
精神的健康障害の早期発見のための人間参加型トリアージ シナリオをシミュレートするために、私たちはこれらの IRF を確認するためのテキストの指示を認識しました。個人の物語内の Thwarted Belongingness (TBe) と Perceived Burdensomeness (PBu) です。
これを考慮して、IRF データセットに対して GPT-3 モデルによる N ショット学習を使用し、コンテキスト固有の感度と両方の IRF を表すテキスト キューの相互接続性を組み込むために GPT-3 モデルを微調整することの重要性を強調しました。

この論文では、GPT-3 モデルを微調整することで注意メカニズムを強化する、解釈可能なプロンプティング (InterPrompt) メソッドを紹介します。
これにより、事前トレーニングされた重みを調整することで、より高度なレベルの言語変更が可能になります。
私たちのモデルは、両方の IRF にわたる通常のパターンと基礎となる接続を検出することを学習し、システム レベルの説明可能性と信頼性の向上につながります。
私たちの研究の結果は、GPT-3 モデルの 4 つのバリアントすべてが、InterPrompt で微調整された場合、分類と説明生成の両方の点で、ベースライン手法と比較してかなり優れたパフォーマンスを発揮することを示しています。

要約(オリジナル)

Mental health professionals and clinicians have observed the upsurge of mental disorders due to Interpersonal Risk Factors (IRFs). To simulate the human-in-the-loop triaging scenario for early detection of mental health disorders, we recognized textual indications to ascertain these IRFs : Thwarted Belongingness (TBe) and Perceived Burdensomeness (PBu) within personal narratives. In light of this, we use N-shot learning with GPT-3 model on the IRF dataset, and underscored the importance of fine-tuning GPT-3 model to incorporate the context-specific sensitivity and the interconnectedness of textual cues that represent both IRFs. In this paper, we introduce an Interpretable Prompting (InterPrompt)} method to boost the attention mechanism by fine-tuning the GPT-3 model. This allows a more sophisticated level of language modification by adjusting the pre-trained weights. Our model learns to detect usual patterns and underlying connections across both the IRFs, which leads to better system-level explainability and trustworthiness. The results of our research demonstrate that all four variants of GPT-3 model, when fine-tuned with InterPrompt, perform considerably better as compared to the baseline methods, both in terms of classification and explanation generation.

arxiv情報

著者 MSVPJ Sathvik,Surjodeep Sarkar,Chandni Saxena,Sunghwan Sohn,Muskan Garg
発行日 2023-11-21 07:43:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.IR パーマリンク