CluCDD:Contrastive Dialogue Disentanglement via Clustering

要約

毎日、膨大な数の複数参加者による対話がオンラインで行われているため、人間と機械の両方の対話ダイナミクスの性質を理解することが困難になっています。
対話のもつれの解消は、絡み合った対話を切り離されたセッションに分離することを目的としているため、長く無秩序な対話の可読性が向上します。
以前の研究は主にメッセージ ペアの分類と 2 段階の方法でのクラスタリングに焦点を当てており、対話でのクラスタリングのパフォーマンス全体を保証することはできません。
この課題に対処するために、対照学習によって発話を集約する CluCDD という名前のシンプルで効果的なモデルを提案します。
より具体的には、私たちのモデルは、同じセッション内の発話をまとめて、別のセッション内の発話を押しのけます。
次に、クラスタリング方法を採用して、予測クラスタリング ラベルを生成します。
Movie Dialogue データセットと IRC データセットで実施された包括的な実験は、私たちのモデルが新しい最先端の結果を達成することを示しています。

要約(オリジナル)

A huge number of multi-participant dialogues happen online every day, which leads to difficulty in understanding the nature of dialogue dynamics for both humans and machines. Dialogue disentanglement aims at separating an entangled dialogue into detached sessions, thus increasing the readability of long disordered dialogue. Previous studies mainly focus on message-pair classification and clustering in two-step methods, which cannot guarantee the whole clustering performance in a dialogue. To address this challenge, we propose a simple yet effective model named CluCDD, which aggregates utterances by contrastive learning. More specifically, our model pulls utterances in the same session together and pushes away utterances in different ones. Then a clustering method is adopted to generate predicted clustering labels. Comprehensive experiments conducted on the Movie Dialogue dataset and IRC dataset demonstrate that our model achieves a new state-of-the-art result.

arxiv情報

著者 Jingsheng Gao,Zeyu Li,Suncheng Xiang,Ting Liu,Yuzhuo Fu
発行日 2023-02-16 08:47:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク