Can Authorship Attribution Models Distinguish Speakers in Speech Transcripts?

要約

著者証明は、2 つの異なる文章サンプルが同じ作者を共有しているかどうかを判断する問題であり、通常は書かれたテキストの帰属に関係します。
この論文では、新たな課題を提起する、書き起こされた音声の帰属について検討します。
主な課題は、句読点や大文字の使用など、多くの文体機能が利用できないか、信頼できないことです。
したがって、私たちは、書き起こされた音声の帰属がより困難な領域であると先験的に予想しています。
一方、音声の流暢さなど、他の文体上の特徴は、より成功した帰属を可能にする可能性がありますが、音声に特有であるため、特別な目的のモデルが必要です。
この状況の課題をより深く理解するために、私たちは、書き起こされた音声のみに基づいた話者の帰属に関する最初の体系的な研究に貢献します。
具体的には、会話の音声トランスクリプトに焦点を当てた、話者の属性に関する新しいベンチマークを提案します。
話者とトピックの誤った関連付けを制御するために、会話のプロンプトと話者が同じ会話に参加することの両方を使用して、さまざまな難易度の挑戦的な検証トライアルを構築します。
私たちは、一連のニューラル ベースラインと非ニューラル ベースラインを比較することで、この新しいベンチマークの最先端技術を確立しました。その結果、書かれたテキスト アトリビューション モデルは、特定の設定では驚くほど優れたパフォーマンスを達成しますが、私たちが検討する最も困難な設定では苦戦することがわかりました。

要約(オリジナル)

Authorship verification is the problem of determining if two distinct writing samples share the same author and is typically concerned with the attribution of written text. In this paper, we explore the attribution of transcribed speech, which poses novel challenges. The main challenge is that many stylistic features, such as punctuation and capitalization, are not available or reliable. Therefore, we expect a priori that transcribed speech is a more challenging domain for attribution. On the other hand, other stylistic features, such as speech disfluencies, may enable more successful attribution but, being specific to speech, require special purpose models. To better understand the challenges of this setting, we contribute the first systematic study of speaker attribution based solely on transcribed speech. Specifically, we propose a new benchmark for speaker attribution focused on conversational speech transcripts. To control for spurious associations of speakers with topic, we employ both conversation prompts and speakers’ participating in the same conversation to construct challenging verification trials of varying difficulties. We establish the state of the art on this new benchmark by comparing a suite of neural and non-neural baselines, finding that although written text attribution models achieve surprisingly good performance in certain settings, they struggle in the hardest settings we consider.

arxiv情報

著者 Cristina Aggazzotti,Nicholas Andrews,Elizabeth Allyn Smith
発行日 2023-11-13 18:54:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG パーマリンク