要約
ファンフィクションは、確立された架空の世界を舞台にした創造的な文章の人気のある形式であり、オンラインでかなりの支持者を獲得しています。
しかし、このコミュニティでは、参加者の健康と安全を確保することが重大な懸念事項となっています。
読者に精神的苦痛やトラウマを引き起こす可能性のあるコンテンツ、つまりトリガーとなるコンテンツを検出することは、大きな課題となります。
このペーパーでは、PAN CLEF 2023 でのトリガー検出共有タスクのアプローチについて説明します。このタスクでは、特定のファンフィクション ドキュメント内の複数のトリガーとなるコンテンツを検出します。
このために、Transformer ベースの言語モデルに対する再帰を使用する階層モデルを構築します。
私たちのアプローチでは、まず長いドキュメントを小さなサイズのセグメントに分割し、それらを使用して Transformer モデルを微調整します。
次に、微調整された Transformer モデルから特徴埋め込みを抽出します。これは、マルチラベル設定でのトリガー検出のための複数の LSTM モデルのトレーニングの入力として使用されます。
私たちのモデルは、検証セットで F1 マクロ スコア 0.372、F1 マイクロ スコア 0.736 を達成しました。これは、PAN CLEF 2023 で共有されたベースライン結果よりも高い値です。
要約(オリジナル)
Fanfiction, a popular form of creative writing set within established fictional universes, has gained a substantial online following. However, ensuring the well-being and safety of participants has become a critical concern in this community. The detection of triggering content, material that may cause emotional distress or trauma to readers, poses a significant challenge. In this paper, we describe our approach for the Trigger Detection shared task at PAN CLEF 2023, where we want to detect multiple triggering content in a given Fanfiction document. For this, we build a hierarchical model that uses recurrence over Transformer-based language models. In our approach, we first split long documents into smaller sized segments and use them to fine-tune a Transformer model. Then, we extract feature embeddings from the fine-tuned Transformer model, which are used as input in the training of multiple LSTM models for trigger detection in a multi-label setting. Our model achieves an F1-macro score of 0.372 and F1-micro score of 0.736 on the validation set, which are higher than the baseline results shared at PAN CLEF 2023.
arxiv情報
著者 | Umitcan Sahin,Izzet Emre Kucukkaya,Cagri Toraman |
発行日 | 2023-07-27 14:55:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google