要約
誇張や比喩は日常のコミュニケーションでよく使われるため (例: 「私はとても困っています」: 悩みに深さがあるのはなぜですか?)、特に会話型 AI 環境では、誇張や比喩の検出が重要になります。
比喩や誇張を自動的に検出する既存のアプローチは、これらの言語現象を個別に研究してきましたが、それらの関係は、計算的にはほとんど調査されていません。
この論文では、誇張と比喩を同時に検出するためのマルチタスク深層学習フレームワークを提案します。
私たちは、メタファーが誇張表現の検出に役立ち、その逆も同様であると仮説を立てます。
この仮説を検証するために、2 つの双曲線データセット (HYPO と HYPO-L) にメタファー ラベルを付けます。
同時に、2 つのメタファー データセット (TroFi と LCC) に誇張ラベルで注釈を付けます。
これらのデータセットを使用した実験により、誇張検出の最先端技術が 12% 向上しました。
さらに、マルチタスク学習 (MTL) アプローチは、誇張と比喩の検出の両方においてシングルタスク学習 (STL) と比較して最大 17% の改善を示し、仮説を裏付けています。
私たちの知る限り、私たちの実験は、比喩と誇張の間の言語的親密性を計算によって活用した最初の実証であり、誇張と比喩の検出において STL よりも MTL の優位性を示すことにつながりました。
要約(オリジナル)
Hyperbole and metaphor are common in day-to-day communication (e.g., ‘I am in deep trouble’: how does trouble have depth?), which makes their detection important, especially in a conversational AI setting. Existing approaches to automatically detect metaphor and hyperbole have studied these language phenomena independently, but their relationship has hardly, if ever, been explored computationally. In this paper, we propose a multi-task deep learning framework to detect hyperbole and metaphor simultaneously. We hypothesize that metaphors help in hyperbole detection, and vice-versa. To test this hypothesis, we annotate two hyperbole datasets- HYPO and HYPO-L- with metaphor labels. Simultaneously, we annotate two metaphor datasets- TroFi and LCC- with hyperbole labels. Experiments using these datasets give an improvement of the state of the art of hyperbole detection by 12%. Additionally, our multi-task learning (MTL) approach shows an improvement of up to 17% over single-task learning (STL) for both hyperbole and metaphor detection, supporting our hypothesis. To the best of our knowledge, ours is the first demonstration of computational leveraging of linguistic intimacy between metaphor and hyperbole, leading to showing the superiority of MTL over STL for hyperbole and metaphor detection.
arxiv情報
著者 | Naveen Badathala,Abisek Rajakumar Kalarani,Tejpalsingh Siledar,Pushpak Bhattacharyya |
発行日 | 2023-05-30 13:35:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google