Will Sentiment Analysis Need Subculture? A New Data Augmentation Approach

要約

ペンは剣よりも強し」という有名な諺は、感情を形成する上で文章表現が持つ強大な影響力を強調している。実際、よく練られた文章は文化の中で深く共鳴し、深い感情を伝えることができる。今日、インターネットの遍在は、現代の環境に集うサブカルチャーを育んできた。サブカルチャーは、新しさの魅力を熱心に追求することで、人間の複雑な感情を巧みに表現する。本稿では、センチメント分析が直面する不十分なトレーニングデータに対処するため、サブカルチャーのレンズを通してデータを豊かにすることに努める。この目的のために、6つの多様なサブカルチャー表現ジェネレータの作成を活用することで、各トレーニングテキストに対して6つの拡張テキストを生成する、サブカルチャーに基づくデータ拡張(SCDA)の新しいアプローチを提案する。広範な実験により、SCDAの有効性と可能性が実証された。また、その結果は、異なるサブカルチャー表現が様々な程度の感情刺激を引き出すという現象に光を当てている。さらに、ある種のサブカルチャー表現には線形可逆性があることを示唆する、興味深い推測も生まれている。この研究が、情報、感情、文化のタペストリーに対する知覚を高め、それによって私たちの集合的理解を豊かにする触媒となることが、私たちの熱烈な願いである。

要約(オリジナル)

The renowned proverb that ‘The pen is mightier than the sword’ underscores the formidable influence wielded by text expressions in shaping sentiments. Indeed, well-crafted written can deeply resonate within cultures, conveying profound sentiments. Nowadays, the omnipresence of the Internet has fostered a subculture that congregates around the contemporary milieu. The subculture artfully articulates the intricacies of human feelings by ardently pursuing the allure of novelty, a fact that cannot be disregarded in the sentiment analysis. This paper strives to enrich data through the lens of subculture, to address the insufficient training data faced by sentiment analysis. To this end, a new approach of subculture-based data augmentation (SCDA) is proposed, which engenders six enhanced texts for each training text by leveraging the creation of six diverse subculture expression generators. The extensive experiments attest to the effectiveness and potential of SCDA. The results also shed light on the phenomenon that disparate subculture expressions elicit varying degrees of sentiment stimulation. Moreover, an intriguing conjecture arises, suggesting the linear reversibility of certain subculture expressions. It is our fervent aspiration that this study serves as a catalyst in fostering heightened perceptiveness towards the tapestry of information, sentiment and culture, thereby enriching our collective understanding.

arxiv情報

著者 Zhenhua Wang,Simin He,Guang Xu,Ming Ren
発行日 2023-09-01 00:11:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL パーマリンク