A Syntax-Injected Approach for Faster and More Accurate Sentiment Analysis

要約

センチメント分析(SA)は、自然言語処理(NLP)の重要な側面であり、テキストコンテンツの主観的評価に対処します。
構文の解析は、明示的な構文情報が説明可能性を提供しながら精度を向上させる可能性があるため、SAで役立ちますが、解析アルゴリズムの遅さが遅いため、実際には計算ボトルネックになる傾向があります。
このペーパーでは、SAに構文を挿入するためにSyntactic Parser(SELSP)をラベル付けするシーケンスを使用して、上記のボトルネックに対処します。
依存関係をシーケンスラベル付けの問題として扱うことにより、構文ベースのSAの速度を大幅に向上させます。
SELSPは、三元極性分類タスクでトレーニングおよび評価され、スタンザなどの従来のパーサーや、ベイダーのようなSAの浅い構文ルールを使用するヒューリスティックなアプローチと比較して、極性予測タスクのより速い性能とより良い精度を示します。
この速度の向上と精度の向上により、SELSPは研究と業界の両方でSAの実践者にとって特に魅力的です。
さらに、SELSPでいくつかのセンチメント辞書をテストして、どれがどれが極性予測タスクでパフォーマンスを向上させるかを確認します。
さらに、5ラベル分類タスクでトレーニングされた変圧器ベースのモデルとSELSPを比較します。
結果は、極性の判断の変動をキャプチャする辞書は、極性判断の変動を無視する辞書よりも良い結果を提供することを示しています。
さらに、SELSPは極性予測タスクにおけるトランスベースのモデルよりもかなり高速であることを示しています。

要約(オリジナル)

Sentiment Analysis (SA) is a crucial aspect of Natural Language Processing (NLP), addressing subjective assessments in textual content. Syntactic parsing is useful in SA because explicit syntactic information can improve accuracy while providing explainability, but it tends to be a computational bottleneck in practice due to the slowness of parsing algorithms. This paper addresses said bottleneck by using a SEquence Labeling Syntactic Parser (SELSP) to inject syntax into SA. By treating dependency parsing as a sequence labeling problem, we greatly enhance the speed of syntax-based SA. SELSP is trained and evaluated on a ternary polarity classification task, demonstrating its faster performance and better accuracy in polarity prediction tasks compared to conventional parsers like Stanza and to heuristic approaches that use shallow syntactic rules for SA like VADER. This increased speed and improved accuracy make SELSP particularly appealing to SA practitioners in both research and industry. In addition, we test several sentiment dictionaries on our SELSP to see which one improves the performance in polarity prediction tasks. Moreover, we compare the SELSP with Transformer-based models trained on a 5-label classification task. The results show that dictionaries that capture polarity judgment variation provide better results than dictionaries that ignore polarity judgment variation. Moreover, we show that SELSP is considerably faster than Transformer-based models in polarity prediction tasks.

arxiv情報

著者 Muhammad Imran,Olga Kellert,Carlos Gómez-Rodríguez
発行日 2025-05-12 07:42:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク