‘We Demand Justice!’: Towards Grounding Political Text in Social Context

要約

米国の政治家によるソーシャルメディアでの言説は、「政治的スペクトルの反対側が使用する一見類似した言葉」で構成されることがよくあります。
しかし、多くの場合、それは現実世界の行動とはまったく対照的なものになります。
たとえば、「銃乱射事件から生徒を守る必要がある」という言葉は、誰が言ったか、そしてこの問題に対する彼らの政治的立場によって、「銃乱射事件を止めるために教師に武器を与える」か「銃乱射事件を減らすために銃を禁止する」かのどちらかを示唆する可能性がある。
この論文では、計算環境でそのような曖昧なステートメントを完全に理解し、それらを現実世界の実体、行動、態度に基づいて理解するために必要なコンテキストを定義して特徴付けます。
そのために、効果的に解決するにはテキストの現実世界のコンテキストを理解する必要がある 2 つの困難なデータセットを提案します。
私たちは、BERT、RoBERTa、GPT-3 などの大規模な事前トレーニング済みモデルに基づいて構築されたベースラインに対して、これらのデータセットをベンチマークします。さらに、既存の「談話文脈化フレームワーク」モデルや「政治的行為者表現」モデルに基づいて構築された、より構造化されたベースラインを開発し、ベンチマークします。
データセットの分析とベースライン予測を実行して、提案された社会的基礎付けタスクによってもたらされる実用的な言語理解の課題についてのさらなる洞察を取得します。

要約(オリジナル)

Social media discourse from US politicians frequently consists of ‘seemingly similar language used by opposing sides of the political spectrum’. But often, it translates to starkly contrasting real-world actions. For instance, ‘We need to keep our students safe from mass shootings’ may signal either ‘arming teachers to stop the shooter’ or ‘banning guns to reduce mass shootings’ depending on who says it and their political stance on the issue. In this paper, we define and characterize the context that is required to fully understand such ambiguous statements in a computational setting and ground them in real-world entities, actions, and attitudes. To that end, we propose two challenging datasets that require an understanding of the real-world context of the text to be solved effectively. We benchmark these datasets against baselines built upon large pre-trained models such as BERT, RoBERTa, GPT-3, etc. Additionally, we develop and benchmark more structured baselines building upon existing ‘Discourse Contextualization Framework’ and ‘Political Actor Representation’ models. We perform analysis of the datasets and baseline predictions to obtain further insights into the pragmatic language understanding challenges posed by the proposed social grounding tasks.

arxiv情報

著者 Rajkumar Pujari,Chengfei Wu,Dan Goldwasser
発行日 2023-11-15 16:53:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク