Can Large Language Models (or Humans) Disentangle Text?

要約

このタスクは、テキスト蒸留として知られ、AIや因果推論の文献における公正さと密接に関連している。我々は、様々なLLMアプローチを採用し、他の関連する信号を保持しながら、ターゲット変数に関する情報を特定し、除去することにより、テキストの分離を試みる。センチメントを除去する強力なテストにおいて、処理されたテキストとセンチメントの間の統計的関連は、LLMによる分離後も機械学習分類器によって検出可能であることを示す。さらに、人間のアノテーターも、他の意味内容を保持しながらセンチメントを分離するのに苦労していることが分かる。このことは、テキスト文脈によっては、概念変数間の分離可能性に限界があることを示唆しており、テキストレベルの変換に依存する手法の限界を浮き彫りにし、表現空間における統計的独立性を達成する分離手法の頑健性についても疑問を投げかけている。

要約(オリジナル)

We investigate the potential of large language models (LLMs) to disentangle text variables–to remove the textual traces of an undesired forbidden variable in a task sometimes known as text distillation and closely related to the fairness in AI and causal inference literature. We employ a range of various LLM approaches in an attempt to disentangle text by identifying and removing information about a target variable while preserving other relevant signals. We show that in the strong test of removing sentiment, the statistical association between the processed text and sentiment is still detectable to machine learning classifiers post-LLM-disentanglement. Furthermore, we find that human annotators also struggle to disentangle sentiment while preserving other semantic content. This suggests there may be limited separability between concept variables in some text contexts, highlighting limitations of methods relying on text-level transformations and also raising questions about the robustness of disentanglement methods that achieve statistical independence in representation space.

arxiv情報

著者 Nicolas Audinet de Pieuchon,Adel Daoud,Connor Thomas Jerzak,Moa Johansson,Richard Johansson
発行日 2024-05-03 14:04:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: 68T50, cs.CL, H.1.2 パーマリンク