Empower Nested Boolean Logic via Self-Supervised Curriculum Learning

要約

言語モデルによって示される優れた認知能力を超えて、言語モデルの推論能力が強力な一般化から生じているのか、それとも単に関連データへの曝露から生じているのかを精査することが重要です。
ますます複雑になるロジックを構築するのではなく、このホワイト ペーパーでは、論理推論者の根本的な機能であるブール ロジックを詳しく調べます。
大規模な言語モデルを含む事前トレーニング済み言語モデルは、多重ネストされたブール ロジックに直面した場合にはランダム セレクターのように動作するだけであり、人間が簡単に処理できるタスクであることがわかりました。
この基本的な機能を言語モデルに与えるために、この論文では新しい自己教師あり学習手法 \textit{Curriculum Logical Reasoning} (\textsc{Clr}) を提案します。この手法では、トレーニング データをネストされたブール論理チェーンで段階的に強化します。
、より単純な論理パターンから徐々に難しいものへとトレーニングをプログラムします。
この新しいトレーニング パラダイムにより、言語モデルを、単純なトレーニングではほとんど学習できない、はるかに困難でホップの長いロジックに効果的に一般化することができます。
さらに、ブール論理がその後の一般的な論理タスクを改善するための優れた基盤であることを示します。

要約(オリジナル)

Beyond the great cognitive powers showcased by language models, it is crucial to scrutinize whether their reasoning capabilities stem from strong generalization or merely exposure to relevant data. As opposed to constructing increasingly complex logic, this paper probes into the boolean logic, the root capability of a logical reasoner. We find that any pre-trained language models even including large language models only behave like a random selector in the face of multi-nested boolean logic, a task that humans can handle with ease. To empower language models with this fundamental capability, this paper proposes a new self-supervised learning method \textit{Curriculum Logical Reasoning} (\textsc{Clr}), where we augment the training data with nested boolean logic chain step-by-step, and program the training from simpler logical patterns gradually to harder ones. This new training paradigm allows language models to effectively generalize to much harder and longer-hop logic, which can hardly be learned through naive training. Furthermore, we show that boolean logic is a great foundation for improving the subsequent general logical tasks.

arxiv情報

著者 Hongqiu Wu,Linfeng Liu,Hai Zhao,Min Zhang
発行日 2023-12-31 04:20:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク