Let’s Think Outside the Box: Exploring Leap-of-Thought in Large Language Models with Creative Humor Generation

要約

思考連鎖 (CoT) は、大規模言語モデル (LLM) が段階的に推論できるようにガイドし、論理的推論能力を刺激することができます。
CoT は論理的なタスクには効果的ですが、革新的な進歩に不可欠な、既成概念にとらわれない発想が必要となる創造的な問題解決には役に立ちません。
この論文では、LLM 内の Leap-of-Thought (LoT) 能力、つまり強い関連性と知識の飛躍を伴う非順次的で創造的なパラダイムについて探ります。
この目的を達成するために、私たちは人気のある大喜利ゲームに関する LLM を研究します。大喜利ゲームでは、与えられた画像、テキスト、またはその両方に予想外かつユーモラスに反応するための参加者に優れた創造性と強力な連想的思考が必要であり、したがって LoT の研究に適しています。
次に、大喜利ゲームにおける LLM の LoT 能力を調査するために、まず大喜利ゲームから 130,000 を超えるサンプルを含むマルチモーダルかつ多言語の大喜利 GO データセットを構築し、大喜利ゲーム上のほとんどの既存 LLM の LoT 能力不足または失敗を観察します。
したがって、LLM の LoT 能力を向上させるために、創造的な Leap-of-Thought (CLoT) パラダイムを導入します。
CLoT はまず、大喜利 GO データセットを LoT 指向の命令調整データに定式化して、特定の LoT ユーモアの生成と識別能力を達成するために事前トレーニングされた LLM をトレーニングします。
次に、CLoT は、一見無関係な概念間の類似点を探索することで LLM がより創造的な LoT データを生成することを奨励する探索的な自己洗練を設計し、自己洗練のために自身をトレーニングするために高品質のデータを選択します。
CLoTは、大喜利ゲームでのユーモア生成に優れているだけでなく、雲当てゲームや発散連想タスクなど、さまざまなタスクで創造力を高めます。
これらの発見は私たちの理解を前進させ、ドメイン全体で革新的なアプリケーションに対する LLM の創造的能力を向上させる道筋を提供します。
データセット、コード、モデルはオンラインで公開されます。
https://zhongshsh.github.io/CLoT/。

要約(オリジナル)

Chain-of-Thought (CoT) guides large language models (LLMs) to reason step-by-step, and can motivate their logical reasoning ability. While effective for logical tasks, CoT is not conducive to creative problem-solving which often requires out-of-box thoughts and is crucial for innovation advancements. In this paper, we explore the Leap-of-Thought (LoT) abilities within LLMs — a non-sequential, creative paradigm involving strong associations and knowledge leaps. To this end, we study LLMs on the popular Oogiri game which needs participants to have good creativity and strong associative thinking for responding unexpectedly and humorously to the given image, text, or both, and thus is suitable for LoT study. Then to investigate LLMs’ LoT ability in the Oogiri game, we first build a multimodal and multilingual Oogiri-GO dataset which contains over 130,000 samples from the Oogiri game, and observe the insufficient LoT ability or failures of most existing LLMs on the Oogiri game. Accordingly, we introduce a creative Leap-of-Thought (CLoT) paradigm to improve LLM’s LoT ability. CLoT first formulates the Oogiri-GO dataset into LoT-oriented instruction tuning data to train pretrained LLM for achieving certain LoT humor generation and discrimination abilities. Then CLoT designs an explorative self-refinement that encourages the LLM to generate more creative LoT data via exploring parallels between seemingly unrelated concepts and selects high-quality data to train itself for self-refinement. CLoT not only excels in humor generation in the Oogiri game but also boosts creative abilities in various tasks like cloud guessing game and divergent association task. These findings advance our understanding and offer a pathway to improve LLMs’ creative capacities for innovative applications across domains. The dataset, code, and models will be released online. https://zhongshsh.github.io/CLoT/.

arxiv情報

著者 Shanshan Zhong,Zhongzhan Huang,Shanghua Gao,Wushao Wen,Liang Lin,Marinka Zitnik,Pan Zhou
発行日 2023-12-06 03:20:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CV パーマリンク