要約
推論は人間の知能の基本的な側面であり、問題解決、意思決定、批判的思考などの活動において重要な役割を果たします。
近年、大規模言語モデル (LLM) は自然言語処理において大きな進歩を遂げており、これらのモデルが十分に大きい場合には推論能力を発揮する可能性があることが観察されています。
ただし、LLM がどの程度推論できるかはまだ明らかではありません。
この論文は、LLM における推論に関する知識の現状の包括的な概要を提供します。これには、これらのモデルで推論を改善および引き出すためのテクニック、推論能力を評価するための方法とベンチマーク、この分野の先行研究の発見と意義、および将来の提案が含まれます。
方向。
私たちの目的は、このトピックに関する詳細かつ最新のレビューを提供し、有意義な議論と今後の研究を促進することです。
要約(オリジナル)
Reasoning is a fundamental aspect of human intelligence that plays a crucial role in activities such as problem solving, decision making, and critical thinking. In recent years, large language models (LLMs) have made significant progress in natural language processing, and there is observation that these models may exhibit reasoning abilities when they are sufficiently large. However, it is not yet clear to what extent LLMs are capable of reasoning. This paper provides a comprehensive overview of the current state of knowledge on reasoning in LLMs, including techniques for improving and eliciting reasoning in these models, methods and benchmarks for evaluating reasoning abilities, findings and implications of previous research in this field, and suggestions on future directions. Our aim is to provide a detailed and up-to-date review of this topic and stimulate meaningful discussion and future work.
arxiv情報
著者 | Jie Huang,Kevin Chen-Chuan Chang |
発行日 | 2023-05-26 17:59:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google