要約
タイトル:大規模言語モデルはまだ計画できない(LLMsの計画と変化に関する推論に対するベンチマーク)
要約:
– 大規模言語モデル(LLMs)の最新技術(GPT-3やPaLMなど)により、自然言語処理の領域が変容している。
– LLMによる自然言語タスクの最先端の性能を押し上げる一方で、推論ベンチマークの使用により、このモデルが推論能力を持つかどうかについて大きな関心が寄せられている。
– しかし、これらのベンチマークは単純な性質であり、LLMsの推論能力を根拠として使用することはできない。
– これらは非常に限られた単純な推論タスクのみを表しており、より洗練された推論問題を調査する必要がある。
– このような動機に基づいて、LLMsの能力をテストする拡張可能なアセスメントフレームワークを提案し、アクションと変化についての推論に焦点を当てたテストケースを提供している。
– GPT-3(Davinci)、Instruct-GPT3(text-davinci-002)、およびBLOOM(176B)に対する結果は、このような推論タスクにおける性能が低いことを示している。
要約としてのポイント:
– LLMsは、推論タスクに対してまだ制限がある。
– これまでのベンチマークは単純であるため、より洗練された推論問題を使用する必要がある。
– アクションと変化に関する推論の能力をテストするアセスメントフレームワークを提案している。
– GPT-3、Instruct-GPT3、BLOOMに対する結果は、推論タスクにおいて性能が低いことを示している。
要約(オリジナル)
Recent advances in large language models (LLMs) have transformed the field of natural language processing (NLP). From GPT-3 to PaLM, the state-of-the-art performance on natural language tasks is being pushed forward with every new large language model. Along with natural language abilities, there has been a significant interest in understanding whether such models exhibit reasoning capabilities with the use of reasoning benchmarks. However, even though results are seemingly positive, these benchmarks prove to be simplistic in nature and the performance of LLMs on these benchmarks cannot be used as evidence to support, many a times outlandish, claims being made about LLMs’ reasoning capabilities. Further, these only represent a very limited set of simple reasoning tasks and we need to look at more sophisticated reasoning problems if we are to measure the true limits of such LLM-based systems. Motivated by this, we propose an extensible assessment framework to test the capabilities of LLMs on reasoning about actions and change, a central aspect of human intelligence. We provide multiple test cases that are more involved than any of the previously established benchmarks and each test case evaluates a different aspect of reasoning about actions and change. Results on GPT-3 (davinci), Instruct-GPT3 (text-davinci-002) and BLOOM (176B), showcase subpar performance on such reasoning tasks.
arxiv情報
著者 | Karthik Valmeekam,Alberto Olmo,Sarath Sreedharan,Subbarao Kambhampati |
発行日 | 2023-04-08 00:43:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI