要約
最適化のための自然言語 (NL4Opt) コンペティションは、テキスト記述に基づいて最適化問題の意味と定式化を抽出する方法を調査するために作成されました。
具体的には、コンペティションの目標は、専門家でなくても自然言語を使用して最適化ソルバーとやり取りできるようにすることで、最適化ソルバーのアクセシビリティと使いやすさを向上させることです。
この困難な目標を 2 つのサブタスクに分けます。(1) 最適化問題の構成要素に対応するセマンティック エンティティを認識してラベル付けします。
(2) 検出された問題エンティティから問題の意味表現 (つまり、論理形式) を生成します。
最初のタスクは、最適化問題のエンティティを検出してタグ付けすることにより、あいまいさを減らすことを目的としています。
2 番目のタスクは、線形計画法 (LP) 問題の中間表現を作成し、商用ソルバーが使用できる形式に変換します。
このレポートでは、NeurIPS 2022 コンペティションの LP 単語問題データセットと共有タスクを紹介します。
さらに、ChatGPT 大規模言語モデルのパフォーマンスを調査し、勝者のソリューションと比較します。
このコンペを通じて、最適化モデリングのための新しい機械学習アプリケーションとデータセットの開発に関心を持っていただきたいと考えています。
要約(オリジナル)
The Natural Language for Optimization (NL4Opt) Competition was created to investigate methods of extracting the meaning and formulation of an optimization problem based on its text description. Specifically, the goal of the competition is to increase the accessibility and usability of optimization solvers by allowing non-experts to interface with them using natural language. We separate this challenging goal into two sub-tasks: (1) recognize and label the semantic entities that correspond to the components of the optimization problem; (2) generate a meaning representation (i.e., a logical form) of the problem from its detected problem entities. The first task aims to reduce ambiguity by detecting and tagging the entities of the optimization problems. The second task creates an intermediate representation of the linear programming (LP) problem that is converted into a format that can be used by commercial solvers. In this report, we present the LP word problem dataset and shared tasks for the NeurIPS 2022 competition. Furthermore, we investigate and compare the performance of the ChatGPT large language model against the winning solutions. Through this competition, we hope to bring interest towards the development of novel machine learning applications and datasets for optimization modeling.
arxiv情報
著者 | Rindranirina Ramamonjison,Timothy T. Yu,Raymond Li,Haley Li,Giuseppe Carenini,Bissan Ghaddar,Shiqi He,Mahdi Mostajabdaveh,Amin Banitalebi-Dehkordi,Zirui Zhou,Yong Zhang |
発行日 | 2023-03-27 01:10:12+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google