要約
私たちは、意思決定指向の対話と呼ばれるタスクのクラスについて説明します。この対話では、AI アシスタントが自然言語を介して 1 人以上の人間と協力して、複雑な意思決定を支援する必要があります。
私たちは、ユーザーが日常の決定に直面する 3 つの領域を形式化します。(1) 会議論文への査読者の割り当ての選択、(2) 都市での複数のステップからなる旅程の計画、(3) 友人グループの旅行計画の交渉です。
これらの各設定では、AI アシスタントとユーザーは異なる能力を持っており、最適な決定を下すためにそれらを組み合わせる必要があります。アシスタントは大量の情報にアクセスして処理できますが、ユーザーはシステムの外部に好みや制約があります。
タスクごとに、エージェントが最終的な決定の質に基づいて報酬を受け取る対話環境を構築します。
これらの環境を利用して、人間がアシスタントの役割を果たし、人間と人間の対話を収集します。
現在の AI アシスタントがこれらの設定でどのようにコミュニケーションするかを比較するために、セルフプレイで大規模な言語モデルを使用したベースラインを示します。
最後に、効率的なコミュニケーションから推論と最適化に至るまで、意思決定指向の対話においてモデルが直面する多くの課題を強調し、将来のモデリング作業のためのテストベッドとして環境をリリースします。
要約(オリジナル)
We describe a class of tasks called decision-oriented dialogues, in which AI assistants must collaborate with one or more humans via natural language to help them make complex decisions. We formalize three domains in which users face everyday decisions: (1) choosing an assignment of reviewers to conference papers, (2) planning a multi-step itinerary in a city, and (3) negotiating travel plans for a group of friends. In each of these settings, AI assistants and users have disparate abilities that they must combine to arrive at the best decision: assistants can access and process large amounts of information, while users have preferences and constraints external to the system. For each task, we build a dialogue environment where agents receive a reward based on the quality of the final decision they reach. Using these environments, we collect human-human dialogues with humans playing the role of assistant. To compare how current AI assistants communicate in these settings, we present baselines using large language models in self-play. Finally, we highlight a number of challenges models face in decision-oriented dialogues, ranging from efficient communication to reasoning and optimization, and release our environments as a testbed for future modeling work.
arxiv情報
著者 | Jessy Lin,Nicholas Tomlin,Jacob Andreas,Jason Eisner |
発行日 | 2023-06-01 16:49:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google