要約
AI の意図の調整、つまり AI がユーザーの意図どおりの結果を確実に生み出すことは、人間と AI のインタラクションにおける重要な課題です。
LLM を含む生成 AI の出現により、対話ではユーザーが AI システムに望む結果を指定することがますます増えているため、この問題の重要性はさらに高まっています。
AI の意図の調整をより適切にサポートするために、私たちは人間と人間のコミュニケーションにおける意図を指定するための人間の戦略を探ることを目指しています。
人間と人間、および人間と LLM のコミュニケーションを研究および比較することで、ユーザーの意図をより効果的に理解し、それに合わせるために AI システムの設計に適用できる重要な戦略を特定します。
この研究は、AI システムの設計における人間のコミュニケーション戦略を統合することにより、人間中心の AI システムに向けて前進することを目的としています。
要約(オリジナル)
AI intent alignment, ensuring that AI produces outcomes as intended by users, is a critical challenge in human-AI interaction. The emergence of generative AI, including LLMs, has intensified the significance of this problem, as interactions increasingly involve users specifying desired results for AI systems. In order to support better AI intent alignment, we aim to explore human strategies for intent specification in human-human communication. By studying and comparing human-human and human-LLM communication, we identify key strategies that can be applied to the design of AI systems that are more effective at understanding and aligning with user intent. This study aims to advance toward a human-centered AI system by bringing together human communication strategies for the design of AI systems.
arxiv情報
著者 | Yoonsu Kim,Kihoon Son,Seoyoung Kim,Juho Kim |
発行日 | 2024-05-09 11:10:29+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google