Dialectical Reconciliation via Structured Argumentative Dialogues

要約

私たちは、人間と AI の相互作用を強化するために、人間を意識した計画で一般的に使用されるモデル調整アプローチを拡張するように設計された新しいフレームワークを紹介します。
構造化された議論に基づく対話パラダイムを採用することで、私たちのフレームワークは弁証法的な調整を可能にし、説明者(AI エージェント)と被説明者(人間のユーザー)の間の知識の不一致に対処します。目的は被説明者が説明者の決定を理解することです。
私たちは、提案したフレームワークの運用セマンティクスを正式に説明し、理論的な保証を提供します。
次に、コンピューター実験と人体実験を介して、「実際の」フレームワークの有効性を評価します。
私たちの調査結果は、私たちのフレームワークが、説明可能性が重要な領域で効果的な人間と AI の相互作用を促進するための有望な方向性を提供していることを示唆しています。

要約(オリジナル)

We present a novel framework designed to extend model reconciliation approaches, commonly used in human-aware planning, for enhanced human-AI interaction. By adopting a structured argumentation-based dialogue paradigm, our framework enables dialectical reconciliation to address knowledge discrepancies between an explainer (AI agent) and an explainee (human user), where the goal is for the explainee to understand the explainer’s decision. We formally describe the operational semantics of our proposed framework, providing theoretical guarantees. We then evaluate the framework’s efficacy “in the wild” via computational and human-subject experiments. Our findings suggest that our framework offers a promising direction for fostering effective human-AI interactions in domains where explainability is important.

arxiv情報

著者 Stylianos Loukas Vasileiou,Ashwin Kumar,William Yeoh,Tran Cao Son,Francesca Toni
発行日 2024-08-08 16:22:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.HC, cs.LO パーマリンク