要約
足場戦略がどのように人間とロボットの相互作用における人間の理解に影響するかを理解することは、効果的な支援システムを開発するために重要です。
この実証研究では、否定に基づいた言語の足場戦略は、潜在的なエラーからユーザーをバイアース化するが、処理コストを改善する手段として処理コストとためらうことを増加させることを意味します。
適応戦略では、ユーザーは、現在の理解と処理能力の状態に関して、タスクのパフォーマンス、以前の足場戦略、および現在の眼の視線挙動に基づくスコアリングスキームを介して推定されました。
この研究では、否定とためらうことを提供する適応戦略を、肯定のみを提供するという非適応戦略と比較されました。
適応型足場戦略は、計算モデルシフトを使用して生成されました。
我々の調査結果は、シフトを使用して適応性のある足場戦略を使用すると、(1)より長い反応時間に反映されるように処理コストの増加になる傾向があるが、(2)エラーの理解がほぼ23%であることによって証明されるタスク理解が改善されることを示しています。
さまざまな認知状態にわたるShiftの選択された足場戦略の効率を評価し、5つの州のうち3つで、エラー率がベースライン条件と比較して低いことを発見しました。
これらの結果がシフトモデルの仮定とどのように一致するかについて説明し、洗練の領域を強調表示します。
さらに、否定やためらいなどの足場戦略が、より効果的な人間のロボットの説明的対話にどのように貢献するかを示します。
要約(オリジナル)
Understanding how scaffolding strategies influence human understanding in human-robot interaction is important for developing effective assistive systems. This empirical study investigates linguistic scaffolding strategies based on negation as an important means that de-biases the user from potential errors but increases processing costs and hesitations as a means to ameliorate processing costs. In an adaptive strategy, the user state with respect to the current state of understanding and processing capacity was estimated via a scoring scheme based on task performance, prior scaffolding strategy, and current eye gaze behavior. In the study, the adaptive strategy of providing negations and hesitations was compared with a non-adaptive strategy of providing only affirmations. The adaptive scaffolding strategy was generated using the computational model SHIFT. Our findings indicate that using adaptive scaffolding strategies with SHIFT tends to (1) increased processing costs, as reflected in longer reaction times, but (2) improved task understanding, evidenced by a lower error rate of almost 23%. We assessed the efficiency of SHIFT’s selected scaffolding strategies across different cognitive states, finding that in three out of five states, the error rate was lower compared to the baseline condition. We discuss how these results align with the assumptions of the SHIFT model and highlight areas for refinement. Moreover, we demonstrate how scaffolding strategies, such as negation and hesitation, contribute to more effective human-robot explanatory dialogues.
arxiv情報
著者 | André Groß,Birte Richter,Bjarne Thomzik,Britta Wrede |
発行日 | 2025-03-25 14:18:18+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google