要約
今、私たちの日常生活ではロボットやAIと関わることが増えています。
ただし、特にエラーが発生した場合には、その動作がほとんどの素人ユーザーにとって必ずしも明らかであるとは限りません。
その結果、使用されているテクノロジーの動作について誤解が生じる可能性があります。
これは、ユーザーによる誤用や拒否につながる可能性があります。
たとえば、透明性を通じて説明することで、こうした誤解に対処できます。
ただし、ソフトウェアまたはハードウェア全体を説明すると、ユーザーは混乱し、圧倒されてしまうでしょう。
したがって、このホワイトペーパーでは、「可能にする」アーキテクチャについて考察します。
誰かがテクノロジーを効果的に使用できるようにするために説明する必要があるかもしれないロボット システムの側面について説明します。
さらに、この文書は「説明」にも関係しています。これは、明確にする必要がある、対応する実現アーキテクチャの誤解または欠落している概念です。
したがって、私たちは、この「可能にする」アーキテクチャと、その結果として得られる複雑なテクノロジーの「説明」を決定するためのアプローチを開発し、提示しました。
要約(オリジナル)
Nowadays, we are dealing more and more with robots and AI in everyday life. However, their behavior is not always apparent to most lay users, especially in error situations. As a result, there can be misconceptions about the behavior of the technologies in use. This, in turn, can lead to misuse and rejection by users. Explanation, for example, through transparency, can address these misconceptions. However, it would be confusing and overwhelming for users if the entire software or hardware was explained. Therefore, this paper looks at the ‘enabling’ architecture. It describes those aspects of a robotic system that might need to be explained to enable someone to use the technology effectively. Furthermore, this paper is concerned with the ‘explanandum’, which is the corresponding misunderstanding or missing concepts of the enabling architecture that needs to be clarified. We have thus developed and present an approach for determining this ‘enabling’ architecture and the resulting ‘explanandum’ of complex technologies.
arxiv情報
著者 | Helen Beierling,Phillip Richter,Mara Brandt,Lutz Terfloth,Carsten Schulte,Heiko Wersing,Anna-Lisa Vollmer |
発行日 | 2023-11-24 12:14:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google