要約
学習可能なマシンなどのモデルを明示的にトレーニングできる AI インターフェイスにおいて、子供たちがどのようにデザインし、何を重視しているかを理解することは、そのような活動の影響力を高め、将来のテクノロジーの設計を導くのに役立つ可能性があります。
修正されたストーリーボードを使用した共同設計セッションでは、5 人の子供 (7 ~ 13 歳) と大人の共同設計者のチームが、独自の教育可能なマシンを想像する AI 問題の定式化アクティビティに従事しました。
確立された心理的価値観の枠組み (Rokeach Value Survey) を活用した私たちの調査結果は、子供たちがどのように自分たちの価値観を概念化し、日常活動をサポートするために自ら考案した AI システムに埋め込むかを明らかにしています。
具体的には、子供たちが提案するアイデアには、高度なシステム インテリジェンスが必要であることがわかりました。
感情の検出とユーザーの社会的関係の理解。
基礎となるモデルは複数のモダリティの下でトレーニングすることができ、データを追加するか、負の例を予測することによってエラーが修正されます。
子どもたちのアイデアは、彼らが家族を気にかけており、決定を下す前に機械が彼らの社会的背景を理解することを期待していることを示していました。
要約(オリジナル)
Understanding how children design and what they value in AI interfaces that allow them to explicitly train their models such as teachable machines, could help increase such activities’ impact and guide the design of future technologies. In a co-design session using a modified storyboard, a team of 5 children (aged 7-13 years) and adult co-designers, engaged in AI problem formulation activities where they imagine their own teachable machines. Our findings, leveraging an established psychological value framework (the Rokeach Value Survey), illuminate how children conceptualize and embed their values in AI systems that they themselves devise to support their everyday activities. Specifically, we find that children’s proposed ideas require advanced system intelligence, e.g. emotion detection and understanding the social relationships of a user. The underlying models could be trained under multiple modalities and any errors would be fixed by adding more data or by anticipating negative examples. Children’s ideas showed they cared about family and expected machines to understand their social context before making decisions.
arxiv情報
著者 | Utkarsh Dwivedi,Salma Elsayed-ali,Elizabeth Bonsignore,Hernisa Kacorri |
発行日 | 2023-09-27 17:58:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google