Eliciting Understandable Architectonic Gestures for Robotic Furniture through Co-Design Improvisation

要約

アダプティブ・アーキテクチャーのビジョンは、ロボット技術によって、居住者との双方向の相互作用の中で、室内空間が物理的に変化することを可能にすることを提案している。しかし、このインタラクションがどのように理解しやすい形で展開されるかはまだ不明である。ロボット家具が空間内で意図的に位置したり移動したりすることで居住者にジェスチャーで意図を伝えるHRI研究に触発され、我々はアダプティブ・アーキテクチャーもまた、移動可能なロボット・パーティションが行うジェスチャーによって意図を伝えることができるのではないかと仮説を立てた。このデザイン空間を探求するために、我々は15人の多分野の専門家を招き、即興の共同デザインセッションを行った。そこでは、彼らは手動で非アクティブ化されたロボットパーティションを操作し、目的と緊急性が異なる6つの建築的意図を伝えるジェスチャーをデザインした。モーショントラッキングデータ、ラバンに基づくアンケート、テーマ分析に加え、ジェスチャーを引き出す方法を用いて、20のユニークなジェスチャー戦略を特定した。その分類を通して、我々はロボット家具がその空間的インパクトを指標的に活用することによって意図を伝えるための新しい戦略として建築的ジェスチャーを導入し、確立された指示的ジェスチャーと象徴的ジェスチャーを補完した。このように、我々の研究は、アダプティブ建築の自律的ジェスチャーをより読みやすくするための探索的な一歩である。ロボットのジェスチャーが、その動きだけでなく空間的インパクトに基づいてどのように解釈されるかを理解することで、HRIと人間-建物相互作用研究の橋渡しに貢献する。

要約(オリジナル)

The vision of adaptive architecture proposes that robotic technologies could enable interior spaces to physically transform in a bidirectional interaction with occupants. Yet, it is still unknown how this interaction could unfold in an understandable way. Inspired by HRI studies where robotic furniture gestured intents to occupants by deliberately positioning or moving in space, we hypothesise that adaptive architecture could also convey intents through gestures performed by a mobile robotic partition. To explore this design space, we invited 15 multidisciplinary experts to join co-design improvisation sessions, where they manually manoeuvred a deactivated robotic partition to design gestures conveying six architectural intents that varied in purpose and urgency. Using a gesture elicitation method alongside motion-tracking data, a Laban-based questionnaire, and thematic analysis, we identified 20 unique gestural strategies. Through categorisation, we introduced architectonic gestures as a novel strategy for robotic furniture to convey intent by indexically leveraging its spatial impact, complementing the established deictic and emblematic gestures. Our study thus represents an exploratory step toward making the autonomous gestures of adaptive architecture more legible. By understanding how robotic gestures are interpreted based not only on their motion but also on their spatial impact, we contribute to bridging HRI with Human-Building Interaction research.

arxiv情報

著者 Alex Binh Vinh Duc Nguyen,Jan Leusmann,Sven Mayer,Andrew Vande Moere
発行日 2025-01-03 13:56:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.HC, cs.RO パーマリンク