要約
ソーシャルロボットや他の人工エージェントが会話に能力が高まるにつれて、これらのエージェントに対する自己開示の内容と意味がエージェントの具体化に応じて変化するかどうかを理解することが重要です。
この研究では、参加者が人間、ヒューマノイド社会ロボット、および具体化された会話エージェントに自己開示した3つの制御された実験からの会話データを分析しました。
文の埋め込みとクラスタリングを使用して、参加者の開示にテーマを特定し、その後、大きな言語モデルでラベル付けおよび説明されました。
その後、これらのテーマと開示の基礎となるセマンティック構造が、エージェントの具体化によって異なるかどうかを評価しました。
私たちの調査結果は強い一貫性を明らかにしています。テーマの分布は実施形態によって有意な差はありませんでした。セマンティックな類似性分析は、開示が非常に同等の方法で表現されることを示しました。
これらの結果は、具体化が人間と人間とエージェントの相互作用における人間の行動に影響を与える可能性があるが、人間や人工対話者であろうと、人々は開示に一貫したテーマの焦点と意味的構造を維持する傾向があることを示唆しています。
要約(オリジナル)
As social robots and other artificial agents become more conversationally capable, it is important to understand whether the content and meaning of self-disclosure towards these agents changes depending on the agent’s embodiment. In this study, we analysed conversational data from three controlled experiments in which participants self-disclosed to a human, a humanoid social robot, and a disembodied conversational agent. Using sentence embeddings and clustering, we identified themes in participants’ disclosures, which were then labelled and explained by a large language model. We subsequently assessed whether these themes and the underlying semantic structure of the disclosures varied by agent embodiment. Our findings reveal strong consistency: thematic distributions did not significantly differ across embodiments, and semantic similarity analyses showed that disclosures were expressed in highly comparable ways. These results suggest that while embodiment may influence human behaviour in human-robot and human-agent interactions, people tend to maintain a consistent thematic focus and semantic structure in their disclosures, whether speaking to humans or artificial interlocutors.
arxiv情報
著者 | Sophie Chiang,Guy Laban,Emily S. Cross,Hatice Gunes |
発行日 | 2025-04-08 18:45:03+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google