要約
ダンスのパフォーマンスは、伝統的に、動きが音楽に反応する一方的な関係に従っています。
AIはさまざまなクリエイティブドメインで進歩していますが、ダンスへのアプリケーションは主に音楽の入力から振り付けを生成することに焦点を当てています。
ダンサーが動きを通して音楽環境を動的に形成できるようにするシステムを提示します。
私たちのマルチモーダルアーキテクチャは、ダンスの動きに対応して、事前に録音された音楽クリップをインテリジェントに組み合わせて、パフォーマーと作曲家の両方としてダンサーが機能する双方向の創造的パートナーシップを確立することにより、一貫した音楽作曲を作成します。
パフォーマンスデータの相関分析を通じて、動きの品質とオーディオ機能の間の新しいコミュニケーションパターンを示します。
このアプローチは、幅広い集団にわたってプロのダンスパフォーマンスと即興的な芸術的表現の両方の可能性を拡大する応答性のあるコラボレーターとしての舞台芸術におけるAIの役割を再概念化します。
要約(オリジナル)
Dance performance traditionally follows a unidirectional relationship where movement responds to music. While AI has advanced in various creative domains, its application in dance has primarily focused on generating choreography from musical input. We present a system that enables dancers to dynamically shape musical environments through their movements. Our multi-modal architecture creates a coherent musical composition by intelligently combining pre-recorded musical clips in response to dance movements, establishing a bidirectional creative partnership where dancers function as both performers and composers. Through correlation analysis of performance data, we demonstrate emergent communication patterns between movement qualities and audio features. This approach reconceptualizes the role of AI in performing arts as a responsive collaborator that expands possibilities for both professional dance performance and improvisational artistic expression across broader populations.
arxiv情報
著者 | Olga Vechtomova,Jeff Bos |
発行日 | 2025-06-13 17:56:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google