Low-Data Classification of Historical Music Manuscripts: A Few-Shot Learning Approach

要約

この論文では、歴史的写本における音楽記号を分類するための自己教師あり学習フレームワークを開発することにより、テクノロジーと文化保存の接点を探ります。
光学式音楽認識 (OMR) は、音楽遺産のデジタル化と保存において重要な役割を果たしていますが、歴史的文書には、従来の方法で必要とされるラベル付きデータが欠けていることがよくあります。
私たちは、ラベルのないデータに対してニューラルベースの特徴抽出器をトレーニングすることでこの課題を克服し、最小限のサンプルで効果的な分類を可能にします。
主な貢献には、自己教師あり畳み込みニューラル ネットワークのクロップ前処理の最適化、SVM、多層パーセプトロン、プロトタイプ ネットワークなどの分類手法の評価が含まれます。
私たちの実験では 87.66\% の精度が得られ、高度なデジタル アーカイブ技術を通じて歴史的な音楽を将来の世代に確実に残せる AI 主導の手法の可能性を示しています。

要約(オリジナル)

In this paper, we explore the intersection of technology and cultural preservation by developing a self-supervised learning framework for the classification of musical symbols in historical manuscripts. Optical Music Recognition (OMR) plays a vital role in digitising and preserving musical heritage, but historical documents often lack the labelled data required by traditional methods. We overcome this challenge by training a neural-based feature extractor on unlabelled data, enabling effective classification with minimal samples. Key contributions include optimising crop preprocessing for a self-supervised Convolutional Neural Network and evaluating classification methods, including SVM, multilayer perceptrons, and prototypical networks. Our experiments yield an accuracy of 87.66\%, showcasing the potential of AI-driven methods to ensure the survival of historical music for future generations through advanced digital archiving techniques.

arxiv情報

著者 Elona Shatri,Daniel Raymond,George Fazekas
発行日 2024-11-25 14:14:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.IR パーマリンク