要約
自己教師あり学習は、大規模なデータセットに注釈を付けるコストを回避しながら、さまざまなタイプのラベルなしデータから豊富な表現を抽出する効率的な方法を提供します。
これは、データのモダリティとドメインに関して疑似ラベルを形成する口実タスクを設計することで実現できます。
オンライン手書きテキストのアプリケーションの進化を考慮して、この研究では、英語と中国語、および 2 つの言語による個人のオンライン手書きから有益な表現を抽出するモデルを事前トレーニングするための口実タスクとして、新しいストローク マスキング (POSM) の一部を提案します。
事前トレーニングされたモデルを微調整するためのパイプラインを提案します。
抽出された表現の品質を評価するために、内部評価方法と外部評価方法の両方を使用します。
事前トレーニングされたモデルは、作家識別、性別分類、利き手分類などのタスクで最先端の結果を達成するために微調整されており、最初からトレーニングされたモデルよりも事前トレーニングされたモデルを利用することの優位性も強調されています。
要約(オリジナル)
Self-supervised learning offers an efficient way of extracting rich representations from various types of unlabeled data while avoiding the cost of annotating large-scale datasets. This is achievable by designing a pretext task to form pseudo labels with respect to the modality and domain of the data. Given the evolving applications of online handwritten texts, in this study, we propose the novel Part of Stroke Masking (POSM) as a pretext task for pretraining models to extract informative representations from the online handwriting of individuals in English and Chinese languages, along with two suggested pipelines for fine-tuning the pretrained models. To evaluate the quality of the extracted representations, we use both intrinsic and extrinsic evaluation methods. The pretrained models are fine-tuned to achieve state-of-the-art results in tasks such as writer identification, gender classification, and handedness classification, also highlighting the superiority of utilizing the pretrained models over the models trained from scratch.
arxiv情報
著者 | Pouya Mehralian,Bagher BabaAli,Ashena Gorgan Mohammadi |
発行日 | 2023-10-10 14:07:49+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google