要約
ストロークは漢字の基本要素であり、ストロークの抽出は重要かつ長年にわたる取り組みでした。
既存の脳卒中抽出方法は多くの場合手作りであり、トレーニング データが限られているため、ドメインの専門知識に大きく依存しています。
さらに、さまざまなストローク抽出方法を公正に比較するための標準化されたベンチマークはありません。これは、漢字ストロークの理解と関連タスクの開発に対する大きな障害であると考えています。
この作業では、Kaiti CCSE (CCSE-Kai) と手書き CCSE (CCSE-HW) の 2 つの新しい大規模データセットを使用して、最初に公開された漢字ストローク抽出 (CCSE) ベンチマークを提示します。
大規模なデータセットを使用して、CNN などのディープ モデルの表現力を活用してストローク抽出タスクを解決したいと考えていますが、これは未解決の問題です。
この目的のために、ストローク抽出問題をストローク インスタンス セグメンテーション問題に変えます。
提案されたデータセットを使用してストローク インスタンス セグメンテーション モデルをトレーニングすると、以前の方法を大幅に上回ります。
さらに、提案されたデータセットでトレーニングされたモデルは、下流のフォント生成と手書きの美的評価タスクに役立ちます。
これらのベンチマーク結果がさらなる研究を促進することを願っています。
ソース コードとデータセットは、https://github.com/lizhaoliu-Lec/CCSE で公開されています。
要約(オリジナル)
Stroke is the basic element of Chinese character and stroke extraction has been an important and long-standing endeavor. Existing stroke extraction methods are often handcrafted and highly depend on domain expertise due to the limited training data. Moreover, there are no standardized benchmarks to provide a fair comparison between different stroke extraction methods, which, we believe, is a major impediment to the development of Chinese character stroke understanding and related tasks. In this work, we present the first public available Chinese Character Stroke Extraction (CCSE) benchmark, with two new large-scale datasets: Kaiti CCSE (CCSE-Kai) and Handwritten CCSE (CCSE-HW). With the large-scale datasets, we hope to leverage the representation power of deep models such as CNNs to solve the stroke extraction task, which, however, remains an open question. To this end, we turn the stroke extraction problem into a stroke instance segmentation problem. Using the proposed datasets to train a stroke instance segmentation model, we surpass previous methods by a large margin. Moreover, the models trained with the proposed datasets benefit the downstream font generation and handwritten aesthetic assessment tasks. We hope these benchmark results can facilitate further research. The source code and datasets are publicly available at: https://github.com/lizhaoliu-Lec/CCSE.
arxiv情報
著者 | Lizhao Liu,Kunyang Lin,Shangxin Huang,Zhongli Li,Chao Li,Yunbo Cao,Qingyu Zhou |
発行日 | 2022-10-25 08:09:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google