要約
ディープラーニングによるテキスト分析のためのオープンソース ツールキットである YATO を紹介します。
テキストに対する基本的なシーケンスのラベル付けとシーケンスの分類タスクに焦点を当てています。
階層構造で設計された YATO は、1) 従来のニューラル ネットワーク (CNN、RNN など) を含む 3 種類の機能の自由な組み合わせをサポートします。
2) 事前トレーニング済みの言語モデル (BERT、RoBERTa、ELECTRA など)。
3) シンプルな構成可能なファイルを介してユーザーがカスタマイズしたニューラル機能。
YATO は、柔軟性と使いやすさの利点を活用して、最先端の NLP モデルの再現と改良を促進し、NLP 技術の学際的な応用を促進します。
ソース コード、例、およびドキュメントは、https://github.com/jiesutd/YATO で公開されています。
デモ ビデオも https://youtu.be/tSjjf5BzfQg で入手できます。
要約(オリジナル)
We introduce YATO, an open-source toolkit for text analysis with deep learning. It focuses on fundamental sequence labeling and sequence classification tasks on text. Designed in a hierarchical structure, YATO supports free combinations of three types of features including 1) traditional neural networks (CNN, RNN, etc.); 2) pre-trained language models (BERT, RoBERTa, ELECTRA, etc.); and 3) user-customed neural features via a simple configurable file. Benefiting from the advantages of flexibility and ease of use, YATO can facilitate reproducing and refinement of state-of-the-art NLP models, and promote the cross-disciplinary applications of NLP techniques. Source code, examples, and documentation are publicly available at https://github.com/jiesutd/YATO. A demo video is also available at https://youtu.be/tSjjf5BzfQg.
arxiv情報
| 著者 | Zeqiang Wang,Yile Wang,Jiageng Wu,Zhiyang Teng,Jie Yang |
| 発行日 | 2023-03-02 13:06:10+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google