要約
我々は、不一致を伴う学習タスクにおける、ソフト及びハードラベル予測のためのディープニューラルネットワークモデルの出力層における異なる活性化関数の影響を研究する。このタスクでは、ソフトラベルを予測することにより、不一致の量を定量化することが目的である。ソフトラベルを予測するために、BERTベースのプリプロセッサとエンコーダを使用し、出力層で使用する活性化関数を変化させ、他のパラメータは一定に保つ。ソフト・ラベルはハード・ラベルの予測に使用される。検討した活性化関数は、シグモイド、学習後にモデルに追加されるステップ関数、および本稿で初めて導入した正弦波活性化関数である。
要約(オリジナル)
We study the influence of different activation functions in the output layer of deep neural network models for soft and hard label prediction in the learning with disagreement task. In this task, the goal is to quantify the amount of disagreement via predicting soft labels. To predict the soft labels, we use BERT-based preprocessors and encoders and vary the activation function used in the output layer, while keeping other parameters constant. The soft labels are then used for the hard label prediction. The activation functions considered are sigmoid as well as a step-function that is added to the model post-training and a sinusoidal activation function, which is introduced for the first time in this paper.
arxiv情報
著者 | Peyman Hosseini,Mehran Hosseini,Sana Sabah Al-Azzawi,Marcus Liwicki,Ignacio Castro,Matthew Purver |
発行日 | 2024-01-03 19:33:57+00:00 |
arxivサイト | arxiv_id(pdf) |