要約
Forum for Information Retrieval (FIRE) は今年、さまざまなコードセグメントのコメントを分類するための共有タスクを開始しました。
これはバイナリ テキスト分類タスクであり、その目的は、特定のコード セグメントに与えられたコメントが関連しているかどうかを識別することです。
インド科学教育研究ボパール研究所 (IISERB) の BioNLP-IISERB グループがこのタスクに参加し、5 つの異なるモデルに対して 5 回の実行を提出しました。
この論文では、モデルの概要とトレーニング コーパスに関するその他の重要な発見について説明します。
この方法には、さまざまな特徴量エンジニアリング スキームとテキスト分類手法が含まれます。
与えられたトレーニング コーパスから重要な特徴を特定するために、古典的なバッグ オブ ワード モデルとトランスフォーマー ベースのモデルのパフォーマンスが調査されました。
私たちは、ランダム フォレスト、サポート ベクター マシン、バッグ オブ ワード モデルを使用したロジスティック回帰など、さまざまな分類器を検討してきました。
さらに、BERT、RoBERT、ALBERT などの事前トレーニング済みのトランスフォーマー ベースのモデルも、指定されたトレーニング コーパス上で微調整して使用されました。
トレーニング コーパスに対するさまざまなモデルのパフォーマンスが報告され、最良の 5 つのモデルが所定のテスト コーパスに実装されました。
経験的結果は、バッグ オブ ワード モデルがトランスフォーマー ベースのモデルよりも優れていることを示していますが、実行のパフォーマンスはトレーニング コーパスとテスト コーパスの両方でそれほど良好ではありません。
この文書では、モデルの限界とさらなる改善の範囲についても取り上げます。
要約(オリジナル)
The Forum for Information Retrieval (FIRE) started a shared task this year for classification of comments of different code segments. This is binary text classification task where the objective is to identify whether comments given for certain code segments are relevant or not. The BioNLP-IISERB group at the Indian Institute of Science Education and Research Bhopal (IISERB) participated in this task and submitted five runs for five different models. The paper presents the overview of the models and other significant findings on the training corpus. The methods involve different feature engineering schemes and text classification techniques. The performance of the classical bag of words model and transformer-based models were explored to identify significant features from the given training corpus. We have explored different classifiers viz., random forest, support vector machine and logistic regression using the bag of words model. Furthermore, the pre-trained transformer based models like BERT, RoBERT and ALBERT were also used by fine-tuning them on the given training corpus. The performance of different such models over the training corpus were reported and the best five models were implemented on the given test corpus. The empirical results show that the bag of words model outperforms the transformer based models, however, the performance of our runs are not reasonably well in both training and test corpus. This paper also addresses the limitations of the models and scope for further improvement.
arxiv情報
著者 | Sruthi S,Tanmay Basu |
発行日 | 2023-08-11 14:06:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google