要約
パーソナライズされたタスクを実行する AI の可能性がますます高まっているため、データ効率が高く、数百、数千のトレーニング データを必要としない新しい機械学習技術の開発が不可欠になっています。
この論文では、ワンショット テキスト分類のための帰納的論理プログラミングのアプローチを検討します。
特に、ConceptNet から抽出された常識的な背景知識を使用しながら、メタ解釈学習 (MIL) のフレームワークを探索します。
結果は、MIL が少数のトレーニング例からテキスト分類ルールを学習できることを示しています。
さらに、選択した例の複雑さが増すほど、結果の精度も高くなります。
要約(オリジナル)
With the ever-increasing potential of AI to perform personalised tasks, it is becoming essential to develop new machine learning techniques which are data-efficient and do not require hundreds or thousands of training data. In this paper, we explore an Inductive Logic Programming approach for one-shot text classification. In particular, we explore the framework of Meta-Interpretive Learning (MIL), along with using common-sense background knowledge extracted from ConceptNet. Results indicate that MIL can learn text classification rules from a small number of training examples. Moreover, the higher complexity of chosen examples, the higher accuracy of the outcome.
arxiv情報
著者 | Ghazal Afroozi Milani,Daniel Cyrus,Alireza Tamaddoni-Nezhad |
発行日 | 2023-08-30 09:04:06+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google