要約
タイトル:CAT:コモンセンス推論のためのコンテキスチュアルな概念化と具現化フレームワーク
要約:
・コモンセンス推論は、機械に状況を推測する人間らしい能力を与えることを目的としており、一般的に困難である。
・人が「瞑想」についてほとんど知らなくても、「歌う」について知識があれば、「歌うことが人をリラックスさせる」を既存の知識から仮定することができる。これは、最初に「歌う」というイベントを「リラックスするイベント」として概念化し、次にそのイベントを「瞑想」として具現化するプロセスである。このような概念的帰納と演繹というプロセスは、コモンセンス推論の基礎であるが、ラベル付きデータとコモンセンスモデリングのための方法論の双方に欠けている。
・そのような調査の空白を埋めるために、我々はCAT(コンテクストアライズド・コンセプチュアライゼーション・アンド・インスタンシエーション)というセミスーパーバイズド学習フレームワークを提案している。CATは、イベントの概念化と具現化を統合し、コモンセンス知識ベースを概念化することができる。
・広範な実験により、我々のフレームワークが2つの概念化タスクで最高のパフォーマンスを発揮し、獲得した抽象的なコモンセンス知識がコモンセンス推論モデリングを大幅に改善することが示された。
・我々のコード、データ、およびファインチューニングモデルは、https://github.com/HKUST-KnowComp/CAT で公開されている。
要約(オリジナル)
Commonsense reasoning, aiming at endowing machines with a human-like ability to make situational presumptions, is extremely challenging to generalize. For someone who barely knows about ‘meditation,’ while is knowledgeable about ‘singing,’ he can still infer that ‘meditation makes people relaxed’ from the existing knowledge that ‘singing makes people relaxed’ by first conceptualizing ‘singing’ as a ‘relaxing event’ and then instantiating that event to ‘meditation.’ This process, known as conceptual induction and deduction, is fundamental to commonsense reasoning while lacking both labeled data and methodologies to enhance commonsense modeling. To fill such a research gap, we propose CAT (Contextualized ConceptuAlization and InsTantiation), a semi-supervised learning framework that integrates event conceptualization and instantiation to conceptualize commonsense knowledge bases at scale. Extensive experiments show that our framework achieves state-of-the-art performances on two conceptualization tasks, and the acquired abstract commonsense knowledge can significantly improve commonsense inference modeling. Our code, data, and fine-tuned models are publicly available at https://github.com/HKUST-KnowComp/CAT.
arxiv情報
著者 | Weiqi Wang,Tianqing Fang,Baixuan Xu,Chun Yi Louis Bo,Yangqiu Song,Lei Chen |
発行日 | 2023-05-10 11:40:27+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI