要約
Functional Distributional Semantics (FDS) は、真理条件関数によって単語の意味をモデル化します。
これは上位語の自然な表現を提供しますが、FDS モデルがコーパス上でトレーニングされるときに上位語が学習されるという保証はありません。
コーパスが分布包含仮説に厳密に従っている場合、FDS モデルが上位語を学習することを示します。
さらに、FDS が単純な普遍的な定量化を処理できるようにするトレーニング目標を導入し、DIH の逆の下でのハイパーニミー学習を可能にします。
合成データセットと実際のデータセットの両方に関する実験結果により、私たちの仮説と提案された目的の有効性が確認されました。
要約(オリジナル)
Functional Distributional Semantics (FDS) models the meaning of words by truth-conditional functions. This provides a natural representation for hypernymy, but no guarantee that it is learnt when FDS models are trained on a corpus. We demonstrate that FDS models learn hypernymy when a corpus strictly follows the Distributional Inclusion Hypothesis. We further introduce a training objective that allows FDS to handle simple universal quantifications, thus enabling hypernymy learning under the reverse of DIH. Experimental results on both synthetic and real data sets confirm our hypotheses and the effectiveness of our proposed objective.
arxiv情報
著者 | Chun Hei Lo,Guy Emerson |
発行日 | 2023-09-15 11:28:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google