I.2.7」カテゴリーアーカイブ

Pairing interacting protein sequences using masked language modeling

要約 アミノ酸配列からどのタンパク質が相互作用するかを予測することは重要な課題で … 続きを読む

カテゴリー: 68T07, 68T50, 92-08, 92B20, cs.LG, I.2.7, q-bio.BM | Pairing interacting protein sequences using masked language modeling はコメントを受け付けていません

Reveal the Unknown: Out-of-Knowledge-Base Mention Discovery with Entity Linking

要約 ナレッジ ベース (KB) の外にあるエンティティの言及をテキストから検出 … 続きを読む

カテゴリー: cs.CL, I.2.7 | Reveal the Unknown: Out-of-Knowledge-Base Mention Discovery with Entity Linking はコメントを受け付けていません

Ontology Enrichment from Texts: A Biomedical Dataset for Concept Discovery and Placement

要約 新しい概念の言及はテキストに定期的に出現し、それらを収集してナレッジベース … 続きを読む

カテゴリー: cs.CL, I.2.7 | Ontology Enrichment from Texts: A Biomedical Dataset for Concept Discovery and Placement はコメントを受け付けていません

Weakly Supervised Text Classification on Free Text Comments in Patient-Reported Outcome Measures

要約 患者報告結果測定 (PROM) データ内のフリー テキスト コメント (F … 続きを読む

カテゴリー: cs.CL, I.2.7 | Weakly Supervised Text Classification on Free Text Comments in Patient-Reported Outcome Measures はコメントを受け付けていません

Efficient Domain Adaptation of Sentence Embeddings Using Adapters

要約 文の埋め込みにより、短いテキストの意味上の類似性を捉えることができます。 … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | Efficient Domain Adaptation of Sentence Embeddings Using Adapters はコメントを受け付けていません

Exploring Multilingual Text Data Distillation

要約 ディープラーニングの台頭により、大規模なデータセットと複雑なモデルが一般的 … 続きを読む

カテゴリー: cs.AI, cs.CL, F.2.2, I.2.7 | Exploring Multilingual Text Data Distillation はコメントを受け付けていません

Missing Information, Unresponsive Authors, Experimental Flaws: The Impossibility of Assessing the Reproducibility of Previous Human Evaluations in NLP

要約 我々は、何が NLP における人間の評価の再現性を高めるか、あるいは低下さ … 続きを読む

カテゴリー: 68, cs.CL, I.2.7 | Missing Information, Unresponsive Authors, Experimental Flaws: The Impossibility of Assessing the Reproducibility of Previous Human Evaluations in NLP はコメントを受け付けていません

Knowledge-preserving Pruning for Pre-trained Language Models without Retraining

要約 事前にトレーニングされた言語モデルが与えられた場合、再トレーニングせずにそ … 続きを読む

カテゴリー: 68T50, cs.CL, I.2.7 | Knowledge-preserving Pruning for Pre-trained Language Models without Retraining はコメントを受け付けていません

Baby Llama: knowledge distillation from an ensemble of teachers trained on a small dataset with no performance penalty

要約 BabyLMチャレンジ[arXiv:2301.11796]は、言語モデルの … 続きを読む

カテゴリー: cs.CL, I.2.7 | Baby Llama: knowledge distillation from an ensemble of teachers trained on a small dataset with no performance penalty はコメントを受け付けていません

Explaining Relation Classification Models with Semantic Extents

要約 近年、BERTやGPTなどの大規模な事前学習済み言語モデルの開発により、関 … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | Explaining Relation Classification Models with Semantic Extents はコメントを受け付けていません