要約
機械学習の入力タイプは多種多様であるにもかかわらず、この多様性は表現やモデル アーキテクチャに完全には反映されないことが多く、モデルのライフサイクル全体で非効率につながります。
この論文では、データの構造を適切に考慮した入力エンコーディング アーキテクチャを構築するための代数的アプローチを紹介し、より型に富んだ機械学習を実現するための一歩を提供します。
要約(オリジナル)
Despite the wide variety of input types in machine learning, this diversity is often not fully reflected in their representations or model architectures, leading to inefficiencies throughout a model’s lifecycle. This paper introduces an algebraic approach to constructing input-encoding architectures that properly account for the data’s structure, providing a step toward achieving more typeful machine learning.
arxiv情報
著者 | Stephane Bersier,Xinyi Chen-Lin |
発行日 | 2024-10-15 16:56:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google