Encoding architecture algebra

要約

機械学習の入力タイプは多種多様であるにもかかわらず、この多様性は表現やモデル アーキテクチャに完全には反映されないことが多く、モデルのライフサイクル全体で非効率につながります。
この論文では、データの構造を適切に考慮した入力エンコーディング アーキテクチャを構築するための代数的アプローチを紹介し、より型に富んだ機械学習を実現するための一歩を提供します。

要約(オリジナル)

Despite the wide variety of input types in machine learning, this diversity is often not fully reflected in their representations or model architectures, leading to inefficiencies throughout a model’s lifecycle. This paper introduces an algebraic approach to constructing input-encoding architectures that properly account for the data’s structure, providing a step toward achieving more typeful machine learning.

arxiv情報

著者 Stephane Bersier,Xinyi Chen-Lin
発行日 2024-10-15 16:56:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.PL, cs.SE パーマリンク