要約
chatGPT のようなファウンデーション モデルは、さまざまなタスクで優れたパフォーマンスを示しています。
ただし、多くの質問では、正確に見える誤った回答が生成される場合があります。
モデルをトレーニングして概念を正確に理解するにはどうすればよいでしょうか?
この論文では、圏論に基づく概念の簡潔な表現を紹介します。
このような表現は、さまざまなタスクの下で概念ごとの不変性プロパティを生成し、複雑な概念を証明可能かつ正確に学習したり、誤解を修正したりできる新しい学習アルゴリズムをもたらします。
さらに、簡潔な表現を再帰的に展開することで、階層的な分解を生成し、分解内の各部分を個別に調べることで概念を手動で検証できます。
要約(オリジナル)
Foundation models like chatGPT have demonstrated remarkable performance on various tasks. However, for many questions, they may produce false answers that look accurate. How do we train the model to precisely understand the concepts? In this paper, we introduce succinct representations of concepts based on category theory. Such representation yields concept-wise invariance properties under various tasks, resulting a new learning algorithm that can provably and accurately learn complex concepts or fix misconceptions. Moreover, by recursively expanding the succinct representations, one can generate a hierarchical decomposition, and manually verify the concept by individually examining each part inside the decomposition.
arxiv情報
著者 | Yang Yuan |
発行日 | 2023-03-01 12:11:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google