Towards LLM-guided Efficient and Interpretable Multi-linear Tensor Network Rank Selection

要約

私たちは、高次データ分析のためのテンソル ネットワーク モデルのランク選択をガイドするために大規模言語モデル (LLM) を活用する新しいフレームワークを提案します。
LLM の固有の推論機能とドメイン知識を利用することで、私たちのアプローチはランク選択の解釈可能性を高め、目的関数を効果的に最適化できます。
このフレームワークにより、専門分野の専門知識を持たないユーザーでもテンソル ネットワーク分解を利用し、ランク選択プロセス内の根本的な理論的根拠を理解できるようになります。
実験結果は、金融の高次データセットに対する私たちの方法を検証し、解釈可能な推論、目に見えないテストデータに対する強力な一般化、および連続した反復にわたる自己強化の可能性を実証しています。
この研究は、大規模な言語モデルと高次のデータ分析の交差点に位置します。

要約(オリジナル)

We propose a novel framework that leverages large language models (LLMs) to guide the rank selection in tensor network models for higher-order data analysis. By utilising the intrinsic reasoning capabilities and domain knowledge of LLMs, our approach offers enhanced interpretability of the rank choices and can effectively optimise the objective function. This framework enables users without specialised domain expertise to utilise tensor network decompositions and understand the underlying rationale within the rank selection process. Experimental results validate our method on financial higher-order datasets, demonstrating interpretable reasoning, strong generalisation to unseen test data, and its potential for self-enhancement over successive iterations. This work is placed at the intersection of large language models and higher-order data analysis.

arxiv情報

著者 Giorgos Iacovides,Wuyang Zhou,Danilo Mandic
発行日 2024-10-14 17:09:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク