Text-to-Model: Text-Conditioned Neural Network Diffusion for Train-Once-for-All Personalization

要約

生成人工知能(GENAI)は、テキストからテキストへの大規模な言語モデル、テキストからイメージから安定した拡散、テキストからビデオへのソラなど、さまざまなモダリティの人間言語から世界の知識を理解し、生成することに大きな進歩を遂げました。
この論文では、テキストからモデルの生成のためのGenaiの能力を調査して、GenaiがAI自体パラメーターに組み込まれたハイパーレベルの知識を理解できるかどうかを確認します。
具体的には、テキストプロンプトを使用して、多様なエンドユーザーとタスクのパーソナライズされたモデルを生成することを目指して、すべてのパーソナライズと呼ばれる実用的なシナリオを研究します。
ニューラルネットワークの拡散の最近の出現に触発された私たちは、Tinaを訓練するためのテキストコンディショナルニューラルネットワーク拡散であるTinaを提示します。
Tinaは、クリップモデルを使用して埋め込まれたタスクの説明を条件付けられた拡散トランスモデルを活用します。
潜在的なパーソナライズされたタスクの天文数(たとえば、$ 1.73 \ Times10^{13} $)にもかかわらず、ティナは、小さなデータセット($ \ sim 1000 $)で訓練された顕著な分散型および分散型の一般化を示しています。
さらに、ゼロショット/少ないショット画像プロンプト、さまざまな数のパーソナライズされたクラス、自然言語の説明のプロンプト、および目に見えないエンティティの予測でその機能を分析することにより、\ Tinaが世界の知識を理解するかどうか、および方法を検証します。

要約(オリジナル)

Generative artificial intelligence (GenAI) has made significant progress in understanding world knowledge and generating content from human languages across various modalities, like text-to-text large language models, text-to-image stable diffusion, and text-to-video Sora. While in this paper, we investigate the capability of GenAI for text-to-model generation, to see whether GenAI can comprehend hyper-level knowledge embedded within AI itself parameters. Specifically, we study a practical scenario termed train-once-for-all personalization, aiming to generate personalized models for diverse end-users and tasks using text prompts. Inspired by the recent emergence of neural network diffusion, we present Tina, a text-conditioned neural network diffusion for train-once-for-all personalization. Tina leverages a diffusion transformer model conditioned on task descriptions embedded using a CLIP model. Despite the astronomical number of potential personalized tasks (e.g., $1.73\times10^{13}$), by our design, Tina demonstrates remarkable in-distribution and out-of-distribution generalization even trained on small datasets ($\sim 1000$). We further verify whether and how \Tina understands world knowledge by analyzing its capabilities under zero-shot/few-shot image prompts, different numbers of personalized classes, prompts of natural language descriptions, and predicting unseen entities.

arxiv情報

著者 Zexi Li,Lingzhi Gao,Chao Wu
発行日 2025-03-26 16:33:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Text-to-Model: Text-Conditioned Neural Network Diffusion for Train-Once-for-All Personalization はコメントを受け付けていません

Learning Straight Flows by Learning Curved Interpolants

要約

フローマッチングモデルは通常、線形挿入剤を使用して、順方向/ノイズの追加プロセスを定義します。
これは、ノイズとターゲット分布の間の独立した結合とともに、しばしば非ストレートであるベクトルフィールドを生成します。
このような湾曲したフィールドは、ゆっくりとした推論/生成プロセスにつながります。
この作業では、より速い生成を可能にするためにストレートベクトルフィールドを学習するために、柔軟な(潜在的に湾曲した)補間を学ぶことを提案します。
これをマルチレベルの最適化問題を介して定式化し、それを解決するための効率的な近似手順を提案します。
私たちのフレームワークは、エンドツーエンドおよびシミュレーションのない最適化手順を提供します。これは、直線生成軌跡を学習するために活用できます。

要約(オリジナル)

Flow matching models typically use linear interpolants to define the forward/noise addition process. This, together with the independent coupling between noise and target distributions, yields a vector field which is often non-straight. Such curved fields lead to a slow inference/generation process. In this work, we propose to learn flexible (potentially curved) interpolants in order to learn straight vector fields to enable faster generation. We formulate this via a multi-level optimization problem and propose an efficient approximate procedure to solve it. Our framework provides an end-to-end and simulation-free optimization procedure, which can be leveraged to learn straight line generative trajectories.

arxiv情報

著者 Shiv Shankar,Tomas Geffner
発行日 2025-03-26 16:54:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Learning Straight Flows by Learning Curved Interpolants はコメントを受け付けていません

Continual learning via probabilistic exchangeable sequence modelling

要約

継続的な学習(CL)とは、過去の経験から有用な情報を保持しながら、新しい知識を継続的に学習および蓄積する能力を指します。
近年、多数のCL方法が提案されていますが、計算コストと不確実性の定量化の欠如により、実際の意思決定の問題に直接展開することは簡単ではありません。
これらの問題に対処するために、スケーラブルで扱いやすいベイジアンの更新と予測を実行する確率的、神経プロセスベースのCLモデルであるCL-Brunoを提案します。
提案されているアプローチでは、深い世代モデルを使用して、タスクやクラス内の学習などのさまざまな種類のCL問題を処理できる統一された確率的フレームワークを作成し、単一のモデルを使用してさまざまなCLシナリオ間でユーザーが情報を統合できるようにします。
私たちのアプローチは、以前に見たサンプルを保持する必要なく、分布および機能的な正則化を通じて壊滅的な忘却を防ぐことができ、データのプライバシーやストレージ容量が懸念されるアプリケーションに魅力的であるためです。
実験は、CL-Brunoが自然画像と生物医学データセットの両方で既存の方法を上回り、実際のアプリケーションでのその有効性を確認することを示しています。

要約(オリジナル)

Continual learning (CL) refers to the ability to continuously learn and accumulate new knowledge while retaining useful information from past experiences. Although numerous CL methods have been proposed in recent years, it is not straightforward to deploy them directly to real-world decision-making problems due to their computational cost and lack of uncertainty quantification. To address these issues, we propose CL-BRUNO, a probabilistic, Neural Process-based CL model that performs scalable and tractable Bayesian update and prediction. Our proposed approach uses deep-generative models to create a unified probabilistic framework capable of handling different types of CL problems such as task- and class-incremental learning, allowing users to integrate information across different CL scenarios using a single model. Our approach is able to prevent catastrophic forgetting through distributional and functional regularisation without the need of retaining any previously seen samples, making it appealing to applications where data privacy or storage capacity is of concern. Experiments show that CL-BRUNO outperforms existing methods on both natural image and biomedical data sets, confirming its effectiveness in real-world applications.

arxiv情報

著者 Hanwen Xing,Christopher Yau
発行日 2025-03-26 17:08:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML | Continual learning via probabilistic exchangeable sequence modelling はコメントを受け付けていません

Benchmarking and optimizing organism wide single-cell RNA alignment methods

要約

バッチ効果を削除し、シングルセルRNA(SCRNA)データセットを調整するための多くの方法が提案されています。
ただし、パフォーマンスは通常、複数のパラメーターと少数のデータセットに基づいて評価され、大規模なデータを調整するのに最適な方法を評価する際の課題を生み出します。
ここでは、k-neighbors交差点(KNI)スコアを導入します。これは、クロスダタセットセルタイプのラベル予測でバッチ効果と測定の精度を測定する単一スコアを導入します。
KNIスコアを使用して、クロスダタセットシングルセルRNA統合のアプローチを評価および最適化します。
バッチ敵対的なシングルセル変異推論(BA-SCVI)を導入します。SCVIの新しいバリアントとして、敵対的なトレーニングを使用してエンコーダーとデコーダーのバッチ効果を罰し、このアプローチが他の方法を上回ることを示しています。
結果として整列した空間では、細胞型グループの粒度が保存されていることがわかり、情報を失うことなく単一のモデルによって全生物細胞型マップを作成できるという概念を支持します。

要約(オリジナル)

Many methods have been proposed for removing batch effects and aligning single-cell RNA (scRNA) datasets. However, performance is typically evaluated based on multiple parameters and few datasets, creating challenges in assessing which method is best for aligning data at scale. Here, we introduce the K-Neighbors Intersection (KNI) score, a single score that both penalizes batch effects and measures accuracy at cross-dataset cell-type label prediction alongside carefully curated small (scMARK) and large (scREF) benchmarks comprising 11 and 46 human scRNA studies respectively, where we have standardized author labels. Using the KNI score, we evaluate and optimize approaches for cross-dataset single-cell RNA integration. We introduce Batch Adversarial single-cell Variational Inference (BA-scVI), as a new variant of scVI that uses adversarial training to penalize batch-effects in the encoder and decoder, and show this approach outperforms other methods. In the resulting aligned space, we find that the granularity of cell-type groupings is conserved, supporting the notion that whole-organism cell-type maps can be created by a single model without loss of information.

arxiv情報

著者 Juan Javier Diaz-Mejia,Elias Williams,Octavian Focsa,Dylan Mendonca,Swechha Singh,Brendan Innes,Sam Cooper
発行日 2025-03-26 17:11:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Benchmarking and optimizing organism wide single-cell RNA alignment methods はコメントを受け付けていません

RecTable: Fast Modeling Tabular Data with Rectified Flow

要約

スコアベースまたは拡散モデルは、GANベースおよびVAEベースのモデルを上回る高品質の表形式データを生成します。
ただし、これらの方法にはかなりのトレーニング時間が必要です。
この論文では、テキストから画像の生成やテキストからビデオへの生成などで適用される修正されたフローモデリングを使用する長所を紹介します。
整理可能な機能は、いくつかの積み重ねられたゲート線形ユニットブロックで構成されるシンプルなアーキテクチャです。
さらに、トレーニング戦略も簡単で、混合タイプのノイズ分布とロジット正規のタイムステップ分布が組み込まれています。
私たちの実験は、長所が必要なトレーニング時間を短縮しながら、いくつかの最先端の拡散およびスコアベースのモデルと比較して、競争力のあるパフォーマンスを達成することを示しています。
私たちのコードは、https://github.com/fmp453/rectableで入手できます。

要約(オリジナル)

Score-based or diffusion models generate high-quality tabular data, surpassing GAN-based and VAE-based models. However, these methods require substantial training time. In this paper, we introduce RecTable, which uses the rectified flow modeling, applied in such as text-to-image generation and text-to-video generation. RecTable features a simple architecture consisting of a few stacked gated linear unit blocks. Additionally, our training strategies are also simple, incorporating a mixed-type noise distribution and a logit-normal timestep distribution. Our experiments demonstrate that RecTable achieves competitive performance compared to the several state-of-the-art diffusion and score-based models while reducing the required training time. Our code is available at https://github.com/fmp453/rectable.

arxiv情報

著者 Masane Fuchi,Tomohiro Takagi
発行日 2025-03-26 17:12:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | RecTable: Fast Modeling Tabular Data with Rectified Flow はコメントを受け付けていません

ASGO: Adaptive Structured Gradient Optimization

要約

ディープニューラルネットワーク(DNNS)のトレーニングは、単純なベクターではなくマトリックスとテンソルによって自然に表されるため、構造化された最適化問題です。
この構造表現の下で、勾配は低ランクであり、ヘシアンはほぼブロックごとの対角線であることが広く観察されています。
これらの構造化されたプロパティは、効率的な最適化アルゴリズムを設計するために重要ですが、Adamのような現在の一般的なオプティマイザーが利用することはできません。
このホワイトペーパーでは、構造化された勾配を使用して適応的に更新される前処理者を採用することにより、これらの特性を活用する新しい最適化アルゴリズムASGOを提示します。
細粒の理論分析により、ASGOは既存の構造化された勾配法と比較して優れた収束率を達成することが証明されています。
収束理論に基づいて、ASGOが低ランクおよびブロックごとの対角線特性の恩恵を受けることができることをさらに実証します。
また、ASGOの実用的な変更について説明し、言語モデルタスクに対するアルゴリズムの有効性を経験的に検証します。

要約(オリジナル)

Training deep neural networks (DNNs) is a structured optimization problem, because the parameters are naturally represented by matrices and tensors rather than simple vectors. Under this structural representation, it has been widely observed that gradients are low-rank and Hessians are approximately block-wise diagonal. These structured properties are crucial for designing efficient optimization algorithms but may not be utilized by current popular optimizers like Adam. In this paper, we present a novel optimization algorithm ASGO that capitalizes on these properties by employing a preconditioner that is adaptively updated using structured gradients. By fine-grained theoretical analysis, ASGO is proven to achieve superior convergence rates compared to existing structured gradient methods. Based on the convergence theory, we further demonstrate that ASGO can benefit from the low-rank and block-wise diagonal properties. We also discuss practical modifications of ASGO and empirically verify the effectiveness of the algorithm on language model tasks.

arxiv情報

著者 Kang An,Yuxing Liu,Rui Pan,Shiqian Ma,Donald Goldfarb,Tong Zhang
発行日 2025-03-26 17:50:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.OC | ASGO: Adaptive Structured Gradient Optimization はコメントを受け付けていません

Reliable algorithm selection for machine learning-guided design

要約

機械学習誘導設計または設計アルゴリズムのアルゴリズムは、機械学習ベースの予測を使用して、望ましいプロパティ値を持つ新しいオブジェクトを提案します。
たとえば、治療ターゲットへの結合親和性の高い新しいタンパク質を設計するために、新しい設計タスクを考えると、設計アルゴリズムを選択し、関係するハイパーパラメーターと予測および/または生成モデルを指定する必要があります。
結果として生じる設計が成功するように、これらの決定をどのように行うことができますか?
このペーパーでは、デザインアルゴリズムの選択方法を提案します。これは、ユーザーが指定した成功基準を満たすデザインラベルの分布を生成するデザインアルゴリズムを選択することを目的としています。たとえば、デザインのラベルの少なくとも10%がしきい値を超えています。
これは、設計の予測されたプロパティ値を保有されたラベル付きデータと組み合わせて、予測駆動の推論からの手法に基づいて、さまざまな設計アルゴリズムによって生成されるラベル分布の確実に予測される特性を確実に予測することによって行われます。
この方法は、設計データ分布とラベル付きデータ分布の間の密度比がわかっている場合、成功したラベル分布(またはnullセットが存在しない場合)を生成するデザインアルゴリズムを返す可能性が高いことで保証されます。
既知または推定密度比のいずれかの設定で、シミュレートされたタンパク質およびRNA設計タスクにおける方法の有効性を示します。

要約(オリジナル)

Algorithms for machine learning-guided design, or design algorithms, use machine learning-based predictions to propose novel objects with desired property values. Given a new design task — for example, to design novel proteins with high binding affinity to a therapeutic target — one must choose a design algorithm and specify any hyperparameters and predictive and/or generative models involved. How can these decisions be made such that the resulting designs are successful? This paper proposes a method for design algorithm selection, which aims to select design algorithms that will produce a distribution of design labels satisfying a user-specified success criterion — for example, that at least ten percent of designs’ labels exceed a threshold. It does so by combining designs’ predicted property values with held-out labeled data to reliably forecast characteristics of the label distributions produced by different design algorithms, building upon techniques from prediction-powered inference. The method is guaranteed with high probability to return design algorithms that yield successful label distributions (or the null set if none exist), if the density ratios between the design and labeled data distributions are known. We demonstrate the method’s effectiveness in simulated protein and RNA design tasks, in settings with either known or estimated density ratios.

arxiv情報

著者 Clara Fannjiang,Ji Won Park
発行日 2025-03-26 17:52:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, q-bio.QM, stat.ML | Reliable algorithm selection for machine learning-guided design はコメントを受け付けていません

An Empirical Study of the Impact of Federated Learning on Machine Learning Model Accuracy

要約

Federated Learning(FL)は、グローバルスケールでのプライベートユーザーデータに関する分散MLモデルトレーニングを可能にします。
多くのドメインで実証されたFLの可能性にもかかわらず、モデルの精度への影響の詳細なビューは不明のままです。
この論文では、この学習パラダイムがさまざまなMLタスクの最先端のMLモデルの精度にどのように影響するかを体系的に調査します。
テキスト、画像、オーディオ、ビデオ、およびFL構成ノブのさまざまなデータ型を含む経験的研究を提示します:データ分布、FLスケール、クライアントサンプリング、ローカルおよびグローバル計算。
私たちの実験は、統一されたFLフレームワークで行われ、高い忠実度を達成し、実質的な人間の努力と資源投資を伴います。
結果に基づいて、FLの影響の定量分析を実行し、FLを適用することでモデルの精度が大幅に低下し、影響が無視できるケースを特定する挑戦的なシナリオを強調します。
詳細かつ広範な調査結果は、実用的な展開とFLの将来の開発に役立つ可能性があります。

要約(オリジナル)

Federated Learning (FL) enables distributed ML model training on private user data at the global scale. Despite the potential of FL demonstrated in many domains, an in-depth view of its impact on model accuracy remains unclear. In this paper, we investigate, systematically, how this learning paradigm can affect the accuracy of state-of-the-art ML models for a variety of ML tasks. We present an empirical study that involves various data types: text, image, audio, and video, and FL configuration knobs: data distribution, FL scale, client sampling, and local and global computations. Our experiments are conducted in a unified FL framework to achieve high fidelity, with substantial human efforts and resource investments. Based on the results, we perform a quantitative analysis of the impact of FL, and highlight challenging scenarios where applying FL degrades the accuracy of the model drastically and identify cases where the impact is negligible. The detailed and extensive findings can benefit practical deployments and future development of FL.

arxiv情報

著者 Haotian Yang,Zhuoran Wang,Benson Chou,Sophie Xu,Hao Wang,Jingxian Wang,Qizhen Zhang
発行日 2025-03-26 17:52:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: C.2.4, cs.DC, cs.LG | An Empirical Study of the Impact of Federated Learning on Machine Learning Model Accuracy はコメントを受け付けていません

A Pretraining-Finetuning Computational Framework for Material Homogenization

要約

均質化は、マルチスケールの物理現象を研究するための基本的なツールです。
有限要素分析に大きく依存している従来の数値均質化方法は、特に複雑な幾何学、材料、高解像度の問題について、重要な計算リソースを要求します。
これらの課題に対処するために、2つのフェーズで構成される新しい数値均質化フレームワークであるPrefine-homoを提案します:事前トレーニングと微調整。
事前トレーニングフェーズでは、フーリエ神経演算子(FNO)が大規模なデータセットでトレーニングされ、入力ジオメトリと材料特性から変位フィールドへのマッピングを学習します。
微調整段階では、事前に処理された予測は、反復アルゴリズムの初期ソリューションとして機能し、収束に必要な反復数を大幅に削減します。
Prefine-Homoの事前抑制相は、従来の方法よりも最大1000倍高速な均質化結果を提供しますが、微調整位相は精度をさらに向上させます。
さらに、微調整フェーズは、プレイングホモの無制限の一般化機能を補助し、データの可用性が向上するにつれて継続的な学習と改善を可能にします。
3D周期材料の有効な弾性テンソル、特にトリップルにトリップな定期的な最小サーフェス(TPM)を予測することにより、Prefine-Homoを検証します。
結果は、プレハンホモが高精度、卓越した効率、堅牢な学習能力、および強力な外挿能力を達成し、マルチスケールの均質化タスクの強力なツールとして確立することを示しています。

要約(オリジナル)

Homogenization is a fundamental tool for studying multiscale physical phenomena. Traditional numerical homogenization methods, heavily reliant on finite element analysis, demand significant computational resources, especially for complex geometries, materials, and high-resolution problems. To address these challenges, we propose PreFine-Homo, a novel numerical homogenization framework comprising two phases: pretraining and fine-tuning. In the pretraining phase, a Fourier Neural Operator (FNO) is trained on large datasets to learn the mapping from input geometries and material properties to displacement fields. In the fine-tuning phase, the pretrained predictions serve as initial solutions for iterative algorithms, drastically reducing the number of iterations needed for convergence. The pretraining phase of PreFine-Homo delivers homogenization results up to 1000 times faster than conventional methods, while the fine-tuning phase further enhances accuracy. Moreover, the fine-tuning phase grants PreFine-Homo unlimited generalization capabilities, enabling continuous learning and improvement as data availability increases. We validate PreFine-Homo by predicting the effective elastic tensor for 3D periodic materials, specifically Triply Periodic Minimal Surfaces (TPMS). The results demonstrate that PreFine-Homo achieves high precision, exceptional efficiency, robust learning capabilities, and strong extrapolation ability, establishing it as a powerful tool for multiscale homogenization tasks.

arxiv情報

著者 Yizheng Wang,Xiang Li,Ziming Yan,Shuaifeng Ma,Jinshuai Bai,Bokai Liu,Timon Rabczuk,Yinghua Liu
発行日 2025-03-26 17:52:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CE, cs.LG | A Pretraining-Finetuning Computational Framework for Material Homogenization はコメントを受け付けていません

Control, Optimal Transport and Neural Differential Equations in Supervised Learning

要約

コントロール理論の観点から見ると、神経微分方程式(神経デス)は、監視された学習のための重要なツールになりました。
Ruiz-BaletとZuazua(Siam Review 2023)の基本的な研究では、著者は、制御理論、最適輸送理論、神経微分方程式の間のつながりに関してオープンな問題を提起します。
より正確には、彼らは、真の動的な最適輸送に対する神経輸送方程式の最適な流れの近さをどのように定量化できるかを尋ねます。
この作業では、以前に言及した開かれた問題を解決するための重要なステップを提供する、真の動的最適輸送に限界で収束する神経微分方程式の構造を提案します。

要約(オリジナル)

From the perspective of control theory, neural differential equations (neural ODEs) have become an important tool for supervised learning. In the fundamental work of Ruiz-Balet and Zuazua (SIAM REVIEW 2023), the authors pose an open problem regarding the connection between control theory, optimal transport theory, and neural differential equations. More precisely, they inquire how one can quantify the closeness of the optimal flows in neural transport equations to the true dynamic optimal transport. In this work, we propose a construction of neural differential equations that converge to the true dynamic optimal transport in the limit, providing a significant step in solving the formerly mentioned open problem.

arxiv情報

著者 Minh-Nhat Phung,Minh-Binh Tran
発行日 2025-03-26 17:56:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.NA, math.NA, math.OC | Control, Optimal Transport and Neural Differential Equations in Supervised Learning はコメントを受け付けていません