ACC-Collab: An Actor-Critic Approach to Multi-Agent LLM Collaboration

要約

大規模な言語モデル(LLM)は、さまざまな言語ベースのタスクの汎用ツールとして機能する顕著な能力を実証しています。
最近の研究では、複数のモデル間の反復ダイアログを通じて、このようなモデルの有効性が改善できることが実証されています。
これらのパラダイムはモデルの有効性を改善することで有望ですが、この分野のほとんどの作品は、学習行動ではなく、緊急の行動としてコラボレーションを扱います。
そうすることで、現在のマルチエージェントフレームワークは、共同行動に依存して、既製のモデルに十分に訓練されています。
この制限に対処するために、俳優に基づいた学習フレームワークであるACC-Collabを提案して、コラボレーションに特化した2エージェントチーム(俳優と批評家のエージェント)を生み出します。
ACC-Collabは、さまざまなベンチマークでSOTAマルチエージェント技術を上回ることを実証します。

要約(オリジナル)

Large language models (LLMs) have demonstrated a remarkable ability to serve as general-purpose tools for various language-based tasks. Recent works have demonstrated that the efficacy of such models can be improved through iterative dialog between multiple models. While these paradigms show promise in improving model efficacy, most works in this area treat collaboration as an emergent behavior, rather than a learned behavior. In doing so, current multi-agent frameworks rely on collaborative behaviors to have been sufficiently trained into off-the-shelf models. To address this limitation, we propose ACC-Collab, an Actor-Critic based learning framework to produce a two-agent team (an actor-agent and a critic-agent) specialized in collaboration. We demonstrate that ACC-Collab outperforms SotA multi-agent techniques on a wide array of benchmarks.

arxiv情報

著者 Andrew Estornell,Jean-Francois Ton,Yuanshun Yao,Yang Liu
発行日 2025-03-06 16:28:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | ACC-Collab: An Actor-Critic Approach to Multi-Agent LLM Collaboration はコメントを受け付けていません

The Next Frontier of LLM Applications: Open Ecosystems and Hardware Synergy

要約

LLMアプリストアや自律エージェントを含む大規模な言語モデル(LLM)アプリケーションは、AIエコシステムの将来を形作っています。
ただし、プラットフォームサイロ、断片化されたハードウェアの統合、および標準化されたインターフェイスがないと、スケーラビリティ、相互運用性、リソース効率が制限されます。
LLMアプリはAIを民主化する一方で、閉じた生態系はモジュラーAIの再利用とクロスプラットフォームの移植性を制限します。
一方、エージェントベースのフレームワークは柔軟性を提供しますが、多くの場合、多様な環境間のシームレスな統合が欠けています。
このペーパーでは、LLMアプリケーションの将来を想定し、階層化されたシステム設計、サービス指向のアーキテクチャ、ハードウェアソフトウェアの共同設計などのソフトウェアエンジニアリング原則に基づいた3層分離されたアーキテクチャを提案します。
このアーキテクチャは、アプリケーションロジック、通信プロトコル、ハードウェアの実行を分離し、モジュール性、効率、およびクロスプラットフォームの互換性を高めます。
アーキテクチャを超えて、安全でスケーラブルなAIの展開とソフトウェアおよびセキュリティエンジニアリングの研究方向の概要のための主要なセキュリティとプライバシーの課題を強調しています。
このビジョンは、AIアプリケーションの将来の進歩を導く、オープン、セキュア、および相互運用可能なLLMエコシステムを促進することを目的としています。

要約(オリジナル)

Large Language Model (LLM) applications, including LLM app stores and autonomous agents, are shaping the future of AI ecosystems. However, platform silos, fragmented hardware integration, and the absence of standardized interfaces limit scalability, interoperability, and resource efficiency. While LLM app stores democratize AI, their closed ecosystems restrict modular AI reuse and cross-platform portability. Meanwhile, agent-based frameworks offer flexibility but often lack seamless integration across diverse environments. This paper envisions the future of LLM applications and proposes a three-layer decoupled architecture grounded in software engineering principles such as layered system design, service-oriented architectures, and hardware-software co-design. This architecture separates application logic, communication protocols, and hardware execution, enhancing modularity, efficiency, and cross-platform compatibility. Beyond architecture, we highlight key security and privacy challenges for safe, scalable AI deployment and outline research directions in software and security engineering. This vision aims to foster open, secure, and interoperable LLM ecosystems, guiding future advancements in AI applications.

arxiv情報

著者 Xinyi Hou,Yanjie Zhao,Haoyu Wang
発行日 2025-03-06 16:38:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.SE | The Next Frontier of LLM Applications: Open Ecosystems and Hardware Synergy はコメントを受け付けていません

HybridNorm: Towards Stable and Efficient Transformer Training via Hybrid Normalization

要約

トランスフォーマーは、特に大規模な言語モデル(LLM)で、幅広い機械学習タスクの事実上のアーキテクチャとなっています。
驚くべきパフォーマンスにもかかわらず、特に層の正規化の位置に関して、深い変圧器ネットワークのトレーニングに課題が残っています。
プレノーム構造は、より顕著なアイデンティティパスのために簡単なトレーニングを促進しますが、多くの場合、ポストノームと比較して最適ではないパフォーマンスをもたらします。
このホワイトペーパーでは、$ \ textBf {HybridNorm} $を提案します。これは、プリノームとノーム後のアプローチの両方の利点を統合する簡単でありながら効果的なハイブリッド正規化戦略です。
具体的には、ハイブリッドノームは、各トランスブロックのフィードフォワードネットワーク(FFN)で注意メカニズムとポストノーム内でQKV正規化を採用しています。
このデザインは、特にLLMSのコンテキストで、トレーニングを安定させるだけでなく、パフォーマンスを向上させます。
密集したアーキテクチャとスパースアーキテクチャの両方での包括的な実験は、ハイブリッドノームが一貫してノーム以前のアプローチとノーム後のアプローチの両方を上回り、さまざまなベンチマークで最新の結果を達成することを示しています。
これらの発見は、ディープトランスモデルのトレーニングとパフォーマンスを改善するためのより安定した効果的な手法としてのハイブリッドノームの可能性を強調しています。
%コードは公開されます。
コードはhttps://github.com/brycezhuo/hybridnormで入手できます。

要約(オリジナル)

Transformers have become the de facto architecture for a wide range of machine learning tasks, particularly in large language models (LLMs). Despite their remarkable performance, challenges remain in training deep transformer networks, especially regarding the location of layer normalization. While Pre-Norm structures facilitate easier training due to their more prominent identity path, they often yield suboptimal performance compared to Post-Norm. In this paper, we propose $\textbf{HybridNorm}$, a straightforward yet effective hybrid normalization strategy that integrates the advantages of both Pre-Norm and Post-Norm approaches. Specifically, HybridNorm employs QKV normalization within the attention mechanism and Post-Norm in the feed-forward network (FFN) of each transformer block. This design not only stabilizes training but also enhances performance, particularly in the context of LLMs. Comprehensive experiments in both dense and sparse architectures show that HybridNorm consistently outperforms both Pre-Norm and Post-Norm approaches, achieving state-of-the-art results across various benchmarks. These findings highlight the potential of HybridNorm as a more stable and effective technique for improving the training and performance of deep transformer models. %Code will be made publicly available. Code is available at https://github.com/BryceZhuo/HybridNorm.

arxiv情報

著者 Zhijian Zhuo,Yutao Zeng,Ya Wang,Sijun Zhang,Jian Yang,Xiaoqing Li,Xun Zhou,Jinwen Ma
発行日 2025-03-06 16:40:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG | HybridNorm: Towards Stable and Efficient Transformer Training via Hybrid Normalization はコメントを受け付けていません

IDInit: A Universal and Stable Initialization Method for Neural Network Training

要約

深いニューラルネットワークは、実際に顕著な成果を達成しています。
これらのネットワークの成功は、効果的な初期化方法にかかっています。これは、トレーニング中に安定した迅速な収束を確保するために不可欠です。
最近、レイヤー内でアイデンティティの遷移を維持する初期化方法は、ネットワークトレーニングの効率が良好であることを示しています。
これらの手法(例:FixUp)は、特定の重みをゼロに設定して、IDコントロールを実現します。
ただし、残りの重量の設定(たとえば、Fixupはランダム値を使用して非ゼロ重量を初期化する)は、ゼロ重量のみで達成される誘導バイアスに影響を及ぼし、トレーニングに有害な場合があります。
この懸念に対処すると、完全に同一の初期化(IDINIT)を導入します。これは、残差ネットワークの主要な根本層とサブステム層の両方でアイデンティティを保持する新しい方法です。
Idinitは、非二乗重量マトリックスのランク制約を克服するために、パッド入りのアイデンティティのようなマトリックスを採用しています。
さらに、アイデンティティマトリックスの収束問題は、確率的勾配降下によって解決できることを示します。
さらに、高次の重みを処理し、死んだニューロンの問題に対処することにより、Idinitの普遍性を高めます。
Idinitは、大規模なデータセットやディープモデルなど、さまざまな設定にわたって収束、安定性、パフォーマンスが向上した、簡単でありながら効果的な初期化方法です。

要約(オリジナル)

Deep neural networks have achieved remarkable accomplishments in practice. The success of these networks hinges on effective initialization methods, which are vital for ensuring stable and rapid convergence during training. Recently, initialization methods that maintain identity transition within layers have shown good efficiency in network training. These techniques (e.g., Fixup) set specific weights to zero to achieve identity control. However, settings of remaining weight (e.g., Fixup uses random values to initialize non-zero weights) will affect the inductive bias that is achieved only by a zero weight, which may be harmful to training. Addressing this concern, we introduce fully identical initialization (IDInit), a novel method that preserves identity in both the main and sub-stem layers of residual networks. IDInit employs a padded identity-like matrix to overcome rank constraints in non-square weight matrices. Furthermore, we show the convergence problem of an identity matrix can be solved by stochastic gradient descent. Additionally, we enhance the universality of IDInit by processing higher-order weights and addressing dead neuron problems. IDInit is a straightforward yet effective initialization method, with improved convergence, stability, and performance across various settings, including large-scale datasets and deep models.

arxiv情報

著者 Yu Pan,Chaozheng Wang,Zekai Wu,Qifan Wang,Min Zhang,Zenglin Xu
発行日 2025-03-06 17:12:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | IDInit: A Universal and Stable Initialization Method for Neural Network Training はコメントを受け付けていません

Mark Your LLM: Detecting the Misuse of Open-Source Large Language Models via Watermarking

要約

LLAMA3のようなオープンソースの大手言語モデル(LLM)がより能力が高まるにつれて、潜在的な誤用を検出するための透かし技術を開発することが重要です。
既存の透かしの方法は、LLM推論中に透かしを追加するか、オープンソースLLMには適さないか、主に最近の生成LLMではなくターゲット分類LLMをターゲットにします。
これらの透かしを誤用検出のためにオープンソースLLMSに適応させることは、依然としてオープンな課題です。
この作業では、オープンソースLLMSの2つの誤用シナリオを定義します。知的財産(IP)違反とLLMの使用違反です。
次に、これらのコンテキストでの推論時の透かし蒸留とバックドア透かしの適用を探ります。
透けて、さまざまな現実世界のさらなる微調整シナリオが透かしに与える影響とLLMパフォーマンスに対するこれらの透かしの影響を評価する包括的な評価方法を提案します。
私たちの実験は、バックドアの透かしがIP違反を効果的に検出できることを明らかにしていますが、推論時の透かし蒸留は両方のシナリオに適用できますが、さらに微調整するのに堅牢ではなく、バックドアの透かしと比較してLLMのパフォーマンスにより大きな影響を与えます。
オープンソースLLMSの誤用を検出するためのより高度な透かしの方法を調査することは、重要な将来の方向であるはずです。

要約(オリジナル)

As open-source large language models (LLMs) like Llama3 become more capable, it is crucial to develop watermarking techniques to detect their potential misuse. Existing watermarking methods either add watermarks during LLM inference, which is unsuitable for open-source LLMs, or primarily target classification LLMs rather than recent generative LLMs. Adapting these watermarks to open-source LLMs for misuse detection remains an open challenge. This work defines two misuse scenarios for open-source LLMs: intellectual property (IP) violation and LLM Usage Violation. Then, we explore the application of inference-time watermark distillation and backdoor watermarking in these contexts. We propose comprehensive evaluation methods to assess the impact of various real-world further fine-tuning scenarios on watermarks and the effect of these watermarks on LLM performance. Our experiments reveal that backdoor watermarking could effectively detect IP Violation, while inference-time watermark distillation is applicable in both scenarios but less robust to further fine-tuning and has a more significant impact on LLM performance compared to backdoor watermarking. Exploring more advanced watermarking methods for open-source LLMs to detect their misuse should be an important future direction.

arxiv情報

著者 Yijie Xu,Aiwei Liu,Xuming Hu,Lijie Wen,Hui Xiong
発行日 2025-03-06 17:24:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | Mark Your LLM: Detecting the Misuse of Open-Source Large Language Models via Watermarking はコメントを受け付けていません

Tutorial on amortized optimization

要約

最適化はユビキタスモデリングツールであり、同じ問題の同様のインスタンスを繰り返し解決する設定に展開されることがよくあります。
償却最適化方法は、学習を使用して、これらの設定の問題の解決策を予測し、同様の問題インスタンス間で共有構造を活用します。
これらの方法は、変動推論と強化学習において重要であり、最適化の問題を解決することができます。
このチュートリアルでは、これらの進歩の背後にある償却最適化の基礎の紹介と、そのアプリケーションが変分推論、スパースコーディング、勾配ベースのメタラーニング、制御、強化学習、凸最適化、最適輸送、および深部平衡ネットワークでのアプリケーションを概要します。
このチュートリアルのソースコードは、https://github.com/facebookresearch/amortized-optimization-tutorialで入手できます。

要約(オリジナル)

Optimization is a ubiquitous modeling tool and is often deployed in settings which repeatedly solve similar instances of the same problem. Amortized optimization methods use learning to predict the solutions to problems in these settings, exploiting the shared structure between similar problem instances. These methods have been crucial in variational inference and reinforcement learning and are capable of solving optimization problems many orders of magnitudes times faster than traditional optimization methods that do not use amortization. This tutorial presents an introduction to the amortized optimization foundations behind these advancements and overviews their applications in variational inference, sparse coding, gradient-based meta-learning, control, reinforcement learning, convex optimization, optimal transport, and deep equilibrium networks. The source code for this tutorial is available at https://github.com/facebookresearch/amortized-optimization-tutorial.

arxiv情報

著者 Brandon Amos
発行日 2025-03-06 17:24:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, math.OC | Tutorial on amortized optimization はコメントを受け付けていません

Implicit Cross-Lingual Rewarding for Efficient Multilingual Preference Alignment

要約

直接選好最適化(DPO)は、大規模な言語モデル(LLM)を人間の好みに合わせるための顕著な方法となっています。
DPOは英語のLLMSの調整において大きな進歩を可能にしましたが、多言語の好みのアラインメントはデータ不足によって妨げられます。
これに対処するために、$ \ textit {cuptrues} $は、暗黙の報酬と$ \ textit {transfers} $を反復的なトレーニングを通じて他の言語に獲得した英語モデルから学習された選好を学んだという新しいアプローチを提案します。
具体的には、英語のDPOに並べられたモデルとその対応する参照モデルのロジットから暗黙の報酬モデルを導き出します。
この報酬モデルは、英語の指示を使用して多言語の応答を評価して、言語間の指導に従うペアで優先関係に注釈を付けるために活用されます。
注釈付きデータは、その後、多言語のDPO微調整に使用され、英語から他の言語への好みの知識転送を促進します。
2回の反復でLLAMA3を微調整すると、X-Alpacaevalリーダーボードのすべてのトレーニング言語で、勝利率が12.72%の平均改善と5.97%の長さのコントロール勝利率が増加しました。
我々の調査結果は、既存の英語に合わせたモデルを活用すると、効率的かつ効果的な多言語選好アラインメントが可能になり、広範な多言語選好データの必要性が大幅に減少することを示しています。
このコードは、https://github.com/znlp/implicit-cross-lingual-rewardingで入手できます

要約(オリジナル)

Direct Preference Optimization (DPO) has become a prominent method for aligning Large Language Models (LLMs) with human preferences. While DPO has enabled significant progress in aligning English LLMs, multilingual preference alignment is hampered by data scarcity. To address this, we propose a novel approach that $\textit{captures}$ learned preferences from well-aligned English models by implicit rewards and $\textit{transfers}$ them to other languages through iterative training. Specifically, we derive an implicit reward model from the logits of an English DPO-aligned model and its corresponding reference model. This reward model is then leveraged to annotate preference relations in cross-lingual instruction-following pairs, using English instructions to evaluate multilingual responses. The annotated data is subsequently used for multilingual DPO fine-tuning, facilitating preference knowledge transfer from English to other languages. Fine-tuning Llama3 for two iterations resulted in a 12.72% average improvement in Win Rate and a 5.97% increase in Length Control Win Rate across all training languages on the X-AlpacaEval leaderboard. Our findings demonstrate that leveraging existing English-aligned models can enable efficient and effective multilingual preference alignment, significantly reducing the need for extensive multilingual preference data. The code is available at https://github.com/ZNLP/Implicit-Cross-Lingual-Rewarding

arxiv情報

著者 Wen Yang,Junhong Wu,Chen Wang,Chengqing Zong,Jiajun Zhang
発行日 2025-03-06 17:33:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | Implicit Cross-Lingual Rewarding for Efficient Multilingual Preference Alignment はコメントを受け付けていません

AdaptBot: Combining LLM with Knowledge Graphs and Human Input for Generic-to-Specific Task Decomposition and Knowledge Refinement

要約

人間を支援する具体化されたエージェントは、多くの場合、新しいタスクを完了するように求められます。これらの新しいタスクを実行するためにエージェントを訓練するのに十分な時間やラベルの付いた例がない場合があります。
多くのドメインにわたってかなりの知識で訓練された大規模な言語モデル(LLM)を使用して、そのようなタスクを完了するための一連の抽象的なアクションを予測できますが、エージェントはタスク、エージェント、またはドメイン固有の制約のためにこのシーケンスを実行できない場合があります。
私たちのフレームワークは、LLMが提供する一般的な予測と知識グラフ(kg)にエンコードされた以前のドメイン知識を活用して、エージェントが新しいタスクに迅速に適応できるようにすることにより、これらの課題に対処します。
また、ロボットは、必要に応じて人間の入力を求めて使用して、既存の知識を改良します。
シミュレーションドメインでの調理およびクリーニングタスクのコンテキストでの実験的評価に基づいて、LLM、KG、およびヒトの入力間の相互作用がLLMを使用するだけで大​​幅なパフォーマンスの向上につながることを示します。
プロジェクトWebサイト{\ s}:https://sssshivvvv.github.io/adaptbot/

要約(オリジナル)

An embodied agent assisting humans is often asked to complete new tasks, and there may not be sufficient time or labeled examples to train the agent to perform these new tasks. Large Language Models (LLMs) trained on considerable knowledge across many domains can be used to predict a sequence of abstract actions for completing such tasks, although the agent may not be able to execute this sequence due to task-, agent-, or domain-specific constraints. Our framework addresses these challenges by leveraging the generic predictions provided by LLM and the prior domain knowledge encoded in a Knowledge Graph (KG), enabling an agent to quickly adapt to new tasks. The robot also solicits and uses human input as needed to refine its existing knowledge. Based on experimental evaluation in the context of cooking and cleaning tasks in simulation domains, we demonstrate that the interplay between LLM, KG, and human input leads to substantial performance gains compared with just using the LLM. Project website{\S}: https://sssshivvvv.github.io/adaptbot/

arxiv情報

著者 Shivam Singh,Karthik Swaminathan,Nabanita Dash,Ramandeep Singh,Snehasis Banerjee,Mohan Sridharan,Madhava Krishna
発行日 2025-03-06 18:09:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG, cs.RO | AdaptBot: Combining LLM with Knowledge Graphs and Human Input for Generic-to-Specific Task Decomposition and Knowledge Refinement はコメントを受け付けていません

Multi-Agent Inverse Q-Learning from Demonstrations

要約

報酬機能が手指定されている場合、深い強化学習アルゴリズムは、多くの場合、報酬の誤りに悩まされ、意図したタスク目標の観点から最適でないポリシーを学習します。
単一エージェントの場合、逆補強学習(IRL)手法は、専門家のデモンストレーションから報酬機能を推測することにより、この問題に対処しようとします。
ただし、マルチエージェントの問題では、環境の非定常性と複数のエージェントと拡大する分散の増加により、学習と真の目的の間の不整合が悪化します。
そのため、マルチエージェントゼネラルサムゲームでは、マルチエージェントIRLアルゴリズムは、協力的で競争力のある目標のバランスをとるのが困難です。
これらの問題に対処するために、マルチエージェントIRLの新しいサンプル効率の高いフレームワークであるデモンストレーション(MAMQL)からのマルチエージェントの限界Qラーニングを提案します。
各エージェントについて、MAMQLは他のエージェントのポリシーに疎外された批評家を学び、マルチエージェントのコンテキストでボルツマンポリシーを十分に動かして使用できるようにします。
最適な疎外された批評家とシングルエージェントソフトQ IRLの間の接続を特定し、単一エージェントドメインから直接的なシンプルな最適化基準を適用できるようにします。
3つの異なるシミュレートされたドメインでの実験全体で、MAMQLは、平均報酬、サンプル効率、報酬の回復で以前のマルチエージェントメソッドを2〜5倍以上上回ることが大幅に上回ります。
https://sites.google.com/view/mamqlでコードを利用できるようにします。

要約(オリジナル)

When reward functions are hand-designed, deep reinforcement learning algorithms often suffer from reward misspecification, causing them to learn suboptimal policies in terms of the intended task objectives. In the single-agent case, inverse reinforcement learning (IRL) techniques attempt to address this issue by inferring the reward function from expert demonstrations. However, in multi-agent problems, misalignment between the learned and true objectives is exacerbated due to increased environment non-stationarity and variance that scales with multiple agents. As such, in multi-agent general-sum games, multi-agent IRL algorithms have difficulty balancing cooperative and competitive objectives. To address these issues, we propose Multi-Agent Marginal Q-Learning from Demonstrations (MAMQL), a novel sample-efficient framework for multi-agent IRL. For each agent, MAMQL learns a critic marginalized over the other agents’ policies, allowing for a well-motivated use of Boltzmann policies in the multi-agent context. We identify a connection between optimal marginalized critics and single-agent soft-Q IRL, allowing us to apply a direct, simple optimization criterion from the single-agent domain. Across our experiments on three different simulated domains, MAMQL significantly outperforms previous multi-agent methods in average reward, sample efficiency, and reward recovery by often more than 2-5x. We make our code available at https://sites.google.com/view/mamql .

arxiv情報

著者 Nathaniel Haynam,Adam Khoja,Dhruv Kumar,Vivek Myers,Erdem Bıyık
発行日 2025-03-06 18:22:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.MA, cs.RO | Multi-Agent Inverse Q-Learning from Demonstrations はコメントを受け付けていません

Matrix Factorization for Inferring Associations and Missing Links

要約

ミスリンク予測は、知識グラフの推奨システム、生物学、社会科学、サイバーセキュリティ、情報検索、および人工知能(AI)の推論のアプリケーションを使用して、ネットワーク分析の方法です。
欠落リンク予測は、観察されたパターンと関係を分析することにより、ネットワーク内の目に見えないが潜在的に既存の接続を識別します。
増殖検出では、これは、核兵器または関連する技術を獲得するための州および非国家の関係者による試みを特定し、特徴付ける努力をサポートしています。
非陰性マトリックス因数分解(NMF)やロジスティックマトリックス因数分解(LMF)などの次元削減技術は効果的ですが、マトリックスランクパラメーター、つまり、過剰/過小フィットを避けるために、隠された特徴の数の選択が必要です。
リンク予測のために、ロジスティック因数分解を組み込んだアンサンブル変数とともに、新規加重(WNMFK)、ブール(BNMFK)、および推奨(RNMFK)マトリックス因数分解法を紹介します。
当社の方法は、修正されたブートストラップ方法論と不確実性の定量化(UQ)を使用して安定性と精度を評価し、ランダムな摂動下での予測信頼性を評価することにより、ランク推定の自動モデル決定を統合します。
ブールマトリックス因数分解のために、ostuしきい値選択とk-meansクラスタリングを組み込み、それらを降下ベースのブールのしきい値を調整するために比較します。
私たちの実験は、ランクKの選択の影響を強調し、さまざまなテストセットサイズでモデルのパフォーマンスを評価し、棄権を使用した信頼できる予測に対するUQの利点を実証します。
3つの合成データセット(ブールと均一に分布)でメソッドを検証し、5つの実際のタンパク質間相互作用ネットワークのLMFおよび対称LMF(SymlMF)に対してベンチマークし、予測パフォーマンスの改善を示します。

要約(オリジナル)

Missing link prediction is a method for network analysis, with applications in recommender systems, biology, social sciences, cybersecurity, information retrieval, and Artificial Intelligence (AI) reasoning in Knowledge Graphs. Missing link prediction identifies unseen but potentially existing connections in a network by analyzing the observed patterns and relationships. In proliferation detection, this supports efforts to identify and characterize attempts by state and non-state actors to acquire nuclear weapons or associated technology – a notoriously challenging but vital mission for global security. Dimensionality reduction techniques like Non-Negative Matrix Factorization (NMF) and Logistic Matrix Factorization (LMF) are effective but require selection of the matrix rank parameter, that is, of the number of hidden features, k, to avoid over/under-fitting. We introduce novel Weighted (WNMFk), Boolean (BNMFk), and Recommender (RNMFk) matrix factorization methods, along with ensemble variants incorporating logistic factorization, for link prediction. Our methods integrate automatic model determination for rank estimation by evaluating stability and accuracy using a modified bootstrap methodology and uncertainty quantification (UQ), assessing prediction reliability under random perturbations. We incorporate Otsu threshold selection and k-means clustering for Boolean matrix factorization, comparing them to coordinate descent-based Boolean thresholding. Our experiments highlight the impact of rank k selection, evaluate model performance under varying test-set sizes, and demonstrate the benefits of UQ for reliable predictions using abstention. We validate our methods on three synthetic datasets (Boolean and uniformly distributed) and benchmark them against LMF and symmetric LMF (symLMF) on five real-world protein-protein interaction networks, showcasing an improved prediction performance.

arxiv情報

著者 Ryan Barron,Maksim E. Eren,Duc P. Truong,Cynthia Matuszek,James Wendelberger,Mary F. Dorn,Boian Alexandrov
発行日 2025-03-06 18:22:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.LO | Matrix Factorization for Inferring Associations and Missing Links はコメントを受け付けていません