要約
LLMアプリストアや自律エージェントを含む大規模な言語モデル(LLM)アプリケーションは、AIエコシステムの将来を形作っています。
ただし、プラットフォームサイロ、断片化されたハードウェアの統合、および標準化されたインターフェイスがないと、スケーラビリティ、相互運用性、リソース効率が制限されます。
LLMアプリはAIを民主化する一方で、閉じた生態系はモジュラーAIの再利用とクロスプラットフォームの移植性を制限します。
一方、エージェントベースのフレームワークは柔軟性を提供しますが、多くの場合、多様な環境間のシームレスな統合が欠けています。
このペーパーでは、LLMアプリケーションの将来を想定し、階層化されたシステム設計、サービス指向のアーキテクチャ、ハードウェアソフトウェアの共同設計などのソフトウェアエンジニアリング原則に基づいた3層分離されたアーキテクチャを提案します。
このアーキテクチャは、アプリケーションロジック、通信プロトコル、ハードウェアの実行を分離し、モジュール性、効率、およびクロスプラットフォームの互換性を高めます。
アーキテクチャを超えて、安全でスケーラブルなAIの展開とソフトウェアおよびセキュリティエンジニアリングの研究方向の概要のための主要なセキュリティとプライバシーの課題を強調しています。
このビジョンは、AIアプリケーションの将来の進歩を導く、オープン、セキュア、および相互運用可能なLLMエコシステムを促進することを目的としています。
要約(オリジナル)
Large Language Model (LLM) applications, including LLM app stores and autonomous agents, are shaping the future of AI ecosystems. However, platform silos, fragmented hardware integration, and the absence of standardized interfaces limit scalability, interoperability, and resource efficiency. While LLM app stores democratize AI, their closed ecosystems restrict modular AI reuse and cross-platform portability. Meanwhile, agent-based frameworks offer flexibility but often lack seamless integration across diverse environments. This paper envisions the future of LLM applications and proposes a three-layer decoupled architecture grounded in software engineering principles such as layered system design, service-oriented architectures, and hardware-software co-design. This architecture separates application logic, communication protocols, and hardware execution, enhancing modularity, efficiency, and cross-platform compatibility. Beyond architecture, we highlight key security and privacy challenges for safe, scalable AI deployment and outline research directions in software and security engineering. This vision aims to foster open, secure, and interoperable LLM ecosystems, guiding future advancements in AI applications.
arxiv情報
著者 | Xinyi Hou,Yanjie Zhao,Haoyu Wang |
発行日 | 2025-03-06 16:38:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google