要約
機械学習 (ML) は、幅広い研究分野や業界に革命を起こす可能性を秘めていますが、多くの ML プロジェクトは概念実証の段階を超えて進むことはありません。
この問題に対処するために、当社は Model Share AI (AIMS) を導入しました。これは、共同モデル開発、モデル出所追跡、モデル展開を合理化するように設計された使いやすい MLOps プラットフォームであり、実際の成果を最大化することを目的とした他の多くの機能も同様です。
– ML 研究の世界的影響。
AIMS は、共同プロジェクト スペースと、目に見えない評価データのパフォーマンスに基づいてモデルの提出をランク付けする標準化されたモデル評価プロセスを備えており、共同モデル開発とクラウド ソーシングを可能にします。
モデルのパフォーマンスとさまざまなモデルのメタデータが自動的にキャプチャされるため、出所の追跡が容易になり、ユーザーは以前の提出物から学び、それを基に構築できるようになります。
さらに、AIMS を使用すると、Scikit-Learn、TensorFlow Keras、PyTorch、ONNX で構築された ML モデルを、最小限のコードでライブ REST API や自動生成された Web アプリにデプロイできます。
最小限の労力でモデルをデプロイし、Web アプリを通じて技術者以外のエンドユーザーもモデルにアクセスできるようにすることで、ML 研究を現実世界の課題にさらに適用できる可能性があります。
要約(オリジナル)
Machine learning (ML) has the potential to revolutionize a wide range of research areas and industries, but many ML projects never progress past the proof-of-concept stage. To address this issue, we introduce Model Share AI (AIMS), an easy-to-use MLOps platform designed to streamline collaborative model development, model provenance tracking, and model deployment, as well as a host of other functions aiming to maximize the real-world impact of ML research. AIMS features collaborative project spaces and a standardized model evaluation process that ranks model submissions based on their performance on unseen evaluation data, enabling collaborative model development and crowd-sourcing. Model performance and various model metadata are automatically captured to facilitate provenance tracking and allow users to learn from and build on previous submissions. Additionally, AIMS allows users to deploy ML models built in Scikit-Learn, TensorFlow Keras, PyTorch, and ONNX into live REST APIs and automatically generated web apps with minimal code. The ability to deploy models with minimal effort and to make them accessible to non-technical end-users through web apps has the potential to make ML research more applicable to real-world challenges.
arxiv情報
著者 | Heinrich Peters,Michael Parrott |
発行日 | 2023-09-27 15:24:39+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google