Open-world Machine Learning: A Systematic Review and Future Directions

要約

機械学習は、多くのアプリケーションで目覚ましい成功を収めている。しかし、既存の研究は、環境が静止しており、モデルが一度導入されれば固定されるという閉じた世界の仮定に基づいている。現実のアプリケーションの多くでは、オープンな環境は複雑でダイナミックで未知数に満ちているため、この基本的かつ素朴な仮定は成り立たないかもしれない。そのような場合、未知のものを排除し、新規性を発見し、そしてそれらを継続的に学習することで、モデルを安全なものとし、生物システムがそうであるように継続的に進化させることができる。本稿では、未知の拒絶、新規性の発見、継続的な学習を統一的なパラダイムで調査することで、オープンワールド機械学習の全体像を提示する。現在の方法論の課題、原理、限界について詳細に議論する。さらに、広く使用されているベンチマーク、測定基準、および性能について要約する。最後に、この分野のさらなる進歩のためのいくつかの潜在的な方向性について議論する。オープンワールド機械学習という新たなパラダイムを包括的に紹介することで、研究者がそれぞれの分野でより強力なAIシステムを構築し、人工知能の発展を促進する一助となることを目指している。

要約(オリジナル)

Machine learning has achieved remarkable success in many applications. However, existing studies are largely based on the closed-world assumption, which assumes that the environment is stationary, and the model is fixed once deployed. In many real-world applications, this fundamental and rather naive assumption may not hold because an open environment is complex, dynamic, and full of unknowns. In such cases, rejecting unknowns, discovering novelties, and then continually learning them, could enable models to be safe and evolve continually as biological systems do. This article presents a holistic view of open-world machine learning by investigating unknown rejection, novelty discovery, and continual learning in a unified paradigm. The challenges, principles, and limitations of current methodologies are discussed in detail. Furthermore, widely used benchmarks, metrics, and performances are summarized. Finally, we discuss several potential directions for further progress in the field. By providing a comprehensive introduction to the emerging open-world machine learning paradigm, this article aims to help researchers build more powerful AI systems in their respective fields, and to promote the development of artificial general intelligence.

arxiv情報

著者 Fei Zhu,Shijie Ma,Zhen Cheng,Xu-Yao Zhang,Zhaoxiang Zhang,Dacheng Tao,Cheng-Lin Liu
発行日 2025-06-03 15:11:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG パーマリンク