要約
人工知能 (AI) と機械学習 (ML) の進歩を促進する主な触媒の 1 つは、厳選された大規模なデータセットの利用可能性です。
このような大規模なデータセットをキュレーションするために一般的に使用される手法は、データが複数のアノテーターにディスパッチされるクラウドソーシングです。
その後、アノテーターが生成したラベルが融合されて、下流の学習および推論タスクに使用されます。
このアノテーション プロセスでは、専門知識が限られていることやアノテーターの信頼性が低いことなど、さまざまな理由によりノイズの多いラベルが作成されることがよくあります。
したがって、クラウドソーシングの中心的な目的は、学習タスクに対するそのようなラベルノイズの悪影響を効果的に軽減する方法を開発することです。
この特集記事では、騒がしいクラウドソーシング レーベルから学ぶ進歩を紹介します。
古典的な統計モデルから最近の深層学習ベースのアプローチに至るまで、主要なクラウドソーシング モデルとその方法論的処理に焦点を当て、分析的な洞察とアルゴリズムの開発に重点を置いています。
特に、この記事では、信号処理 (SP) 理論と、テンソルや非負行列因数分解の識別可能性などの手法と、クラウドソーシングにおける長年の課題に対する斬新で原則に基づいた解決策との関連性をレビューし、SP の観点がこの分野の進歩をどのように推進するかを示します。
。
さらに、この記事では、大規模な言語を微調整するための重要な手法であるヒューマン フィードバックによる強化学習 (RLHF) や直接優先最適化 (DPO) におけるクラウドソーシングなど、最先端の AI/ML システムの開発に重要な新たなトピックについても触れています。
モデル (LLM)。
要約(オリジナル)
One of the primary catalysts fueling advances in artificial intelligence (AI) and machine learning (ML) is the availability of massive, curated datasets. A commonly used technique to curate such massive datasets is crowdsourcing, where data are dispatched to multiple annotators. The annotator-produced labels are then fused to serve downstream learning and inference tasks. This annotation process often creates noisy labels due to various reasons, such as the limited expertise, or unreliability of annotators, among others. Therefore, a core objective in crowdsourcing is to develop methods that effectively mitigate the negative impact of such label noise on learning tasks. This feature article introduces advances in learning from noisy crowdsourced labels. The focus is on key crowdsourcing models and their methodological treatments, from classical statistical models to recent deep learning-based approaches, emphasizing analytical insights and algorithmic developments. In particular, this article reviews the connections between signal processing (SP) theory and methods, such as identifiability of tensor and nonnegative matrix factorization, and novel, principled solutions of longstanding challenges in crowdsourcing — showing how SP perspectives drive the advancements of this field. Furthermore, this article touches upon emerging topics that are critical for developing cutting-edge AI/ML systems, such as crowdsourcing in reinforcement learning with human feedback (RLHF) and direct preference optimization (DPO) that are key techniques for fine-tuning large language models (LLMs).
arxiv情報
著者 | Shahana Ibrahim,Panagiotis A. Traganitis,Xiao Fu,Georgios B. Giannakis |
発行日 | 2024-07-09 14:34:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google