要約
大規模言語モデル (LLM) が運用ワークフロー (LLM-Ops) にますます統合されるようになっているため、言語間で潜在的に安全でないコンテンツや不適切なコンテンツを検出する機能など、安全で調整された対話を確保するための効果的なガードレールが緊急に必要とされています。
ただし、既存の安全な作業分類子は主に英語のテキストに焦点を当てています。
マレーシア語のこのギャップに対処するために、マレーシア語のコンテンツに特化して調整された、作業に安全な新しいテキスト分類子を紹介します。
複数のコンテンツ カテゴリにまたがるマレーシア語テキストのこの種のものとしては初めてのデータセットを厳選し、注釈を付けることで、最先端の自然言語処理技術を使用して、潜在的に安全でない素材を識別できる分類モデルをトレーニングしました。
この作業は、より安全なインタラクションとコンテンツ フィルタリングを可能にして、潜在的なリスクを軽減し、責任ある LLM の展開を保証するための重要なステップとなります。
アクセシビリティを最大化し、マレーシアのコンテキストに合わせた LLM-Ops の連携強化に向けたさらなる研究を促進するために、モデルは https://huggingface.co/malaysia-ai/malaysian-sfw-classifier で公開されています。
要約(オリジナル)
As large language models (LLMs) become increasingly integrated into operational workflows (LLM-Ops), there is a pressing need for effective guardrails to ensure safe and aligned interactions, including the ability to detect potentially unsafe or inappropriate content across languages. However, existing safe-for-work classifiers are primarily focused on English text. To address this gap for the Malaysian language, we present a novel safe-for-work text classifier tailored specifically for Malaysian language content. By curating and annotating a first-of-its-kind dataset of Malaysian text spanning multiple content categories, we trained a classification model capable of identifying potentially unsafe material using state-of-the-art natural language processing techniques. This work represents an important step in enabling safer interactions and content filtering to mitigate potential risks and ensure responsible deployment of LLMs. To maximize accessibility and promote further research towards enhancing alignment in LLM-Ops for the Malaysian context, the model is publicly released at https://huggingface.co/malaysia-ai/malaysian-sfw-classifier.
arxiv情報
著者 | Aisyah Razak,Ariff Nazhan,Kamarul Adha,Wan Adzhar Faiq Adzlan,Mas Aisyah Ahmad,Ammar Azman |
発行日 | 2024-07-30 10:51:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google