OpenSLU: A Unified, Modularized, and Extensible Toolkit for Spoken Language Understanding

要約

音声言語理解 (SLU) は、タスク指向の対話システムの中核コンポーネントの 1 つであり、ユーザーのクエリ (インテントやスロットなど) の意味論的な意味を抽出することを目的としています。
この作業では、音声言語を理解するための統合され、モジュール化され、拡張可能なツールキットを提供するオープンソース ツールキットである OpenSLU を紹介します。
具体的には、OpenSLU は、シングルインテント シナリオとマルチインテント シナリオの両方に対応する 10 個の SLU モデルを統合し、事前トレーニングされていないモデルと事前トレーニングされたモデルの両方を同時にサポートします。
さらに、OpenSLU は高度にモジュール化されており、モデル アーキテクチャ、推論、学習プロセスを再利用可能なモジュールに分解することで拡張可能であるため、研究者は柔軟性の高い構成で SLU 実験を迅速にセットアップできます。
OpenSLU は PyTorch に基づいて実装され、\url{https://github.com/LightChen233/OpenSLU} でリリースされます。

要約(オリジナル)

Spoken Language Understanding (SLU) is one of the core components of a task-oriented dialogue system, which aims to extract the semantic meaning of user queries (e.g., intents and slots). In this work, we introduce OpenSLU, an open-source toolkit to provide a unified, modularized, and extensible toolkit for spoken language understanding. Specifically, OpenSLU unifies 10 SLU models for both single-intent and multi-intent scenarios, which support both non-pretrained and pretrained models simultaneously. Additionally, OpenSLU is highly modularized and extensible by decomposing the model architecture, inference, and learning process into reusable modules, which allows researchers to quickly set up SLU experiments with highly flexible configurations. OpenSLU is implemented based on PyTorch, and released at \url{https://github.com/LightChen233/OpenSLU}.

arxiv情報

著者 Libo Qin,Qiguang Chen,Xiao Xu,Yunlong Feng,Wanxiang Che
発行日 2023-05-17 14:12:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク