要約
オンライン会議の普及の増加により、特定の会議の概要を自動的に生成できるモデルの実用性が大幅に向上しました。
このペーパーでは、会議の概要の生成を自動化するための斬新で効果的なアプローチを紹介します。
この問題に対する現在のアプローチは、会議を単なる長い対話として考慮して、一般的かつ基本的な要約を生成します。
ただし、当社の新しいアルゴリズムは、会議記録に含まれるアクションアイテムによって駆動される抽象的な会議概要を生成できます。
これは、要約を再帰的に生成し、会議の各セクションに対してアクションアイテム抽出アルゴリズムを並行して使用することによって行われます。
これらのセクションの概要はすべて結合され、まとめられて、一貫したアクションアイテム主導の概要が作成されます。
さらに、この論文では、アルゴリズムの時間効率を向上させるとともに、長期的な依存関係を忘れてしまう大規模言語モデル (LLM) の問題を解決するために、長いトランスクリプトをトピックベースのセクションに分割するための 3 つの新しい方法を紹介します。
私たちのパイプラインは、AMI コーパス全体で BERTScore 64.98 を達成しました。これは、微調整された BART (双方向および自己回帰変換器) モデルによって生成された現在の最先端の結果より約 4.98% 増加しました。
要約(オリジナル)
The increased prevalence of online meetings has significantly enhanced the practicality of a model that can automatically generate the summary of a given meeting. This paper introduces a novel and effective approach to automate the generation of meeting summaries. Current approaches to this problem generate general and basic summaries, considering the meeting simply as a long dialogue. However, our novel algorithms can generate abstractive meeting summaries that are driven by the action items contained in the meeting transcript. This is done by recursively generating summaries and employing our action-item extraction algorithm for each section of the meeting in parallel. All of these sectional summaries are then combined and summarized together to create a coherent and action-item-driven summary. In addition, this paper introduces three novel methods for dividing up long transcripts into topic-based sections to improve the time efficiency of our algorithm, as well as to resolve the issue of large language models (LLMs) forgetting long-term dependencies. Our pipeline achieved a BERTScore of 64.98 across the AMI corpus, which is an approximately 4.98% increase from the current state-of-the-art result produced by a fine-tuned BART (Bidirectional and Auto-Regressive Transformers) model.
arxiv情報
| 著者 | Logan Golia,Jugal Kalita |
| 発行日 | 2023-12-29 12:33:21+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google