Tell me what I need to know: Exploring LLM-based (Personalized) Abstractive Multi-Source Meeting Summarization

要約

会議の要約はデジタル コミュニケーションにおいて重要ですが、既存のソリューションでは、パーソナライズされた実行可能な要約を生成するための顕著性の特定や、会議の内容を完全に理解するためのコンテキストの理解に苦労しています。
トランスクリプトと並行して関連する補足リソース (プレゼンテーション スライドなど) を考慮することでこれらの問題に対処しようとするこれまでの試みは、モデルのコンテキスト サイズが限られていることと、追加ファイル内の関連情報の特定やシームレスな位置合わせなど、マルチソース タスクの追加の複雑さの処理によって妨げられています。
会議の内容と合わせて。
この研究では、3 段階の大規模言語モデル アプローチを通じて補足資料を考慮したマルチソース会議の要約を検討します。つまり、追加のコンテキストが必要なトランスクリプトの一節を特定し、補足資料から関連する詳細を推測してトランスクリプトに挿入し、この充実したトランスクリプトから概要を生成します。
当社のマルチソースアプローチによりモデルの理解が強化され、概要の関連性が最大 9% 向上し、よりコンテンツ豊富な出力が生成されます。
参加者の特徴を抽出し、それに応じて概要を調整するパーソナライゼーション プロトコルを導入し、情報提供性を最大 10% 向上させます。
この研究により、エッジデバイス対応オプションを含む 4 つの主要なモデル ファミリにわたるパフォーマンスとコストのトレードオフに関する洞察がさらに得られます。
私たちのアプローチは、対話システムや行動計画など、追加のリソースやパーソナライゼーションの恩恵を受けて、同様の複雑な生成タスクに拡張できます。

要約(オリジナル)

Meeting summarization is crucial in digital communication, but existing solutions struggle with salience identification to generate personalized, workable summaries, and context understanding to fully comprehend the meetings’ content. Previous attempts to address these issues by considering related supplementary resources (e.g., presentation slides) alongside transcripts are hindered by models’ limited context sizes and handling the additional complexities of the multi-source tasks, such as identifying relevant information in additional files and seamlessly aligning it with the meeting content. This work explores multi-source meeting summarization considering supplementary materials through a three-stage large language model approach: identifying transcript passages needing additional context, inferring relevant details from supplementary materials and inserting them into the transcript, and generating a summary from this enriched transcript. Our multi-source approach enhances model understanding, increasing summary relevance by ~9% and producing more content-rich outputs. We introduce a personalization protocol that extracts participant characteristics and tailors summaries accordingly, improving informativeness by ~10%. This work further provides insights on performance-cost trade-offs across four leading model families, including edge-device capable options. Our approach can be extended to similar complex generative tasks benefitting from additional resources and personalization, such as dialogue systems and action planning.

arxiv情報

著者 Frederic Kirstein,Terry Ruas,Robert Kratel,Bela Gipp
発行日 2024-10-18 15:40:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク