The Master-Slave Encoder Model for Improving Patent Text Summarization: A New Approach to Combining Specifications and Claims

要約

従来の特許明細書のみに由来する特許文要約生成モデルによる生成品質不足の問題、急速な特許更新による新用語OOVの問題、高度専門性への配慮不足による情報の冗長性の問題を解決するため
特許テキストの精度、独自性を考慮して、マスタースレーブ エンコーダ アーキテクチャに基づく特許テキスト要約生成モデル (MSEA) を提案します。
まず、MSEA モデルはマスター/スレーブ エンコーダーを設計します。このエンコーダーは、特許テキスト内の指示と入力としての請求項を組み合わせ、マスター/スレーブ エンコーダーを通じて 2 つの間の特性と詳細を完全に調査します。
次に、モデルはポインタ ネットワークに基づいて入力シーケンス内の新しい専門用語の考慮を強化し、入力シーケンスの「覚えている」部分と「忘れた」部分を再重み付けすることで入力テキストとの相関性をさらに強化します。
エンコーダ;
最後に、正確で重複のない要約が生成されることを保証するために、特許テキストの強化された繰り返し抑制メカニズムが導入されました。
公開されている特許テキスト データセットでは、最先端のモデルである改良型マルチヘッド アテンション メカニズム (IMHAM) と比較して、MSEA モデルは Rouge-1、Rouge-1 で 0.006、0.005、および 0.005 の改善を達成しています。
2、Rouge-L スコアがそれぞれ。
MSEA は特許テキストの特性を活用して特許テキスト生成の品質を効果的に向上させ、実験でその進歩と有効性を実証します。

要約(オリジナル)

In order to solve the problem of insufficient generation quality caused by traditional patent text abstract generation models only originating from patent specifications, the problem of new terminology OOV caused by rapid patent updates, and the problem of information redundancy caused by insufficient consideration of the high professionalism, accuracy, and uniqueness of patent texts, we proposes a patent text abstract generation model (MSEA) based on a master-slave encoder architecture; Firstly, the MSEA model designs a master-slave encoder, which combines the instructions in the patent text with the claims as input, and fully explores the characteristics and details between the two through the master-slave encoder; Then, the model enhances the consideration of new technical terms in the input sequence based on the pointer network, and further enhances the correlation with the input text by re weighing the ‘remembered’ and ‘for-gotten’ parts of the input sequence from the encoder; Finally, an enhanced repetition suppression mechanism for patent text was introduced to ensure accurate and non redundant abstracts generated. On a publicly available patent text dataset, compared to the state-of-the-art model, Improved Multi-Head Attention Mechanism (IMHAM), the MSEA model achieves an improvement of 0.006, 0.005, and 0.005 in Rouge-1, Rouge-2, and Rouge-L scores, respectively. MSEA leverages the characteristics of patent texts to effectively enhance the quality of patent text generation, demonstrating its advancement and effectiveness in the experiments.

arxiv情報

著者 Shu Zhou,Xin Wang,Zhengda Zhou,Haohan Yi,Xuhui Zheng,Hao Wan
発行日 2024-11-21 12:36:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.PL パーマリンク