要約
大規模な言語モデル(LLMS)の驚くべきパフォーマンスと生産と日常生活における驚くべき成果により、共同作業における広範な応用が生まれました。
ただし、現在の大規模なモデルは、幻覚や垂直ドメインタスクのコンテンツ生成の特異性の欠如などの課題に直面しています。
人間の認知プロセスにおけるコントラストと分類のメカニズムに触発されたこのペーパーでは、3つのカスケードソリューションの3つのカスケードソリューション、評価プロンプト、フィードバックの最適化を含む敵対的な学習ベースのプロンプトフレームワークを構築します。
このプロセスでは、7つのコア最適化ディメンションを設計し、敵対学習のしきい値を設定します。
テキスト要約タスクに関する混合ケーススタディの結果は、提案されたフレームワークが現在の高度な主流LLMと比較して、より正確で流fluentなテキストの要約を生成できることを示しています。
要約(オリジナル)
The astonishing performance of large language models (LLMs) and their remarkable achievements in production and daily life have led to their widespread application in collaborative tasks. However, current large models face challenges such as hallucination and lack of specificity in content generation in vertical domain tasks. Inspired by the contrast and classification mechanisms in human cognitive processes, this paper constructs an adversarial learning-based prompt framework named ChallengeMe, which includes three cascaded solutions: generation prompts, evaluation prompts, and feedback optimization. In this process, we designed seven core optimization dimensions and set the threshold for adversarial learning. The results of mixed case studies on the text summarization task show that the proposed framework can generate more accurate and fluent text summaries compared to the current advanced mainstream LLMs.
arxiv情報
著者 | Xiaoyu Deng,Ye Zhang,Tianmin Guo,Yongzhe Zhang,Zhengjian Kang,Hang Yang |
発行日 | 2025-02-07 16:59:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google