要約
フィードバックに応じて修正する能力は、生徒がライティングを成功させるために非常に重要です。
特に議論の記述の場合、AR の品質は議論の全体的な内容に依存するため、議論の改訂 (AR) が成功したかどうかを識別することは複雑な問題になります。
たとえば、同じ証拠文を追加すると、異なる議論の文脈 (AC) での既存の主張が強化されたり、弱められたりする可能性があります。
この問題に対処するために、AR 品質予測のために ChatGPT で生成された AC を容易にする思考連鎖プロンプトを開発しました。
注釈付きの初等エッセイと既存の大学エッセイのベンチマークである 2 つのコーパスでの実験は、提案された AC がベースラインよりも優れていることを示しています。
要約(オリジナル)
The ability to revise in response to feedback is critical to students’ writing success. In the case of argument writing in specific, identifying whether an argument revision (AR) is successful or not is a complex problem because AR quality is dependent on the overall content of an argument. For example, adding the same evidence sentence could strengthen or weaken existing claims in different argument contexts (ACs). To address this issue we developed Chain-of-Thought prompts to facilitate ChatGPT-generated ACs for AR quality predictions. The experiments on two corpora, our annotated elementary essays and existing college essays benchmark, demonstrate the superiority of the proposed ACs over baselines.
arxiv情報
著者 | Zhexiong Liu,Diane Litman,Elaine Wang,Lindsay Matsumura,Richard Correnti |
発行日 | 2023-06-01 13:39:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google