要約
大規模な言語モデル(LLM)の最近の進歩は、複雑な推論を必要とする質問に答えることができることを示しています。
ただし、論理的な誤りや故意に誤解を招く施設を含むテキストを特定して応答する能力は、あまり研究されていません。
このギャップに対処するために、Ruozhibenchを紹介します。Ruozhibenchは、広範な人間の努力と専門家のレビューを通じて細心の注意を払って作成された、さまざまな形の欺cultive的な推論を含む677の慎重にキュレーションされた質問を含むバイリンガルデータセットを紹介します。
オープンエンドと2つの選択形式の両方を使用して、Ruozhibenchを介した5シリーズからの17 LLMの包括的な評価では、評価プロトコルと結果パターンに関する広範な分析を実施します。
従来のベンチマークでの高いスコアにもかかわらず、これらのモデルは、最高パフォーマンスのモデルであるClaude-3-Haikuでさえ、90%以上の人と比較して62%の精度しか達成されていない、論理的な誤症を正しく検出および推論する能力が限られていることを示しました。
。
要約(オリジナル)
Recent advances in large language models (LLMs) have shown that they can answer questions requiring complex reasoning. However, their ability to identify and respond to text containing logical fallacies or deliberately misleading premises remains less studied. To address this gap, we introduce RuozhiBench, a bilingual dataset comprising 677 carefully curated questions that contain various forms of deceptive reasoning, meticulously crafted through extensive human effort and expert review. In a comprehensive evaluation of 17 LLMs from 5 Series over RuozhiBench using both open-ended and two-choice formats, we conduct extensive analyses on evaluation protocols and result patterns. Despite their high scores on conventional benchmarks, these models showed limited ability to detect and reason correctly about logical fallacies, with even the best-performing model, Claude-3-haiku, achieving only 62% accuracy compared to the human of more than 90%.
arxiv情報
著者 | Zenan Zhai,Hao Li,Xudong Han,Zhenxuan Zhang,Yixuan Zhang,Timothy Baldwin,Haonan Li |
発行日 | 2025-02-18 18:47:11+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google