要約
このレポートは、新しいフラッグシップ言語モデルであるSabi \ ‘A-3と、より費用対効果の高い兄弟であるSabiazinho-3を紹介しています。
モデルは、大きなブラジル中心のコーパスで訓練されました。
多様な専門的および学術的なベンチマーク全体の評価は、ポルトガル語とブラジル関連のタスクで強力なパフォーマンスを示しています。
Sabi \ ‘A-3は、特に推論集約型のタスクにおいて、以前のベストモデルであるSabia-2 Mediumと比較して、大きな改善を示しています。
特に、Sabi \ ‘A-3の平均パフォーマンスはフロンティアLLMSと一致しますが、トークンあたり3〜4倍低いコストで提供されており、ドメインの専門化の利点を強化します。
要約(オリジナル)
This report presents Sabi\’a-3, our new flagship language model, and Sabiazinho-3, a more cost-effective sibling. The models were trained on a large brazilian-centric corpus. Evaluations across diverse professional and academic benchmarks show a strong performance on Portuguese and Brazil-related tasks. Sabi\’a-3 shows large improvements in comparison to our previous best of model, Sabia-2 Medium, especially in reasoning-intensive tasks. Notably, Sabi\’a-3’s average performance matches frontier LLMs, while it is offered at a three to four times lower cost per token, reinforcing the benefits of domain specialization.
arxiv情報
著者 | Hugo Abonizio,Thales Sales Almeida,Thiago Laitz,Roseval Malaquias Junior,Giovana Kerche Bonás,Rodrigo Nogueira,Ramon Pires |
発行日 | 2025-04-01 12:19:49+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google