Airavata: Introducing Hindi Instruction-tuned LLM

要約

ヒンディー語用に命令調整された LLM である「Airavata」の最初のリリースを発表します。
Airavata は、支援タスクにより適したものにするために、多様な命令調整ヒンディー語データセットを使用して OpenHathi を微調整することによって作成されました。
モデルとともに、IndicInstruct データセットも共有します。これは、インド LLM のさらなる研究を可能にするさまざまな命令チューニング データセットのコレクションです。
さらに、ヒンディー語でタスク全体の LLM パフォーマンスを評価するための評価ベンチマークとフレームワークを紹介します。
現在、Airavata はヒンディー語をサポートしていますが、これを予定されている 22 のインド言語すべてに拡張する予定です。
https://ai4bharat.github.io/airavata ですべてのアーティファクトにアクセスできます。

要約(オリジナル)

We announce the initial release of ‘Airavata,’ an instruction-tuned LLM for Hindi. Airavata was created by fine-tuning OpenHathi with diverse, instruction-tuning Hindi datasets to make it better suited for assistive tasks. Along with the model, we also share the IndicInstruct dataset, which is a collection of diverse instruction-tuning datasets to enable further research for Indic LLMs. Additionally, we present evaluation benchmarks and a framework for assessing LLM performance across tasks in Hindi. Currently, Airavata supports Hindi, but we plan to expand this to all 22 scheduled Indic languages. You can access all artifacts at https://ai4bharat.github.io/airavata.

arxiv情報

著者 Jay Gala,Thanmay Jayakumar,Jaavid Aktar Husain,Aswanth Kumar M,Mohammed Safi Ur Rahman Khan,Diptesh Kanojia,Ratish Puduppully,Mitesh M. Khapra,Raj Dabre,Rudra Murthy,Anoop Kunchukuttan
発行日 2024-02-26 12:17:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク