要約
大規模言語モデル (LLM) のオープンソース公開により、言語を理解し、コンピューターにアクセスできる人なら誰でも、特に学習や知識の普及の文脈において、人工知能の重要なツールと対話できる方法について多くの可能性が生まれました。
ただし、クラシックなどの特殊な分野におけるこれらのモデルの有用性は、まだほとんど解明されていません。
このプロジェクトは、学習者や専門家の特定のニーズに応えるために LLM を微調整することにより、古典の知識と人工知能の機能を融合する試みです。
このプロジェクトの目標は、文脈に沿った知識を正確に再現するだけでなく、一貫した「個性」を示し、実際、一貫した適切性を備え、さまざまなレベルの知識を持つ多様な聴衆にアピールする LLM を開発することです。
このプロジェクトの大部分は、プロンプト (ステートメント、質問、または 1 つの単語) が与えられたときにモデルが関連性があり、有用で創造的な応答を生成するようにするために、「ガベージ イン、ガベージ アウト」の原則に従ってデータセットを改良することに費やされました。
)。
トレーニングと評価の後、私のモデルは、膨大な種類の入力とプロンプトを処理する能力が 355M パラメーター モデルの期待を上回りましたが、特に歴史的出来事やその主張についての幻覚が時折 (特に高温に設定されている場合に) 発生しました。
独自のアイデンティティがあり、いくぶん気まぐれに見えるため、継続的な微調整という形でさらなる作業が行われることになります。
要約(オリジナル)
The open-source publishing of large language models (LLMs) has created many possibilities for how anyone who understands language and has access to a computer can interact with significant tools of artificial intelligence, particularly in the context of learning and knowledge dissemination. However, the utility of these models in specialized fields like Classics is still largely unexplored. This project is an attempt to merge the knowledge of Classics with the capabilities of artificial intelligence by finetuning an LLM to cater to the specific needs of learners and professionals. The goal of this project is to develop an LLM that not only reproduces contextual knowledge accurately but also exhibits a consistent ‘personality’ – and, indeed, has consistent propriety – to appeal to a diverse audience who possess differing levels of knowledge. A significant portion of this project was dedicated to refining the dataset, following the principle of ‘garbage in, garbage out,’ to ensure the model generates relevant, useful, and creative responses when given a prompt (a statement, question, or single word). After training and evaluation, my model’s ability to handle a vast array of different types of inputs and prompting exceeded expectations for a 355M parameter model, though its occasional hallucinations (especially when set with a high temperature), particularly in its assertions about historical events or its own identity, make it seem somewhat capricious and more work in the form of continuous finetuning will be undertaken.
arxiv情報
著者 | Shane Storm Strachan |
発行日 | 2023-12-13 02:32:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google