要約
ここでは 30 億未満のパラメータを持つモデルとして定義される小規模言語モデル (SLM) の使用が、さまざまなドメインおよびアプリケーションにわたって増加しています。
SLM は、よりアクセスしやすいハードウェアで実行し、ユーザーのプライバシーを保護できるため、社会経済的地位やプライバシーの好みが異なる個人の言語モデルへのアクセスを民主化する可能性があります。
この研究では、金融リテラシー LM の開発をサポートするために、金融ドメインで使用するいくつかの最先端の SLM (Apple の OpenELM、Microsoft の Phi、Google の Gemma、Tinyllama プロジェクトなど) を評価しています。
特に新しい金融市場や商品が出現し、アクセスの容易さにより金融市場への参加が増加する中、金融教育を受けていない人々が質の高い金融情報に民主的にアクセスできるようにすることが社会で非常に必要とされています。
私たちは、個人や学生が財務上の質問に答える機能へのアクセスを民主化するためにオープンソース SLM の使用を検討した最初の企業です。
この目的を達成するために、どのモデルが最もアクセスしやすく、財務情報へのアクセスをサポートできるかを判断するために、メモリ使用量、推論時間、グラウンドトゥルースの答えとの類似性比較、および著名な SLM の出力の可読性の分析を提供します。
モデルのゼロショット学習と少数ショット学習のバリアントを分析します。
この結果は、既製の SLM の中には、個人使用に向けてさらに検討して微調整する価値があるものもあれば、民主化に限界があるものもあることを示唆しています。
要約(オリジナル)
The use of small language models (SLMs), herein defined as models with less than three billion parameters, is increasing across various domains and applications. Due to their ability to run on more accessible hardware and preserve user privacy, SLMs possess the potential to democratize access to language models for individuals of different socioeconomic status and with different privacy preferences. This study assesses several state-of-the-art SLMs (e.g., Apple’s OpenELM, Microsoft’s Phi, Google’s Gemma, and the Tinyllama project) for use in the financial domain to support the development of financial literacy LMs. Democratizing access to quality financial information for those who are financially under educated is greatly needed in society, particularly as new financial markets and products emerge and participation in financial markets increases due to ease of access. We are the first to examine the use of open-source SLMs to democratize access to financial question answering capabilities for individuals and students. To this end, we provide an analysis of the memory usage, inference time, similarity comparisons to ground-truth answers, and output readability of prominent SLMs to determine which models are most accessible and capable of supporting access to financial information. We analyze zero-shot and few-shot learning variants of the models. The results suggest that some off-the-shelf SLMs merit further exploration and fine-tuning to prepare them for individual use, while others may have limits to their democratization.
arxiv情報
著者 | Tagore Rao Kosireddy,Jeffrey D. Wall,Evan Lucas |
発行日 | 2024-10-09 17:48:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google