Conditioning Chat-GPT for information retrieval: the Unipa-GPT case study

要約

このペーパーでは、パレルモ大学で学生が学士/修士課程を選択するのを支援するために開発された、大規模言語モデルに依存するチャットボットである Unipa-GPT のアーキテクチャとトレーニングについて説明します。
Unipa-GPT は gpt-3.5-turbo に依存しており、European Researchs’ Night (SHARPER night) の文脈で発表されました。
私たちの実験では、検索拡張生成 (RAG) アプローチと微調整の両方を採用してシステムを開発しました。
Unipa-GPT のアーキテクチャ全体が示され、RAG と微調整されたシステムの両方が比較され、それらのパフォーマンスに関する簡単な説明が報告されます。
他の大規模言語モデルとのさらなる比較と、SHARPER 夜間の実験結果が示されています。

要約(オリジナル)

This paper illustrates the architecture and training of Unipa-GPT, a chatbot relying on a Large Language Model, developed for assisting students in choosing a bachelor/master degree course at the University of Palermo. Unipa-GPT relies on gpt-3.5-turbo, it was presented in the context of the European Researchers’ Night (SHARPER night). In our experiments we adopted both the Retrieval Augmented Generation (RAG) approach and fine-tuning to develop the system. The whole architecture of Unipa-GPT is presented, both the RAG and the fine-tuned systems are compared, and a brief discussion on their performance is reported. Further comparison with other Large Language Models and the experimental results during the SHARPER night are illustrated.

arxiv情報

著者 Irene Siragusa,Roberto Pirrone
発行日 2024-07-19 12:28:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク