Social Learning: Towards Collaborative Learning with Large Language Models

要約

私たちは、大規模言語モデル (LLM) のコンテキストで「ソーシャル学習」のフレームワークを導入します。LLM では、自然言語を使用してプライバシーを意識した方法でモデルが相互に知識を共有します。
我々は、LLM 間の知識伝達のための 2 つのアプローチを提示し、評価します。
最初のシナリオでは、モデルがタスクを教えることを目的とした抽象的なプロンプトを生成できるようにします。
2 番目のアプローチでは、モデルは合成例を生成することによって知識を伝達します。
私たちはさまざまなデータセットにわたってこれらの方法を評価し、プライバシー損失の代用として記憶を定量化します。
ソーシャル学習にヒントを得たこれらの手法は、元のデータをあまり記憶せずに有望な結果をもたらします。
特に、これらの方法を使用したパフォーマンスが、元のラベルとプロンプトを使用した結果と同等であることを示します。
私たちの研究は、LLM のためのソーシャル学習の実行可能性を実証し、ベースラインのアプローチを確立し、将来の研究のためのいくつかの未踏の領域を浮き彫りにします。

要約(オリジナル)

We introduce the framework of ‘social learning’ in the context of large language models (LLMs), whereby models share knowledge with each other in a privacy-aware manner using natural language. We present and evaluate two approaches for knowledge transfer between LLMs. In the first scenario, we allow the model to generate abstract prompts aiming to teach the task. In our second approach, models transfer knowledge by generating synthetic examples. We evaluate these methods across diverse datasets and quantify memorization as a proxy for privacy loss. These techniques inspired by social learning yield promising results with low memorization of the original data. In particular, we show that performance using these methods is comparable to results with the use of original labels and prompts. Our work demonstrates the viability of social learning for LLMs, establishes baseline approaches and highlights several unexplored areas for future work.

arxiv情報

著者 Amirkeivan Mohtashami,Florian Hartmann,Sian Gooding,Lukas Zilka,Matt Sharifi,Blaise Aguera y Arcas
発行日 2024-02-08 15:52:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG パーマリンク