Citation: A Key to Building Responsible and Accountable Large Language Models

要約

大規模言語モデル (LLM) は、知的財産 (IP) や倫理的懸念などの固有の課題と同時に、変革的な利点をもたらします。
この意見書は、LLM と確立された Web システムとの類似点を描きながら、これらのリスクを軽減するための新しい角度を模索します。
私たちは、「引用」が LLM に欠落している重要な要素であると認識しています。これにより、IP と倫理のジレンマに対処しながら、コンテンツの透明性と検証可能性が向上する可能性があります。
さらに、LLM の包括的な引用メカニズムでは、ノンパラメトリック コンテンツとパラメトリック コンテンツの両方を考慮する必要があると提案します。
このような引用メカニズムの実装は複雑であり、潜在的な落とし穴も伴うにもかかわらず、私たちはその開発を提唱します。
この基盤に基づいて、私たちはこの分野におけるいくつかの研究問題を概説し、より責任と説明責任のある LLM の構築に向けて将来の探求を導くことを目的としています。

要約(オリジナル)

Large Language Models (LLMs) bring transformative benefits alongside unique challenges, including intellectual property (IP) and ethical concerns. This position paper explores a novel angle to mitigate these risks, drawing parallels between LLMs and established web systems. We identify ‘citation’ as a crucial yet missing component in LLMs, which could enhance content transparency and verifiability while addressing IP and ethical dilemmas. We further propose that a comprehensive citation mechanism for LLMs should account for both non-parametric and parametric content. Despite the complexity of implementing such a citation mechanism, along with the inherent potential pitfalls, we advocate for its development. Building on this foundation, we outline several research problems in this area, aiming to guide future explorations towards building more responsible and accountable LLMs.

arxiv情報

著者 Jie Huang,Kevin Chen-Chuan Chang
発行日 2023-07-05 10:25:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CR パーマリンク