Citation: A Key to Building Responsible and Accountable Large Language Models

要約

大規模言語モデル (LLM) は、知的財産 (IP) や倫理的懸念などの固有の課題と同時に、変革的な利点をもたらします。
この意見書は、LLM と確立された Web システムとの類似点を描きながら、これらのリスクを軽減するための新しい角度を模索します。
私たちは、出典や証拠への謝辞または参照である「引用」を、LLM に欠落している重要な要素として特定します。
引用を組み込むことで、コンテンツの透明性と検証可能性が向上し、LLM の展開における知的財産と倫理の問題に対処できる可能性があります。
さらに、LLM の包括的な引用メカニズムでは、ノンパラメトリック コンテンツとパラメトリック コンテンツの両方を考慮する必要があると提案します。
このような引用メカニズムの実装は複雑であり、潜在的な落とし穴にも関わらず、私たちはその開発を提唱します。
この基盤に基づいて、私たちはこの分野におけるいくつかの研究問題を概説し、より責任と説明責任のある LLM の構築に向けて将来の探求を導くことを目的としています。

要約(オリジナル)

Large Language Models (LLMs) bring transformative benefits alongside unique challenges, including intellectual property (IP) and ethical concerns. This position paper explores a novel angle to mitigate these risks, drawing parallels between LLMs and established web systems. We identify ‘citation’ – the acknowledgement or reference to a source or evidence – as a crucial yet missing component in LLMs. Incorporating citation could enhance content transparency and verifiability, thereby confronting the IP and ethical issues in the deployment of LLMs. We further propose that a comprehensive citation mechanism for LLMs should account for both non-parametric and parametric content. Despite the complexity of implementing such a citation mechanism, along with the potential pitfalls, we advocate for its development. Building on this foundation, we outline several research problems in this area, aiming to guide future explorations towards building more responsible and accountable LLMs.

arxiv情報

著者 Jie Huang,Kevin Chen-Chuan Chang
発行日 2024-03-31 19:47:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CR パーマリンク