Auditing large language models: a three-layered approach

要約

大規模言語モデル (LLM) の出現は、人工知能 (AI) 研究の大きな進歩を表しています。
ただし、LLM の広範な使用は、重大な倫理的および社会的課題とも結びついています。
以前の研究では、AI システムが倫理的、法的、および技術的に堅牢な方法で設計および展開されることを保証するための有望なガバナンス メカニズムとして、監査が指摘されてきました。
しかし、既存の監査手順は、幅広いダウンストリーム タスクに適応できる LLM によってもたらされるガバナンスの課題に対処できていません。
このギャップを埋めるために、この記事では 3 つの貢献を提供します。
まず、既存の監査手順のアフォーダンスと制約を分析することにより、LLM によってもたらされるリスクを把握する新しい監査手順を開発する必要性を確立します。
次に、IT ガバナンスとシステム エンジニアリングのベスト プラクティスを利用して、実行可能かつ効果的な方法で LLM を監査するための青写真を概説します。
具体的には、ガバナンス監査、モデル監査、アプリケーション監査が相互に補完し、情報を提供する 3 層のアプローチを提案します。
最後に、私たちの 3 層アプローチの限界だけでなく、LLM を監査するという見通しの限界についても議論します。
最終的に、この記事は、LLM を技術的、倫理的、および法的観点から分析および評価したい技術プロバイダーおよび政策立案者が利用できる方法論的ツールキットを拡張することを目的としています。

要約(オリジナル)

The emergence of large language models (LLMs) represents a major advance in artificial intelligence (AI) research. However, the widespread use of LLMs is also coupled with significant ethical and social challenges. Previous research has pointed towards auditing as a promising governance mechanism to help ensure that AI systems are designed and deployed in ways that are ethical, legal, and technically robust. However, existing auditing procedures fail to address the governance challenges posed by LLMs, which are adaptable to a wide range of downstream tasks. To help bridge that gap, we offer three contributions in this article. First, we establish the need to develop new auditing procedures that capture the risks posed by LLMs by analysing the affordances and constraints of existing auditing procedures. Second, we outline a blueprint to audit LLMs in feasible and effective ways by drawing on best practices from IT governance and system engineering. Specifically, we propose a three-layered approach, whereby governance audits, model audits, and application audits complement and inform each other. Finally, we discuss the limitations not only of our three-layered approach but also of the prospect of auditing LLMs at all. Ultimately, this article seeks to expand the methodological toolkit available to technology providers and policymakers who wish to analyse and evaluate LLMs from technical, ethical, and legal perspectives.

arxiv情報

著者 Jakob Mökander,Jonas Schuett,Hannah Rose Kirk,Luciano Floridi
発行日 2023-02-16 18:55:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CY, K.4; K.6 パーマリンク