Developing trustworthy AI applications with foundation models

要約

AI アプリケーションの信頼性は最近の研究の主題であり、EU が最近採択した AI 規制でも取り上げられています。
テキスト、音声、画像処理の分野で現在出現している基礎モデルは、AI アプリケーション開発にまったく新しい可能性をもたらします。
このホワイトペーパーでは、基礎モデルを使用して開発された AI アプリケーションの信頼性をどのように評価し、確保できるかを示します。
この目的のために、フラウンホーファー IAIS による「AI 評価カタログ – 信頼できる人工知能のガイドライン」で開発された、AI アプリケーションの信頼性をテストして保証するためのアプリケーション固有のリスクベースのアプローチが、基盤モデルのコンテキストに移されます。

基礎モデルの特定のリスクが AI アプリケーションに影響を与える可能性があるため、信頼性をチェックする際にも考慮する必要があるという事実に特別な考慮が払われます。
ホワイトペーパーの第 1 章では、信頼性の観点から、基礎モデルとそれに基づく AI アプリケーションの間の基本的な関係について説明します。
第 2 章では基礎モデルの技術的構築について紹介し、第 3 章ではそれらに基づいて AI アプリケーションを開発する方法を示します。
第 4 章では、信頼性に関して結果として生じるリスクの概要を説明します。
第 5 章では、欧州連合の AI 規制草案に従って AI アプリケーションと基盤モデルにどのような要件が期待されるかを示し、最後に第 6 章で信頼性要件を満たすためのシステムと手順を示します。

要約(オリジナル)

The trustworthiness of AI applications has been the subject of recent research and is also addressed in the EU’s recently adopted AI Regulation. The currently emerging foundation models in the field of text, speech and image processing offer completely new possibilities for developing AI applications. This whitepaper shows how the trustworthiness of an AI application developed with foundation models can be evaluated and ensured. For this purpose, the application-specific, risk-based approach for testing and ensuring the trustworthiness of AI applications, as developed in the ‘AI Assessment Catalog – Guideline for Trustworthy Artificial Intelligence’ by Fraunhofer IAIS, is transferred to the context of foundation models. Special consideration is given to the fact that specific risks of foundation models can have an impact on the AI application and must also be taken into account when checking trustworthiness. Chapter 1 of the white paper explains the fundamental relationship between foundation models and AI applications based on them in terms of trustworthiness. Chapter 2 provides an introduction to the technical construction of foundation models and Chapter 3 shows how AI applications can be developed based on them. Chapter 4 provides an overview of the resulting risks regarding trustworthiness. Chapter 5 shows which requirements for AI applications and foundation models are to be expected according to the draft of the European Union’s AI Regulation and Chapter 6 finally shows the system and procedure for meeting trustworthiness requirements.

arxiv情報

著者 Michael Mock,Sebastian Schmidt,Felix Müller,Rebekka Görge,Anna Schmitz,Elena Haedecke,Angelika Voss,Dirk Hecker,Maximillian Poretschkin
発行日 2024-05-08 10:08:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, I.2.0 パーマリンク