要約
成長を続ける AI 分野は、信頼、透明性、公平性、差別という課題に直面しています。
新しい規制が必要であるにもかかわらず、レギュラトリーサイエンスとAIの間には不一致があり、一貫した枠組みを構築することができません。
AI の設計と検証のための 5 層の入れ子モデルは、これらの問題に対処し、AI アプリケーションの設計と検証を合理化し、公平性、信頼性、AI 導入を向上させることを目的としています。
このモデルは規制に準拠し、AI 実践者の日々の課題に対処し、固有の妥当性に関する脅威を特定することで適切な評価アプローチを決定するための規範的なガイダンスを提供します。
このモデルに動機付けられた 3 つの推奨事項があります。作成者は、貢献を主張する際に、貢献が行われる特定の領域を明確にするためにレイヤーを区別する必要があります。また、混乱を避けるために、作成者は、AI システムのコンテキストと制限を確実にするために、上流の仮定を明示的に述べる必要があります。
が明確に理解されている場合、AI 施設は AI システムの徹底的なテストと検証、および規制要件への準拠を促進する必要があります。
要約(オリジナル)
The growing AI field faces trust, transparency, fairness, and discrimination challenges. Despite the need for new regulations, there is a mismatch between regulatory science and AI, preventing a consistent framework. A five-layer nested model for AI design and validation aims to address these issues and streamline AI application design and validation, improving fairness, trust, and AI adoption. This model aligns with regulations, addresses AI practitioner’s daily challenges, and offers prescriptive guidance for determining appropriate evaluation approaches by identifying unique validity threats. We have three recommendations motivated by this model: authors should distinguish between layers when claiming contributions to clarify the specific areas in which the contribution is made and to avoid confusion, authors should explicitly state upstream assumptions to ensure that the context and limitations of their AI system are clearly understood, AI venues should promote thorough testing and validation of AI systems and their compliance with regulatory requirements.
arxiv情報
著者 | Akshat Dubey,Zewen Yang,Georges Hattab |
発行日 | 2024-08-01 11:46:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google