Usage Governance Advisor: From Intent to AI Governance

要約

AIシステムの安全性を評価することは、組織を展開する組織にとって差し迫った懸念事項です。
これらのシステムの公平性の欠如によって行われた社会的損害に加えて、展開者は法的影響と安全でないモデルの使用によって生じた評判の損害を懸念しています。
安全性は、モデルが行うことの両方をカバーします。
たとえば、トレーニングセットから個人情報を明らかにするために使用できますか?モデルの構築方法。
たとえば、ライセンスされたデータセットでのみトレーニングされていましたか。
AIシステムの安全性を判断するには、そのシステムで使用されるモデルのセットの安全ベンチマークや技術文書など、幅広い異種ソースから情報を収集する必要があります。
さらに、安全リスクが検出された場合の緩和アクションをユーザーに助言し、支援するメカニズムを通じて責任ある使用が奨励されます。
半構造化されたガバナンス情報を作成し、意図したユースケースに従ってリスクを特定し、優先順位を付ける使用法ガバナンスアドバイザーを提示し、適切なベンチマークとリスク評価を推奨し、重要なことに緩和戦略と行動を提案します。

要約(オリジナル)

Evaluating the safety of AI Systems is a pressing concern for organizations deploying them. In addition to the societal damage done by the lack of fairness of those systems, deployers are concerned about the legal repercussions and the reputational damage incurred by the use of models that are unsafe. Safety covers both what a model does; e.g., can it be used to reveal personal information from its training set, and how a model was built; e.g., was it only trained on licensed data sets. Determining the safety of an AI system requires gathering information from a wide set of heterogeneous sources including safety benchmarks and technical documentation for the set of models used in that system. In addition, responsible use is encouraged through mechanisms that advise and help the user to take mitigating actions where safety risks are detected. We present Usage Governance Advisor which creates semi-structured governance information, identifies and prioritizes risks according to the intended use case, recommends appropriate benchmarks and risk assessments and importantly proposes mitigation strategies and actions.

arxiv情報

著者 Elizabeth M. Daly,Sean Rooney,Seshu Tirupathi,Luis Garces-Erice,Inge Vejsbjerg,Frank Bagehorn,Dhaval Salwala,Christopher Giblin,Mira L. Wolf-Bauwens,Ioana Giurgiu,Michael Hind,Peter Urbanetz
発行日 2025-01-23 14:49:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク