VerifAI: Verified Generative AI

要約

生成 AI は大きな進歩を遂げましたが、その出力の精度と信頼性に対する懸念は高まり続けています。
このような不正確さは、不正確な意思決定、虚偽の情報の拡散、プライバシー侵害、法的責任などの重大な結果を引き起こす可能性があります。
説明可能な AI や、透明性、プライバシー保護、偏見の軽減、社会的および環境的責任などの責任ある AI の実践を含め、これらのリスクに対処する取り組みが進行中ですが、生成 AI によって引き起こされる誤った情報は依然として大きな課題です。
私たちは、データ管理の観点から生成 AI の出力を検証することが生成 AI の新たな課題であると提案します。
これには、テキスト ファイル、テーブル、ナレッジ グラフなど、マルチモーダル データ レイクからの基礎となるデータを分析し、その品質と一貫性を評価することが含まれます。
そうすることで、生成 AI モデルの出力を評価するためのより強力な基盤を確立できます。
このようなアプローチにより、生成 AI の正確性が確保され、透明性が促進され、より自信を持った意思決定が可能になります。
私たちのビジョンは、検証可能な生成 AI の開発を促進し、AI のより信頼性と責任ある使用に貢献することです。

要約(オリジナル)

Generative AI has made significant strides, yet concerns about the accuracy and reliability of its outputs continue to grow. Such inaccuracies can have serious consequences such as inaccurate decision-making, the spread of false information, privacy violations, legal liabilities, and more. Although efforts to address these risks are underway, including explainable AI and responsible AI practices such as transparency, privacy protection, bias mitigation, and social and environmental responsibility, misinformation caused by generative AI will remain a significant challenge. We propose that verifying the outputs of generative AI from a data management perspective is an emerging issue for generative AI. This involves analyzing the underlying data from multi-modal data lakes, including text files, tables, and knowledge graphs, and assessing its quality and consistency. By doing so, we can establish a stronger foundation for evaluating the outputs of generative AI models. Such an approach can ensure the correctness of generative AI, promote transparency, and enable decision-making with greater confidence. Our vision is to promote the development of verifiable generative AI and contribute to a more trustworthy and responsible use of AI.

arxiv情報

著者 Nan Tang,Chenyu Yang,Ju Fan,Lei Cao
発行日 2023-07-06 06:11:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.DB, cs.LG パーマリンク