要約
AIのアライメントとは、モデルが人間の意図する目標、嗜好、または倫理原則に向かって行動することを指す。ほとんどの大規模ディープラーニングモデルがブラックボックスとして動作し、手動で制御できないことを考えると、モデルと人間の類似性を分析することは、AIの安全性を確保するための代理指標となり得る。本論文では、モデルの人間との視覚的認識の整合性(AI-human visual alignmentと呼ぶ)に注目する。具体的には、機械知覚の基本タスクである画像分類の観点から、AIと人間の視覚的アライメントを測定するための新しいデータセットを提案する。AIと人間の視覚的アライメントを評価するためには、データセットは実世界で起こりうる様々なシナリオのサンプルを包含し、人間の知覚ラベルが金である必要がある。我々のデータセットは、画像中の視覚情報の量と明瞭さに基づき、Must-Act(すなわち、Must-Classify)、Must-Abstain、Uncertainの3つのサンプル群から構成され、さらに8つのカテゴリに分類される。全てのサンプルはゴールドの人間知覚ラベルを持ち、Uncertain(ひどくぼやけている)サンプルのラベルもクラウドソーシングで得られたものである。我々のデータセットの妥当性は、サンプリング理論、調査設計に関連する統計理論、および関連分野の専門家によって検証されている。我々のデータセットを用いて、5つの一般的な視覚認識モデルと7つの棄権方法の視覚的な整合性と信頼性を分析する。私たちのコードとデータは୧⃛(๑⃙⃘⁼̴̀꒳⁼̴́๑⃙⃘)
要約(オリジナル)
AI alignment refers to models acting towards human-intended goals, preferences, or ethical principles. Given that most large-scale deep learning models act as black boxes and cannot be manually controlled, analyzing the similarity between models and humans can be a proxy measure for ensuring AI safety. In this paper, we focus on the models’ visual perception alignment with humans, further referred to as AI-human visual alignment. Specifically, we propose a new dataset for measuring AI-human visual alignment in terms of image classification, a fundamental task in machine perception. In order to evaluate AI-human visual alignment, a dataset should encompass samples with various scenarios that may arise in the real world and have gold human perception labels. Our dataset consists of three groups of samples, namely Must-Act (i.e., Must-Classify), Must-Abstain, and Uncertain, based on the quantity and clarity of visual information in an image and further divided into eight categories. All samples have a gold human perception label; even Uncertain (severely blurry) sample labels were obtained via crowd-sourcing. The validity of our dataset is verified by sampling theory, statistical theories related to survey design, and experts in the related fields. Using our dataset, we analyze the visual alignment and reliability of five popular visual perception models and seven abstention methods. Our code and data is available at \url{https://github.com/jiyounglee-0523/VisAlign}.
arxiv情報
著者 | Jiyoung Lee,Seungho Kim,Seunghyun Won,Joonseok Lee,Marzyeh Ghassemi,James Thorne,Jaeseok Choi,O-Kil Kwon,Edward Choi |
発行日 | 2023-09-01 08:52:02+00:00 |
arxivサイト | arxiv_id(pdf) |