Zero-shot Visual Commonsense Immorality Prediction

要約

人工知能は現在、さまざまな現実世界のアプリケーションを支えています。
これらのアプリケーションは有望なパフォーマンスを示していますが、複雑な倫理的問題を引き起こします。つまり、AI アプリケーションを道徳的に動作させるために倫理を埋め込む方法です。
道徳的な AI システムへの 1 つの方法は、人間の向社会的行動を模倣し、システム内で何らかの形の良い行動を奨励することです。
ただし、そのような規範的倫理を (特に画像から) 学習することは、主にデータの不足とラベリングの複雑さのために困難です。
ここでは、視覚的な常識の不道徳をゼロショットで予測するモデルを提案します。
CLIPベースの画像とテキストのジョイント埋め込みを介して、ETHICSデータセット(テキストと道徳の注釈のペア)でモデルをトレーニングします。
テスト段階では、目に見えないイメージの不道徳が予測されます。
モデルを既存の道徳的/不道徳な画像データセットで評価し、人間の直感と一致する公正な予測パフォーマンスを示します。
さらに、より一般的で広範な不道徳な視覚的コンテンツを使用して、視覚的な常識の不道徳性ベンチマークを作成します。
コードとデータセットは、https://github.com/ku-vai/Zero-shot-Visual-Commonsense-Immorality-Prediction で入手できます。
このペーパーには、本質的に攻撃的な画像や説明が含まれている可能性があることに注意してください。

要約(オリジナル)

Artificial intelligence is currently powering diverse real-world applications. These applications have shown promising performance, but raise complicated ethical issues, i.e. how to embed ethics to make AI applications behave morally. One way toward moral AI systems is by imitating human prosocial behavior and encouraging some form of good behavior in systems. However, learning such normative ethics (especially from images) is challenging mainly due to a lack of data and labeling complexity. Here, we propose a model that predicts visual commonsense immorality in a zero-shot manner. We train our model with an ETHICS dataset (a pair of text and morality annotation) via a CLIP-based image-text joint embedding. In a testing phase, the immorality of an unseen image is predicted. We evaluate our model with existing moral/immoral image datasets and show fair prediction performance consistent with human intuitions. Further, we create a visual commonsense immorality benchmark with more general and extensive immoral visual contents. Codes and dataset are available at https://github.com/ku-vai/Zero-shot-Visual-Commonsense-Immorality-Prediction. Note that this paper might contain images and descriptions that are offensive in nature.

arxiv情報

著者 Yujin Jeong,Seongbeom Park,Suhong Moon,Jinkyu Kim
発行日 2022-11-10 12:30:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.CY パーマリンク