Foundational Moral Values for AI Alignment

要約

AI の調整問題を解決するには、AI システムが調整できる明確で擁護可能な価値観を持つ必要があります。
現時点では、調整のターゲットはまだ明確になっておらず、哲学的に堅牢な構造から構築されているようには見えません。
私たちは、道徳哲学から導き出され、人間の生存要件に基づいて構築された 5 つの中心的で基本的な価値観、つまり生存、持続可能な世代間存在、社会、教育、真実を提示することからこの問題の議論を始めます。
これらの値は、技術的な調整作業の明確な方向性を提供するだけでなく、これらの値を取得および維持するための AI システムからの脅威と機会を強調するフレームワークとしても機能することを示します。

要約(オリジナル)

Solving the AI alignment problem requires having clear, defensible values towards which AI systems can align. Currently, targets for alignment remain underspecified and do not seem to be built from a philosophically robust structure. We begin the discussion of this problem by presenting five core, foundational values, drawn from moral philosophy and built on the requisites for human existence: survival, sustainable intergenerational existence, society, education, and truth. We show that these values not only provide a clearer direction for technical alignment work, but also serve as a framework to highlight threats and opportunities from AI systems to both obtain and sustain these values.

arxiv情報

著者 Betty Li Hou,Brian Patrick Green
発行日 2023-11-28 18:11:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY パーマリンク