Decolonial AI Alignment: Openness, Viśe\d{s}a-Dharma, and Including Excluded Knowledges

要約

これまでの研究では、抽出主義、自動化、社会学的本質主義、監視、封じ込めなどのメカニズムを通じて、人工知能 (AI) の開発と展開の植民地性が解明されてきました。
しかし、その研究は調整、つまり望ましい値に沿って大規模言語モデル (LLM) に行動を教えることにはあまり関与しておらず、そのプロセス内で生じるメカニズム、つまり道徳的絶対主義 — 知識の植民地性の一部については考慮されていませんでした。

植民地主義には、植民地化された人々の信念や価値観を変えてきた歴史があります。
この論文では、この歴史が現在の LLM アライメントの実践とテクノロジーで再現されていると主張します。
さらに、モデルの公開性、社会への公開性、排除された知識への公開性という 3 つの形式の公開性を使用して、AI の連携を非植民地化することを提案します。
非植民地 AI 調整に対するこの提案されたアプローチは、オープンソースの宗教として説明されているヒンドゥー教の議論的な道徳哲学の伝統からのアイデアを使用しています。
使用される概念の 1 つは、vi\’s}e\d{s}a-dharma、つまり特定の文脈に固有の善悪の概念です。
この文書の最後では、提案されたフレームワークに向けて作業するための推奨されるリファレンス アーキテクチャを示します。

要約(オリジナル)

Prior work has explicated the coloniality of artificial intelligence (AI) development and deployment through mechanisms such as extractivism, automation, sociological essentialism, surveillance, and containment. However, that work has not engaged much with alignment: teaching behaviors to a large language model (LLM) in line with desired values, and has not considered a mechanism that arises within that process: moral absolutism — a part of the coloniality of knowledge. Colonialism has a history of altering the beliefs and values of colonized peoples; in this paper, I argue that this history is recapitulated in current LLM alignment practices and technologies. Furthermore, I suggest that AI alignment be decolonialized using three forms of openness: openness of models, openness to society, and openness to excluded knowledges. This suggested approach to decolonial AI alignment uses ideas from the argumentative moral philosophical tradition of Hinduism, which has been described as an open-source religion. One concept used is vi\'{s}e\d{s}a-dharma, or particular context-specific notions of right and wrong. At the end of the paper, I provide a suggested reference architecture to work toward the proposed framework.

arxiv情報

著者 Kush R. Varshney
発行日 2024-01-22 18:22:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, stat.ML パーマリンク