Appropriateness is all you need!

要約

タイトル:Appropriateness is all you need!(適切性が必要なすべて!)

要約:

– AIアプリケーションの「安全性」を確保することに注力するうちに、彼らの許容される使用に関する主要なあるいは唯一の規範要件として、安全性措置の開発が進んできた。
– 最新のバージョンであるChatGPTなどのチャットボットにも同様のことが言える。
– このアプローチは、彼らが「安全である」場合、展開が許容されると考えられている。「安全性ノルマティブ」と呼んでいる。
– これに対する限界に対応するため、本論文では、適切性という規範的概念に従って、チャットボットが話すトピックの範囲を制限することを提案している。
– 我々は、チャットボットの発言によって「安全性」を探し、彼らが何を言えるかどうかを決定する代わりに、適切性の3つの形態(技術的-論理的、社会的、道徳的)に基づいて、それらの発言を評価しなければならないことを主張している。
– そして、これらの適切性の形態からチャットボットに求められる要件を解説することによって、以前のアカウントの制限を回避する方法を提供する。
– つまり、彼らが「適切である」と考えられる発言をするために必要な位置取り、受容性、価値の一致(PAVA)である。
– これらを念頭に置くことによって、チャットボットが何を言ってよく、何を言っちゃいけないかを決定することができる。
– 最後に、一つの初期提案として、適切性に特化したチャレンジセットを検証方法として使用することが挙げられている。

要約(オリジナル)

The strive to make AI applications ‘safe’ has led to the development of safety-measures as the main or even sole normative requirement of their permissible use. Similar can be attested to the latest version of chatbots, such as chatGPT. In this view, if they are ‘safe’, they are supposed to be permissible to deploy. This approach, which we call ‘safety-normativity’, is rather limited in solving the emerging issues that chatGPT and other chatbots have caused thus far. In answering this limitation, in this paper we argue for limiting chatbots in the range of topics they can chat about according to the normative concept of appropriateness. We argue that rather than looking for ‘safety’ in a chatbot’s utterances to determine what they may and may not say, we ought to assess those utterances according to three forms of appropriateness: technical-discursive, social, and moral. We then spell out what requirements for chatbots follow from these forms of appropriateness to avoid the limits of previous accounts: positionality, acceptability, and value alignment (PAVA). With these in mind, we may be able to determine what a chatbot may and may not say. Lastly, one initial suggestion is to use challenge sets, specifically designed for appropriateness, as a validation method.

arxiv情報

著者 Hendrik Kempt,Alon Lavie,Saskia K. Nagel
発行日 2023-04-27 22:21:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.CL, cs.HC パーマリンク