要約
人間は、周囲の物体に「人間」らしさを見る傾向があります。
私たちは、あたかも他の人間と同じように私たちのことを理解できるかのように、車に名前を付けたり、ペットや家電製品にさえも話しかけます。
擬人化と呼ばれるこの動作は、人間に似た知能が大規模言語モデル (LLM) で認識されると主張されている機械学習 (ML) でも注目を集めています。
このポジションペーパーでは、専門家のインセンティブ、人間の偏見、および一般的な方法論の設定を考慮して、汎用人工知能 (AGI) の現在の探究がどのように LLM に人間のような性質を過剰に帰属させる完璧な嵐であるかを議論します。
いくつかの実験で、私たちは潜在空間における人間が解釈可能なパターンの発見が驚くべき結果ではないことを実証しました。
また、メディアにおける AI の一般的な描写を考慮して、AI 研究成果を解釈し伝達する際には、学術界に対し特別な注意を払い、学術的誠実の原則を特に意識するよう求めます。
要約(オリジナル)
Humans have a tendency to see ‘human’-like qualities in objects around them. We name our cars, and talk to pets and even household appliances, as if they could understand us as other humans do. This behavior, called anthropomorphism, is also seeing traction in Machine Learning (ML), where human-like intelligence is claimed to be perceived in Large Language Models (LLMs). In this position paper, considering professional incentives, human biases, and general methodological setups, we discuss how the current search for Artificial General Intelligence (AGI) is a perfect storm for over-attributing human-like qualities to LLMs. In several experiments, we demonstrate that the discovery of human-interpretable patterns in latent spaces should not be a surprising outcome. Also in consideration of common AI portrayal in the media, we call for the academic community to exercise extra caution, and to be extra aware of principles of academic integrity, in interpreting and communicating about AI research outcomes.
arxiv情報
著者 | Patrick Altmeyer,Andrew M. Demetriou,Antony Bartlett,Cynthia C. S. Liem |
発行日 | 2024-02-07 08:33:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google