Potential Benefits of Employing Large Language Models in Research in Moral Education and Development

要約

最近、コンピューター科学者は、大規模な言語コーパスと人間の強化を使用して予測モデルをトレーニングすることにより、大規模言語モデル (LLM) を開発しました。
LLM は、さまざまな分野で人工知能を正確に実装するための有望な方法の 1 つとなっています。
興味深いことに、最近の LLM は、以前の予測モデルでは利用できなかった、高度な人間の認知、特にコンテキスト内学習と思考の連鎖をエミュレートする新たな機能的特徴を備えています。
この論文では、LLM が道徳教育と開発研究にどのように貢献できるかを検討します。
この目標を達成するために、最近発行された会議資料と ArXiv プレプリントをレビューして、LLM に実装された新しい機能の概要を概説します。
また、ChatGPT を使った簡単な実験を行って、倫理的ジレンマや外部フィードバックに対処しながら LLM がどのように動作するかを調査するつもりです。
この結果は、LLM が推論に基づいてジレンマを解決し、外部入力によって推論プロセスを修正できる可能性があることを示唆しています。
さらに、道徳模範テストの予備的な実験結果は、模範的な物語が人間の参加者と同様に、LLM の道徳的高揚を引き出すことができることを実証する可能性があります。
道徳教育と発達に関する研究における LLM の潜在的な影響について、その結果を交えて説明します。

要約(オリジナル)

Recently, computer scientists have developed large language models (LLMs) by training prediction models with large-scale language corpora and human reinforcements. The LLMs have become one promising way to implement artificial intelligence with accuracy in various fields. Interestingly, recent LLMs possess emergent functional features that emulate sophisticated human cognition, especially in-context learning and the chain of thought, which were unavailable in previous prediction models. In this paper, I will examine how LLMs might contribute to moral education and development research. To achieve this goal, I will review the most recently published conference papers and ArXiv preprints to overview the novel functional features implemented in LLMs. I also intend to conduct brief experiments with ChatGPT to investigate how LLMs behave while addressing ethical dilemmas and external feedback. The results suggest that LLMs might be capable of solving dilemmas based on reasoning and revising their reasoning process with external input. Furthermore, a preliminary experimental result from the moral exemplar test may demonstrate that exemplary stories can elicit moral elevation in LLMs as do they among human participants. I will discuss the potential implications of LLMs on research on moral education and development with the results.

arxiv情報

著者 Hyemin Han
発行日 2023-07-20 17:45:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY パーマリンク