要約
この論文では、大規模言語モデル (LLM) をより人間らしくするための進歩について探ります。
私たちは、AI システムにおける自然言語理解、会話の一貫性、心の知能指数を高める技術に焦点を当てています。
この研究では、多様なデータセットによる微調整、心理学的原理の組み込み、人間の推論パターンをよりよく模倣するモデルの設計など、さまざまなアプローチを評価しています。
私たちの調査結果は、これらの機能強化がユーザー インタラクションを改善するだけでなく、さまざまなドメインにわたる AI アプリケーションの新たな可能性を開くことを示しています。
今後の研究では、これらの人間に似た属性によってもたらされる倫理的影響と潜在的な偏見に対処する予定です。
要約(オリジナル)
This paper explores the advancements in making large language models (LLMs) more human-like. We focus on techniques that enhance natural language understanding, conversational coherence, and emotional intelligence in AI systems. The study evaluates various approaches, including fine-tuning with diverse datasets, incorporating psychological principles, and designing models that better mimic human reasoning patterns. Our findings demonstrate that these enhancements not only improve user interactions but also open new possibilities for AI applications across different domains. Future work will address the ethical implications and potential biases introduced by these human-like attributes.
arxiv情報
著者 | Ethem Yağız Çalık,Talha Rüzgar Akkuş |
発行日 | 2025-01-09 07:44:06+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google