要約
大規模な言語モデル(LLMS)の急速な増殖は、信頼性、透明性、公平性、倫理的整合の問題に及ぶ、信頼性に関する差し迫った懸念を提起しました。
さまざまなドメインでのLLMの採用が増加しているにもかかわらず、実際に信頼性を運用する方法についてのコンセンサスが不足しています。
この研究は、2019年から2025年までの2,006の出版物の書誌マッピング分析を実施することにより、理論的議論と実装のギャップを埋めます。共著者ネットワーク、キーワード共起分析、テーマの進化追跡を通じて、主要な研究動向、影響力のある著者、およびLLMの信頼性の一般的な定義を特定します。
さらに、68のコアペーパーの系統的レビューが行われ、信頼の概念化とその実際的な意味を調べます。
私たちの調査結果は、LLMSの信頼性が既存の組織の信頼フレームワークを通じてフレーム化されることが多く、能力、慈悲、誠実さなどの次元を強調することを明らかにしています。
ただし、これらの原則を具体的な開発戦略に変換することには大きなギャップがあります。
これに対処するために、検索された生成(RAG)、説明可能性技術、トレーニング後の監査を含むLLMライフサイクル全体の20の信頼性向上技術の構造マッピングを提案します。
実用的な戦略で書誌洞察を合成することにより、この研究は、より透明性があり、説明責任があり、倫理的に整合したLLMを促進し、現実世界のアプリケーションでの責任のある展開を確保することに貢献します。
要約(オリジナル)
The rapid proliferation of Large Language Models (LLMs) has raised pressing concerns regarding their trustworthiness, spanning issues of reliability, transparency, fairness, and ethical alignment. Despite the increasing adoption of LLMs across various domains, there remains a lack of consensus on how to operationalize trustworthiness in practice. This study bridges the gap between theoretical discussions and implementation by conducting a bibliometric mapping analysis of 2,006 publications from 2019 to 2025. Through co-authorship networks, keyword co-occurrence analysis, and thematic evolution tracking, we identify key research trends, influential authors, and prevailing definitions of LLM trustworthiness. Additionally, a systematic review of 68 core papers is conducted to examine conceptualizations of trust and their practical implications. Our findings reveal that trustworthiness in LLMs is often framed through existing organizational trust frameworks, emphasizing dimensions such as ability, benevolence, and integrity. However, a significant gap exists in translating these principles into concrete development strategies. To address this, we propose a structured mapping of 20 trust-enhancing techniques across the LLM lifecycle, including retrieval-augmented generation (RAG), explainability techniques, and post-training audits. By synthesizing bibliometric insights with practical strategies, this study contributes towards fostering more transparent, accountable, and ethically aligned LLMs, ensuring their responsible deployment in real-world applications.
arxiv情報
著者 | José Siqueira de Cerqueira,Kai-Kristian Kemell,Muhammad Waseem,Rebekah Rousi,Nannan Xi,Juho Hamari,Pekka Abrahamsson |
発行日 | 2025-04-30 15:04:55+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google