要約
構造化データを管理し、データ サイエンス プロセスを強化するために大規模言語モデル (LLM) を活用することへの関心が高まっています。
潜在的な利点にもかかわらず、この統合により、その信頼性と意思決定方法に関して重大な疑問が生じます。
データの性質、問題の種類、パフォーマンス指標、計算リソース、解釈可能性と精度、データに関する仮定、倫理的考慮事項など、モデル選択プロセスにおけるさまざまな要素の重要性を強調しています。
私たちの目的は、GPT-4 のモデル選択の推奨事項を導く要因と仮定を解明し、表現することです。
これらの要因を描写するために変動モデルを採用し、モデルと特定されたヒューリスティックの実装の両方を評価するためにおもちゃのデータセットを使用します。
これらの結果を他のプラットフォームのヒューリスティックと対比することで、GPT-4 の方法論の有効性と独自性を判断することが私たちの目的です。
この研究は、特にデータ サイエンスにおけるモデル選択の領域における AI の意思決定プロセスの理解を進めることに取り組んでいます。
私たちの取り組みは、より透明性が高くわかりやすい AI システムの作成に向けられており、データ サイエンスにおけるより責任ある効率的な実践に貢献します。
要約(オリジナル)
There is an increasing interest in leveraging Large Language Models (LLMs) for managing structured data and enhancing data science processes. Despite the potential benefits, this integration poses significant questions regarding their reliability and decision-making methodologies. It highlights the importance of various factors in the model selection process, including the nature of the data, problem type, performance metrics, computational resources, interpretability vs accuracy, assumptions about data, and ethical considerations. Our objective is to elucidate and express the factors and assumptions guiding GPT-4’s model selection recommendations. We employ a variability model to depict these factors and use toy datasets to evaluate both the model and the implementation of the identified heuristics. By contrasting these outcomes with heuristics from other platforms, our aim is to determine the effectiveness and distinctiveness of GPT-4’s methodology. This research is committed to advancing our comprehension of AI decision-making processes, especially in the realm of model selection within data science. Our efforts are directed towards creating AI systems that are more transparent and comprehensible, contributing to a more responsible and efficient practice in data science.
arxiv情報
著者 | Nathalia Nascimento,Cristina Tavares,Paulo Alencar,Donald Cowan |
発行日 | 2023-11-20 03:42:24+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google