LLMs Understand Glass-Box Models, Discover Surprises, and Suggest Repairs

要約

私たちは、大規模言語モデル (LLM) が、複雑な結果を単変量のグラフで表現されたコンポーネントに分解する解釈可能なモデルの操作に非常に優れていることを示します。
推論に階層的アプローチを採用することにより、LLM は、モデル全体をコンテキストに適合させる必要がなく、包括的なモデル レベルの要約を提供できます。
このアプローチにより、LLM は広範な背景知識を適用して、事前知識と矛盾する異常の検出、異常の潜在的な理由の説明、異常を除去する修復の提案などのデータ サイエンスの一般的なタスクを自動化できます。
ヘルスケアにおける複数の例を使用して、LLM のこれらの新機能の有用性を実証します。特に一般化加算モデル (GAM) に重点を置きます。
最後に、オープンソース LLM-GAM インターフェイスとしてパッケージ $\texttt{TalkToEBM}$ を紹介します。

要約(オリジナル)

We show that large language models (LLMs) are remarkably good at working with interpretable models that decompose complex outcomes into univariate graph-represented components. By adopting a hierarchical approach to reasoning, LLMs can provide comprehensive model-level summaries without ever requiring the entire model to fit in context. This approach enables LLMs to apply their extensive background knowledge to automate common tasks in data science such as detecting anomalies that contradict prior knowledge, describing potential reasons for the anomalies, and suggesting repairs that would remove the anomalies. We use multiple examples in healthcare to demonstrate the utility of these new capabilities of LLMs, with particular emphasis on Generalized Additive Models (GAMs). Finally, we present the package $\texttt{TalkToEBM}$ as an open-source LLM-GAM interface.

arxiv情報

著者 Benjamin J. Lengerich,Sebastian Bordt,Harsha Nori,Mark E. Nunnally,Yin Aphinyanaphongs,Manolis Kellis,Rich Caruana
発行日 2023-08-02 13:59:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ML パーマリンク