要約
初期段階のスタートアップ投資は、希少なデータと不確実な結果を特徴とするリスクの高い努力です。
従来の機械学習アプローチでは、多くの場合、ラベル付きの大規模なデータセットと広範な微調整が必要ですが、ドメインの専門家が解釈または改善するのは不透明で困難です。
この論文では、コンテキスト学習(ICL)を使用して、メモリが熟成した大規模な言語モデル(LLM)を搭載した透明でデータ効率の高い投資決定フレームワークを提案します。
私たちの方法の中心は、LLMプロンプトに直接埋め込まれた自然言語政策であり、モデルが明示的な推論パターンを適用できるようにし、人間の専門家がロジックを簡単に解釈、監査し、繰り返し改善できるようにします。
少数のショット学習とコンテキスト内学習ループを組み合わせた軽量トレーニングプロセスを導入し、LLMが構造化されたフィードバックに基づいて意思決定ポリシーを反復的に更新できるようにします。
監督が最小限で、グラデーションベースの最適化がないため、システムは既存のベンチマークよりもはるかに正確に起動の成功を予測しています。
ランダムなチャンスよりも20倍以上の正確さであり、1.9%の時間を成功させます。
また、トップティアベンチャーキャピタル(VC)企業の典型的な5.6%の成功率よりも7.1倍の正確さです。
要約(オリジナル)
Early-stage startup investment is a high-risk endeavor characterized by scarce data and uncertain outcomes. Traditional machine learning approaches often require large, labeled datasets and extensive fine-tuning, yet remain opaque and difficult for domain experts to interpret or improve. In this paper, we propose a transparent and data-efficient investment decision framework powered by memory-augmented large language models (LLMs) using in-context learning (ICL). Central to our method is a natural language policy embedded directly into the LLM prompt, enabling the model to apply explicit reasoning patterns and allowing human experts to easily interpret, audit, and iteratively refine the logic. We introduce a lightweight training process that combines few-shot learning with an in-context learning loop, enabling the LLM to update its decision policy iteratively based on structured feedback. With only minimal supervision and no gradient-based optimization, our system predicts startup success far more accurately than existing benchmarks. It is over 20x more precise than random chance, which succeeds 1.9% of the time. It is also 7.1x more precise than the typical 5.6% success rate of top-tier venture capital (VC) firms.
arxiv情報
著者 | Xianling Mu,Joseph Ternasky,Fuat Alican,Yigit Ihlamur |
発行日 | 2025-05-27 16:57:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google