要約
OpenAI の最新のラージ ビジョン言語モデル (LVLM)、GPT-4V(ision) は、医療アプリケーションにおけるその可能性についてかなりの関心を集めています。
その有望性にもかかわらず、最近の研究や社内レビューでは、専門的な医療業務におけるパフォーマンスが低いことが浮き彫りになっています。
この論文では、医療における GPT-4V の機能、特に内視鏡検査、CT スキャン、MRI などからの複雑な画像データの処理における限界を探ります。オープンソースのデータセットを活用して、その基礎的な能力を評価し、強化すべき実質的な領域を特定しました。
私たちの研究では、AI の応答性を向上させるためのあまり活用されていない戦略であるプロンプト エンジニアリングに重点を置いています。
反復テストを通じてモデルのプロンプトを改良し、医療画像における解釈の精度と関連性を大幅に向上させました。
総合的な評価から、GPT-4V の医学的洞察力を強化する 10 の効果的な即時エンジニアリング技術を抽出しました。
これらの系統的な機能強化により、GPT-4V からより信頼性が高く、正確で臨床的に価値のある洞察が得られ、重要な医療環境での操作性が向上します。
私たちの発見は、医療で AI を採用している人々にとって極めて重要であり、GPT-4V の診断の可能性を最大限に活用するための明確で実用的なガイダンスを提供します。
要約(オリジナル)
OpenAI’s latest large vision-language model (LVLM), GPT-4V(ision), has piqued considerable interest for its potential in medical applications. Despite its promise, recent studies and internal reviews highlight its underperformance in specialized medical tasks. This paper explores the boundary of GPT-4V’s capabilities in medicine, particularly in processing complex imaging data from endoscopies, CT scans, and MRIs etc. Leveraging open-source datasets, we assessed its foundational competencies, identifying substantial areas for enhancement. Our research emphasizes prompt engineering, an often-underutilized strategy for improving AI responsiveness. Through iterative testing, we refined the model’s prompts, significantly improving its interpretative accuracy and relevance in medical imaging. From our comprehensive evaluations, we distilled 10 effective prompt engineering techniques, each fortifying GPT-4V’s medical acumen. These methodical enhancements facilitate more reliable, precise, and clinically valuable insights from GPT-4V, advancing its operability in critical healthcare environments. Our findings are pivotal for those employing AI in medicine, providing clear, actionable guidance on harnessing GPT-4V’s full diagnostic potential.
arxiv情報
著者 | Pengcheng Chen,Ziyan Huang,Zhongying Deng,Tianbin Li,Yanzhou Su,Haoyu Wang,Jin Ye,Yu Qiao,Junjun He |
発行日 | 2023-12-07 15:05:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google