要約
植物の表現型解析は通常、時間と費用がかかり、大規模な研究者グループが生物学的に関連する植物の形質を注意深く測定する必要があり、植物の適応と複雑な形質の基礎となる遺伝子構造を集団規模で理解する上での主なボトルネックとなっています。
この研究では、畳み込みニューラル ネットワーク (CNN) による少数ショット学習を活用して、野外で取得した 2,906 枚の P. trichocarpa 葉画像の葉体と目に見える葉脈をセグメント化することで、これらの課題に対処します。
以前の方法とは対照的に、私たちのアプローチは、(i) 実験や画像の前処理を必要とせず、(ii) 生の RGB 画像をフル解像度で使用し、(iii) トレーニングに必要なサンプルは非常に少なくなります (たとえば、
静脈セグメンテーション)。
葉の形態と葉脈のトポロジーに関連する形質は、従来のオープンソースの画像処理ツールを使用して結果のセグメンテーションから抽出され、現実世界の物理測定を使用して検証され、形質を制御する遺伝子を特定するためのゲノムワイド関連研究の実施に使用されます。
このようにして、現在の研究は、植物の表現型解析コミュニティに、(i) 最小限のトレーニング データを必要とする高速かつ正確な画像ベースの特徴抽出方法、および (ii) 68 の異なるデータを含む新しい人口規模のデータセットを提供するように設計されています。
葉の表現型、ドメイン科学者および機械学習研究者向け。
数ショット学習のコード、データ、結果はすべて公開されています。
要約(オリジナル)
Plant phenotyping is typically a time-consuming and expensive endeavor, requiring large groups of researchers to meticulously measure biologically relevant plant traits, and is the main bottleneck in understanding plant adaptation and the genetic architecture underlying complex traits at population scale. In this work, we address these challenges by leveraging few-shot learning with convolutional neural networks (CNNs) to segment the leaf body and visible venation of 2,906 P. trichocarpa leaf images obtained in the field. In contrast to previous methods, our approach (i) does not require experimental or image pre-processing, (ii) uses the raw RGB images at full resolution, and (iii) requires very few samples for training (e.g., just eight images for vein segmentation). Traits relating to leaf morphology and vein topology are extracted from the resulting segmentations using traditional open-source image-processing tools, validated using real-world physical measurements, and used to conduct a genome-wide association study to identify genes controlling the traits. In this way, the current work is designed to provide the plant phenotyping community with (i) methods for fast and accurate image-based feature extraction that require minimal training data, and (ii) a new population-scale data set, including 68 different leaf phenotypes, for domain scientists and machine learning researchers. All of the few-shot learning code, data, and results are made publicly available.
arxiv情報
著者 | John Lagergren,Mirko Pavicic,Hari B. Chhetri,Larry M. York,P. Doug Hyatt,David Kainer,Erica M. Rutter,Kevin Flores,Jack Bailey-Bale,Marie Klein,Gail Taylor,Daniel Jacobson,Jared Streich |
発行日 | 2023-05-18 12:10:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google