要約
コネクトミクス研究における画像スタックのサイズは現在、テラバイト、しばしばペタバイト規模に達し、脳の領域とサンプル全体で非常に多様な外観を持っています。
ただし、シナプスなどの神経構造の手動注釈は時間がかかるため、テスト データのサイズが 0.001\% よりも小さいトレーニング データが制限されることがよくあります。
自然画像の同様の問題に対処するために、ドメインの適応と一般化のアプローチが提案されましたが、ドメイン外のベンチマークがないため、コネクトミクス データではあまり評価されませんでした。
要約(オリジナル)
The size of image stacks in connectomics studies now reaches the terabyte and often petabyte scales with a great diversity of appearance across brain regions and samples. However, manual annotation of neural structures, e.g., synapses, is time-consuming, which leads to limited training data often smaller than 0.001\% of the test data in size. Domain adaptation and generalization approaches were proposed to address similar issues for natural images, which were less evaluated on connectomics data due to a lack of out-of-domain benchmarks.
arxiv情報
| 著者 | Jingpeng Wu,Yicong Li,Nishika Gupta,Kazunori Shinomiya,Pat Gunn,Alexey Polilov,Hanspeter Pfister,Dmitri Chklovskii,Donglai Wei |
| 発行日 | 2023-02-01 16:08:58+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google