要約
点群データは、科学分野で広く使用されています。
最近、このようなデータを使用して予測タスクを解決するために、幾何学的深層学習 (GDL) が広く適用されています。
しかし、GDL モデルはしばしば複雑で解釈が難しいため、これらのモデルを科学的分析や実験に展開する科学者に懸念をもたらします。
この作業では、一般的な GDL バックボーンに基づいて本質的に解釈可能なモデルを構築できる、一般的なメカニズムである学習可能なランダム性注入 (LRI) を提案します。
LRI によって誘導されたモデルは、トレーニングされると、予測ラベルを示す情報を保持するポイント クラウド データ内のポイントを検出できます。
また、LRI メカニズムを評価するために、高エネルギー物理学と生化学の領域をカバーする実際の科学的アプリケーションから 4 つのデータセットを提案します。
以前の事後的な解釈方法と比較して、LRI によって検出されたポイントは、実際の科学的意味を持つグラウンド トゥルース パターンとはるかによく一致し、安定しています。
LRI は情報のボトルネック原理に基づいているため、LRI によって誘導されたモデルは、トレーニング シナリオとテスト シナリオの間の分布の変化に対してもより堅牢です。
私たちのコードとデータセットは、\url{https://github.com/Graph-COM/LRI} で入手できます。
要約(オリジナル)
Point cloud data is ubiquitous in scientific fields. Recently, geometric deep learning (GDL) has been widely applied to solve prediction tasks with such data. However, GDL models are often complicated and hardly interpretable, which poses concerns to scientists who are to deploy these models in scientific analysis and experiments. This work proposes a general mechanism, learnable randomness injection (LRI), which allows building inherently interpretable models based on general GDL backbones. LRI-induced models, once trained, can detect the points in the point cloud data that carry information indicative of the prediction label. We also propose four datasets from real scientific applications that cover the domains of high-energy physics and biochemistry to evaluate the LRI mechanism. Compared with previous post-hoc interpretation methods, the points detected by LRI align much better and stabler with the ground-truth patterns that have actual scientific meanings. LRI is grounded by the information bottleneck principle, and thus LRI-induced models are also more robust to distribution shifts between training and test scenarios. Our code and datasets are available at \url{https://github.com/Graph-COM/LRI}.
arxiv情報
| 著者 | Siqi Miao,Yunan Luo,Mia Liu,Pan Li |
| 発行日 | 2023-03-02 17:21:16+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google