EvalxNLP: A Framework for Benchmarking Post-Hoc Explainability Methods on NLP Models

要約

自然言語処理(NLP)モデルが進化を続け、重要なアプリケーションに不可欠になるにつれ、その解釈可能性を確保することが重要な課題となっている。説明可能性の手法が多様化し、利害関係者の要求も多様化しているため、利害関係者が特定のユースケースに合わせた適切な説明を選択できるフレームワークの重要性が高まっています。このニーズに対応するため、変換器ベースの自然言語処理モデルのための最新の特徴帰属法をベンチマークするPythonフレームワークEvalxNLPを紹介します。EvalxNLPはExplainable AI (XAI)の文献から広く認知されている8つの説明可能性テクニックを統合しており、ユーザーは忠実性、妥当性、複雑性などの主要な特性に基づいて説明を生成し、評価することができます。また、我々のフレームワークは、対話的なLLMベースのテキスト説明を提供し、生成された説明と評価結果に対するユーザの理解を促進する。人間による評価結果は、EvalxNLPのユーザ満足度が高いことを示しており、多様なユーザグループにわたる説明手法のベンチマークに有望なフレームワークであることを示唆している。ユーザーフレンドリーで拡張可能なプラットフォームを提供することで、EvalxNLPは説明可能性ツールを民主化し、自然言語処理におけるXAI技術の体系的な比較と発展を支援することを目指しています。

要約(オリジナル)

As Natural Language Processing (NLP) models continue to evolve and become integral to high-stakes applications, ensuring their interpretability remains a critical challenge. Given the growing variety of explainability methods and diverse stakeholder requirements, frameworks that help stakeholders select appropriate explanations tailored to their specific use cases are increasingly important. To address this need, we introduce EvalxNLP, a Python framework for benchmarking state-of-the-art feature attribution methods for transformer-based NLP models. EvalxNLP integrates eight widely recognized explainability techniques from the Explainable AI (XAI) literature, enabling users to generate and evaluate explanations based on key properties such as faithfulness, plausibility, and complexity. Our framework also provides interactive, LLM-based textual explanations, facilitating user understanding of the generated explanations and evaluation outcomes. Human evaluation results indicate high user satisfaction with EvalxNLP, suggesting it is a promising framework for benchmarking explanation methods across diverse user groups. By offering a user-friendly and extensible platform, EvalxNLP aims at democratizing explainability tools and supporting the systematic comparison and advancement of XAI techniques in NLP.

arxiv情報

著者 Mahdi Dhaini,Kafaite Zahra Hussain,Efstratios Zaradoukas,Gjergji Kasneci
発行日 2025-05-02 13:00:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL, cs.LG | EvalxNLP: A Framework for Benchmarking Post-Hoc Explainability Methods on NLP Models はコメントを受け付けていません

Underspecified Human Decision Experiments Considered Harmful

要約

情報ディスプレイを用いた意思決定は、人間とAIの協働やデータの可視化などの分野において、研究の重要な焦点となっている。しかし、何が意思決定問題を構成するのか、そして意思決定に欠陥があると結論付ける実験に必要なものは何なのか、依然として不正確なままである。我々は、統計的決定理論と情報経済学から統合された、広く適用可能な決定問題の定義を提示する。人間のパフォーマンスの損失をバイアスに帰するためには、合理的なエージェントが規範となる決定を特定するために必要な情報を実験が提供しなければならないと主張する。我々は、AIによる意思決定支援に関する最近の実証研究がこの基準を達成しているかどうかを評価する。我々は、偏った行動を識別すると主張する39の研究のうち、少なくとも1つの処理条件において、この主張を行うのに十分な情報を被験者に提示したのはわずか10(26%)であることを発見した。我々は、明確に定義された意思決定問題を研究することの価値を、それが可能にするパフォーマンス損失の特徴を説明することによって動機付ける。

要約(オリジナル)

Decision-making with information displays is a key focus of research in areas like human-AI collaboration and data visualization. However, what constitutes a decision problem, and what is required for an experiment to conclude that decisions are flawed, remain imprecise. We present a widely applicable definition of a decision problem synthesized from statistical decision theory and information economics. We claim that to attribute loss in human performance to bias, an experiment must provide the information that a rational agent would need to identify the normative decision. We evaluate whether recent empirical research on AI-assisted decisions achieves this standard. We find that only 10 (26%) of 39 studies that claim to identify biased behavior presented participants with sufficient information to make this claim in at least one treatment condition. We motivate the value of studying well-defined decision problems by describing a characterization of performance losses they allow to be conceived.

arxiv情報

著者 Jessica Hullman,Alex Kale,Jason Hartline
発行日 2025-05-02 13:21:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.HC | Underspecified Human Decision Experiments Considered Harmful はコメントを受け付けていません

Enhancing Obsolescence Forecasting with Deep Generative Data Augmentation: A Semi-Supervised Framework for Low-Data Industrial Applications

要約

電子部品の陳腐化という課題は、ライフサイクルの長いシステムにおいて特に重要である。その影響を軽減するために様々な陳腐化管理手法が採用されており、中でも陳腐化予測は非常に注目されている著名なアプローチである。その結果、数多くの機械学習ベースの予測手法が提案されてきた。しかしながら、機械学習モデルは、高精度を達成するために相当量の関連データを必要とするが、これは現在の陳腐化状況には欠けている状況もある。本研究では、ディープラーニングに基づく陳腐化予測のための新しいフレームワークを導入する。提案するフレームワークは、深層生成モデリングによって利用可能なデータの不足を解決するものであり、新たな陳腐化事例が生成され、学習データセットの補強に用いられる。増強されたデータセットは、古典的な機械学習ベースの陳腐化予測モデルを訓練するために使用される。拡張データセットを用いて古典的な予測モデルを訓練するために、既存の古典的な教師あり学習分類器を、このフレームワークの中で半教師あり学習に適応させる。提案するフレームワークは、ベンチマークデータセットにおいて最先端の結果を示す。

要約(オリジナル)

The challenge of electronic component obsolescence is particularly critical in systems with long life cycles. Various obsolescence management methods are employed to mitigate its impact, with obsolescence forecasting being a highly sought-after and prominent approach. As a result, numerous machine learning-based forecasting methods have been proposed. However, machine learning models require a substantial amount of relevant data to achieve high precision, which is lacking in the current obsolescence landscape in some situations. This work introduces a novel framework for obsolescence forecasting based on deep learning. The proposed framework solves the lack of available data through deep generative modeling, where new obsolescence cases are generated and used to augment the training dataset. The augmented dataset is then used to train a classical machine learning-based obsolescence forecasting model. To train classical forecasting models using augmented datasets, existing classical supervised-learning classifiers are adapted for semi-supervised learning within this framework. The proposed framework demonstrates state-of-the-art results on benchmarking datasets.

arxiv情報

著者 Elie Saad,Mariem Besbes,Marc Zolghadri,Victor Czmil,Claude Baron,Vincent Bourgeois
発行日 2025-05-02 13:28:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG | Enhancing Obsolescence Forecasting with Deep Generative Data Augmentation: A Semi-Supervised Framework for Low-Data Industrial Applications はコメントを受け付けていません

A Physics-preserved Transfer Learning Method for Differential Equations

要約

ニューラル・オペレータのようなデータ駆動型手法は、微分方程式(DEs)の解法において大きな成功を収めているが、学習環境の違い(データの偏りや方程式の変化)によるドメインシフトの問題に悩まされている。しかし、DEs問題で採用されている既存のTL手法は、一般的なDEs問題への汎用性や学習中の物理保存性のいずれにも欠けている。本研究では、領域シフトを適応的に修正し、物理情報を保存する一般的な転移学習法に焦点を当てる。数学的には、データ領域を積分布とし、本質的な問題を分布バイアスと演算子バイアスとする。物理保存最適テンソル輸送(POTT)法は、一般的なDEへの汎化性と特定の問題の物理保存を同時に認め、POTTマップによって誘導されるプッシュフォワード分布を利用して、データ駆動モデルをターゲットドメインに適応させるために提案される。広範な実験により、提案するPOTT法の優れた性能、一般化可能性、物理保存性が実証された。

要約(オリジナル)

While data-driven methods such as neural operator have achieved great success in solving differential equations (DEs), they suffer from domain shift problems caused by different learning environments (with data bias or equation changes), which can be alleviated by transfer learning (TL). However, existing TL methods adopted in DEs problems lack either generalizability in general DEs problems or physics preservation during training. In this work, we focus on a general transfer learning method that adaptively correct the domain shift and preserve physical information. Mathematically, we characterize the data domain as product distribution and the essential problems as distribution bias and operator bias. A Physics-preserved Optimal Tensor Transport (POTT) method that simultaneously admits generalizability to common DEs and physics preservation of specific problem is proposed to adapt the data-driven model to target domain utilizing the push-forward distribution induced by the POTT map. Extensive experiments demonstrate the superior performance, generalizability and physics preservation of the proposed POTT method.

arxiv情報

著者 Hao-Ran Yang,Chuan-Xian Ren
発行日 2025-05-02 13:58:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG | A Physics-preserved Transfer Learning Method for Differential Equations はコメントを受け付けていません

Reduced-order structure-property linkages for stochastic metamaterials

要約

アディティブ・マニュファクチャリングの機能により、多様なユニットセル形状を持つ機械的メタマテリアルの設計と製造が容易になった。このようなメタマテリアルの効率的な設計と性能評価には、ユニットセルの膨大な設計空間とその効果的な機械的特性との関連性を確立することが不可欠である。しかし、設計空間全体にわたるメタマテリアルユニットセルの物理ベースのシミュレーションには計算コストがかかるため、複雑な構造と特性の関係を効率的に把握するための材料インフォマティクスのフレームワークが必要となる。本研究では、ランダムに生成された2次元メタマテリアルの大規模なデータセットから顕著な特徴を抽出するために、2点相関関数の主成分分析を行った。高速フーリエ変換(FFT)に基づく均質化アプローチを用いて物理学に基づくシミュレーションを行い、広範なユニットセル設計にわたって均質化された実効弾性剛性を効率的に計算する。その後、ガウス過程回帰を用いて、ユニットセル設計を均質化された有効弾性定数にマッピングする低次サロゲートを生成する。採用したワークフローにより、膨大な確率的メタマテリアルデータセットの価値の高い低次元表現が可能となり、ロバストな構造-物性マップの構築が容易になることが実証された。最後に、不確定性ベースの能動学習フレームワークを利用して、元の完全なデータセットと比較してデータ点数が大幅に少ない代理モデルを学習する。その結果、正確でロバストな構造-物性マップを作成するためには、データセット全体の$0.61%程度のデータセットで十分であることが示された。

要約(オリジナル)

The capabilities of additive manufacturing have facilitated the design and production of mechanical metamaterials with diverse unit cell geometries. Establishing linkages between the vast design space of unit cells and their effective mechanical properties is critical for the efficient design and performance evaluation of such metamaterials. However, physics-based simulations of metamaterial unit cells across the entire design space are computationally expensive, necessitating a materials informatics framework to efficiently capture complex structure-property relationships. In this work, principal component analysis of 2-point correlation functions is performed to extract the salient features from a large dataset of randomly generated 2D metamaterials. Physics-based simulations are performed using a fast Fourier transform (FFT)-based homogenization approach to efficiently compute the homogenized effective elastic stiffness across the extensive unit cell designs. Subsequently, Gaussian process regression is used to generate reduced-order surrogates, mapping unit cell designs to their homogenized effective elastic constant. It is demonstrated that the adopted workflow enables a high-value low-dimensional representation of the voluminous stochastic metamaterial dataset, facilitating the construction of robust structure-property maps. Finally, an uncertainty-based active learning framework is utilized to train a surrogate model with a significantly smaller number of data points compared to the original full dataset. It is shown that a dataset as small as $0.61\%$ of the entire dataset is sufficient to generate accurate and robust structure-property maps.

arxiv情報

著者 Hooman Danesh,Maruthi Annamaraju,Tim Brepols,Stefanie Reese,Surya R. Kalidindi
発行日 2025-05-02 13:58:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CE, cs.LG | Reduced-order structure-property linkages for stochastic metamaterials はコメントを受け付けていません

2DXformer: Dual Transformers for Wind Power Forecasting with Dual Exogenous Variables

要約

正確な風力発電予測は、科学的な発送電計画の策定に役立ち、電力系統の安全性、安定性、効率的な運用を維持する上で大きな意義がある。近年、ディープラーニングに基づく風力発電予測手法は、データ間の時空間相関の抽出に焦点を当て、予測精度の大幅な向上を達成している。しかし、これらには2つの限界がある。第一に、変数間の関係をモデル化していないため、予測精度に限界がある。第二に、内生変数と外生変数を同等に扱うことで、内生変数と外生変数の間に不要な相互作用が生じ、モデルが複雑化する。本論文では、時空間相関に着目した先行研究を基に、前述の2つの限界に対処する2DXformerを提案する。具体的には、モデルの入力を外生的静的変数、外生的動的変数、内生的変数の3種類に分類する。まず、これらの変数をチャネルに依存しない方法で変数トークンとして埋め込む。次に、注意メカニズムを用いて外生変数間の相関を捉える。最後に、外生変数が内生変数に与える影響をモデル化するために、残差接続を持つ多層パーセプトロンを採用する。2つの実世界の大規模データセットでの実験結果は、我々の提案する2DXformerが風力発電予測の性能をさらに改善できることを示している。コードはこのリポジトリで公開されている:\https://github.com/jseaj/2DXformer}{https://github.com/jseaj/2DXformer}。

要約(オリジナル)

Accurate wind power forecasting can help formulate scientific dispatch plans, which is of great significance for maintaining the safety, stability, and efficient operation of the power system. In recent years, wind power forecasting methods based on deep learning have focused on extracting the spatiotemporal correlations among data, achieving significant improvements in forecasting accuracy. However, they exhibit two limitations. First, there is a lack of modeling for the inter-variable relationships, which limits the accuracy of the forecasts. Second, by treating endogenous and exogenous variables equally, it leads to unnecessary interactions between the endogenous and exogenous variables, increasing the complexity of the model. In this paper, we propose the 2DXformer, which, building upon the previous work’s focus on spatiotemporal correlations, addresses the aforementioned two limitations. Specifically, we classify the inputs of the model into three types: exogenous static variables, exogenous dynamic variables, and endogenous variables. First, we embed these variables as variable tokens in a channel-independent manner. Then, we use the attention mechanism to capture the correlations among exogenous variables. Finally, we employ a multi-layer perceptron with residual connections to model the impact of exogenous variables on endogenous variables. Experimental results on two real-world large-scale datasets indicate that our proposed 2DXformer can further improve the performance of wind power forecasting. The code is available in this repository: \href{https://github.com/jseaj/2DXformer}{https://github.com/jseaj/2DXformer}.

arxiv情報

著者 Yajuan Zhang,Jiahai Jiang,Yule Yan,Liang Yang,Ping Zhang
発行日 2025-05-02 14:00:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG | 2DXformer: Dual Transformers for Wind Power Forecasting with Dual Exogenous Variables はコメントを受け付けていません

ViSA-Flow: Accelerating Robot Skill Learning via Large-Scale Video Semantic Action Flow

要約

ロボットの複雑な操作スキルの習得を阻む中心的な課題のひとつは、大規模なロボットのデモンストレーションを収集するための費用が高額になることである。これとは対照的に、人間は他人が環境と相互作用する様子を見ることで効率的に学習することができる。このギャップを埋めるために、我々は、本質的な時空間的なマニピュレータとオブジェクトの相互作用を捉え、表面的な視覚的差異に影響されない中核的な中間表現として、セマンティックアクションフローを導入する。ViSA-Flowは、ラベル付けされていない大規模な動画データから、この表現を自己教師付きで学習するフレームワークである。まず、大規模な人間と物体のインタラクション動画データから自動的に抽出された意味的アクションフローに対して、生成モデルを事前に学習し、操作構造に関するロバストな事前学習を行う。第二に、この事前学習は、同じ意味抽象化パイプラインを通して処理されたロボットのデモの小さなセット上で微調整することにより、ターゲットロボットに効率的に適応される。ViSA-Flowが、特に低データ領域において、人間のビデオ観察からロボットの実行に知識を効果的に伝達することにより、先行手法を凌駕する最先端の性能を達成することを、CALVINベンチマークと実世界のタスクを用いた広範な実験により実証する。ビデオはhttps://visaflow-web.github.io/ViSAFLOW。

要約(オリジナル)

One of the central challenges preventing robots from acquiring complex manipulation skills is the prohibitive cost of collecting large-scale robot demonstrations. In contrast, humans are able to learn efficiently by watching others interact with their environment. To bridge this gap, we introduce semantic action flow as a core intermediate representation capturing the essential spatio-temporal manipulator-object interactions, invariant to superficial visual differences. We present ViSA-Flow, a framework that learns this representation self-supervised from unlabeled large-scale video data. First, a generative model is pre-trained on semantic action flows automatically extracted from large-scale human-object interaction video data, learning a robust prior over manipulation structure. Second, this prior is efficiently adapted to a target robot by fine-tuning on a small set of robot demonstrations processed through the same semantic abstraction pipeline. We demonstrate through extensive experiments on the CALVIN benchmark and real-world tasks that ViSA-Flow achieves state-of-the-art performance, particularly in low-data regimes, outperforming prior methods by effectively transferring knowledge from human video observation to robotic execution. Videos are available at https://visaflow-web.github.io/ViSAFLOW.

arxiv情報

著者 Changhe Chen,Quantao Yang,Xiaohao Xu,Nima Fazeli,Olov Andersson
発行日 2025-05-02 14:03:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.RO | ViSA-Flow: Accelerating Robot Skill Learning via Large-Scale Video Semantic Action Flow はコメントを受け付けていません

Improving Continual Learning Performance and Efficiency with Auxiliary Classifiers

要約

継続的な学習は、チャレンジングでダイナミック、そして多くの場合リソースに制約のある環境で機械学習を適用する上で極めて重要である。しかし、新しい情報を得たときに、以前に学習した知識を上書きしてしまう「壊滅的忘却」は、依然として大きな課題である。本研究では、継続学習中のニューラルネットワーク層における中間表現を調べ、そのような表現が忘却を起こしにくく、計算を高速化する可能性があることを明らかにする。これらの発見を動機として、我々は補助分類器(ACs)を用いて性能を向上させることを提案し、ACsを様々な継続学習手法に統合することで、様々な評価設定において一貫して精度が向上し、平均10%の相対的な向上が得られることを実証する。また、ACを活用することで、精度を損なうことなく推論の平均コストを10~60%削減し、モデルが全てのレイヤーを計算する前に予測を返すことを可能にする。我々のアプローチは、継続的学習のためのスケーラブルで効率的なソリューションを提供する。

要約(オリジナル)

Continual learning is crucial for applying machine learning in challenging, dynamic, and often resource-constrained environments. However, catastrophic forgetting – overwriting previously learned knowledge when new information is acquired – remains a major challenge. In this work, we examine the intermediate representations in neural network layers during continual learning and find that such representations are less prone to forgetting, highlighting their potential to accelerate computation. Motivated by these findings, we propose to use auxiliary classifiers(ACs) to enhance performance and demonstrate that integrating ACs into various continual learning methods consistently improves accuracy across diverse evaluation settings, yielding an average 10% relative gain. We also leverage the ACs to reduce the average cost of the inference by 10-60% without compromising accuracy, enabling the model to return the predictions before computing all the layers. Our approach provides a scalable and efficient solution for continual learning.

arxiv情報

著者 Filip Szatkowski,Yaoyue Zheng,Fei Yang,Bartłomiej Twardowski,Tomasz Trzciński,Joost van de Weijer
発行日 2025-05-02 14:03:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG | Improving Continual Learning Performance and Efficiency with Auxiliary Classifiers はコメントを受け付けていません

Learning Lifted STRIPS Models from Action Traces Alone: A Simple, General, and Scalable Solution

要約

STRIPSアクションモデルをアクショントレースのみから学習することは、ドメイン述語も学習することになるため、困難な問題である。本研究では、よく知られたLOCMシステムのようにスケーラブルでありながら、SATアプローチのように健全で完全な新しいアプローチを紹介する。さらに、このアプローチは一般的であり、隠れ領域や述語の数やアリティに制約を課さない。この新しい学習法は、述語が一連の行動パターン、すなわち特定の引数位置を持つ行動によって影響を受けるという仮定が、痕跡と矛盾しないかどうかをチェックする、ⅳ効率的で新しいテスト}に基づいている。このテストに合格した述語と行動パターンは、学習されたドメインの基礎となり、その後、前提条件と静的述語で簡単に補完される。この新しい方法は理論的、実験的に研究されている。後者については、数十万の状態と遷移を含む8パズルのような標準的な古典的ドメインから得られたトレースとグラフで評価される。学習された表現は、より大きなインスタンスで検証される。

要約(オリジナル)

Learning STRIPS action models from action traces alone is a challenging problem as it involves learning the domain predicates as well. In this work, a novel approach is introduced which, like the well-known LOCM systems, is scalable, but like SAT approaches, is sound and complete. Furthermore, the approach is general and imposes no restrictions on the hidden domain or the number or arity of the predicates. The new learning method is based on an \emph{efficient, novel test} that checks whether the assumption that a predicate is affected by a set of action patterns, namely, actions with specific argument positions, is consistent with the traces. The predicates and action patterns that pass the test provide the basis for the learned domain that is then easily completed with preconditions and static predicates. The new method is studied theoretically and experimentally. For the latter, the method is evaluated on traces and graphs obtained from standard classical domains like the 8-puzzle, which involve hundreds of thousands of states and transitions. The learned representations are then verified on larger instances.

arxiv情報

著者 Jonas Gösgens,Niklas Jansen,Hector Geffner
発行日 2025-05-02 14:12:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI | Learning Lifted STRIPS Models from Action Traces Alone: A Simple, General, and Scalable Solution はコメントを受け付けていません

Towards One Model for Classical Dimensionality Reduction: A Probabilistic Perspective on UMAP and t-SNE

要約

この論文では、UMAPやt-SNEなどの次元削減手法が、Ravuriら(2023)で紹介されたモデルに対応するMAP推論手法として近似的に再構成できることを示す。このモデルは、グラフラプラシアン(データ精度行列の推定値)を、潜在変数上で評価される非線形共分散関数によって与えられる平均を持つWishart分布を用いて記述するものである。この解釈は、このようなアルゴリズムに対してより深い理論的、意味的洞察を提供し、グラフラプラシアンが意味する共分散を記述するためによく知られたカーネルが使用できることを示すことにより、ガウス過程潜在変数モデルとの関連付けを行う。また、同様の次元削減法を研究するためのツールも紹介する。

要約(オリジナル)

This paper shows that dimensionality reduction methods such as UMAP and t-SNE, can be approximately recast as MAP inference methods corresponding to a model introduced in Ravuri et al. (2023), that describes the graph Laplacian (an estimate of the data precision matrix) using a Wishart distribution, with a mean given by a non-linear covariance function evaluated on the latents. This interpretation offers deeper theoretical and semantic insights into such algorithms, and forging a connection to Gaussian process latent variable models by showing that well-known kernels can be used to describe covariances implied by graph Laplacians. We also introduce tools with which similar dimensionality reduction methods can be studied.

arxiv情報

著者 Aditya Ravuri,Neil D. Lawrence
発行日 2025-05-02 14:24:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG, stat.ML | Towards One Model for Classical Dimensionality Reduction: A Probabilistic Perspective on UMAP and t-SNE はコメントを受け付けていません