Behave-XAI: Deep Explainable Learning of Behavioral Representational Data

要約

人工知能の最新の傾向によれば、AI システムは、一般的、具体的な決定、AI が提供するサービスについて明確にする必要があります。
たとえば、ある分類結果がなぜその時点の結果であるのかなどの説明を受けて満足できるのは消費者だけです。
これは、実際に、行動マイニング シナリオに説明可能な、または人間が理解できる AI を使用する動機付けになっており、デジタル プラットフォームでのユーザーのエンゲージメントは、感情、アクティビティ、天気などのコンテキストから決定されます。ただし、AI システムの出力が常に体系的に正しいとは限りません。
、体系的には正しいことが多いですが、明らかに完璧ではないため、なぜその決定が下されるのかなどの混乱が生じます。
その根底にある理由は何でしょうか?
これに関連して、まず、ディープ畳み込みニューラル ネットワーク アーキテクチャで動作マイニング問題を定式化します。
最終的には、ユーザーの生理学的および環境センサーの読み取り値からの時系列データの存在により、再帰的ニューラル ネットワークを適用します。
モデルが開発されると、XAI モデルの登場とともにユーザーの前で説明が行われます。
この重要なステップには、ユーザーが従来の AI よりも説明を好み、説明の信頼性を判断する広範なトライアルが含まれます。

要約(オリジナル)

According to the latest trend of artificial intelligence, AI-systems needs to clarify regarding general,specific decisions,services provided by it. Only consumer is satisfied, with explanation , for example, why any classification result is the outcome of any given time. This actually motivates us using explainable or human understandable AI for a behavioral mining scenario, where users engagement on digital platform is determined from context, such as emotion, activity, weather, etc. However, the output of AI-system is not always systematically correct, and often systematically correct, but apparently not-perfect and thereby creating confusions, such as, why the decision is given? What is the reason underneath? In this context, we first formulate the behavioral mining problem in deep convolutional neural network architecture. Eventually, we apply a recursive neural network due to the presence of time-series data from users physiological and environmental sensor-readings. Once the model is developed, explanations are presented with the advent of XAI models in front of users. This critical step involves extensive trial with users preference on explanations over conventional AI, judgement of credibility of explanation.

arxiv情報

著者 Rossi Kamal,Zuzana Kubincova
発行日 2024-03-19 16:07:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク