要約
多様なネットワーク スライスが共存する第 6 世代 (6G) ネットワークの状況では、AI 主導のゼロタッチ管理およびオーケストレーション (MANO) の導入が重要になります。
ただし、実際の導入において AI ブラックボックスの信頼性を確保することは困難です。
Explainable AI (XAI) ツールは、スライシング エコシステムの関係者間の透明性を確立する上で重要な役割を果たします。
しかし、AI のパフォーマンスと説明可能性の間にはトレードオフがあり、信頼できる 6G ネットワーク スライシングにとってジレンマが生じています。関係者は、効率的なリソース割り当てのための高性能 AI モデルと、公平性、説明責任、コンプライアンスを確保するための説明可能な意思決定の両方を必要としているからです。
このトレードオフのバランスをとり、閉ループ自動化と XAI 手法からインスピレーションを得たこの論文では、新しい説明ガイド付きインホックフェデレーテッド ラーニング (FL) アプローチを紹介します。このアプローチでは、制約付きリソース割り当てモデルと説明者が閉ループ (CL) 方式で機能のソフト属性と推論予測を交換し、非独立同一分散 (非 IID) データセット下の RAN エッジ設定で透過的な 6G ネットワーク スライシング リソース管理を実現します。
特に、ランタイム FL 最適化タスクにおけるトレーニング プロセス全体をガイドする制約として含まれる、いわゆるアトリビューションベースの信頼度メトリックを介して、説明の忠実性を定量的に検証します。
この点で、Integrated-Gradient (IG)、Input $\times$ Gradient、SHAP を使用して、提案するインホック スキームの属性を生成します。そのため、さまざまな方法でのシミュレーション結果により、パフォーマンスと説明可能性のトレードオフへの取り組みの成功と、制約のない Integrated-Gradient ポストホック FL ベースラインに対する優位性が確認されます。
要約(オリジナル)
In the context of sixth-generation (6G) networks, where diverse network slices coexist, the adoption of AI-driven zero-touch management and orchestration (MANO) becomes crucial. However, ensuring the trustworthiness of AI black-boxes in real deployments is challenging. Explainable AI (XAI) tools can play a vital role in establishing transparency among the stakeholders in the slicing ecosystem. But there is a trade-off between AI performance and explainability, posing a dilemma for trustworthy 6G network slicing because the stakeholders require both highly performing AI models for efficient resource allocation and explainable decision-making to ensure fairness, accountability, and compliance. To balance this trade off and inspired by the closed loop automation and XAI methodologies, this paper presents a novel explanation-guided in-hoc federated learning (FL) approach where a constrained resource allocation model and an explainer exchange — in a closed loop (CL) fashion — soft attributions of the features as well as inference predictions to achieve a transparent 6G network slicing resource management in a RAN-Edge setup under non-independent identically distributed (non-IID) datasets. In particular, we quantitatively validate the faithfulness of the explanations via the so-called attribution-based confidence metric that is included as a constraint to guide the overall training process in the run-time FL optimization task. In this respect, Integrated-Gradient (IG) as well as Input $\times$ Gradient and SHAP are used to generate the attributions for our proposed in-hoc scheme, wherefore simulation results under different methods confirm its success in tackling the performance-explainability trade-off and its superiority over the unconstrained Integrated-Gradient post-hoc FL baseline.
arxiv情報
著者 | Swastika Roy,Hatim Chergui,Christos Verikoukis |
発行日 | 2023-07-24 15:51:06+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google