要約
Explainable AI (XAI) は、AI を人間にとって理解しやすく役立つものにすることを目的としていますが、形式主義と解決主義に依存しすぎ、ユーザーのニーズよりも数学的な健全性に重点を置いているとして批判されています。
私たちは、デザイン思考に触発されたこのボトムアップ アプローチの代替案を提案します。XAI 研究コミュニティは、ユーザーとの関連性を確保するために、トップダウンのユーザー中心の視点を採用する必要があります。
これを、XAI の比較的新しいサブフィールドであるトレーニング データ アトリビューション (TDA) で説明します。
TDA 研究の急増と競争の激化により、この分野は同じ解決主義のパターンを繰り返す危険があります。
私たちは、TDA に関連する潜在的なユーザー ニーズを特定するために、AI 実践者の多様なグループとニーズ調査調査を実施しました。
インタビュー (N=10) と体系的な調査 (N=31) を通じて、現在ほとんど見落とされている新しい TDA タスクを明らかにしました。
私たちは、TDA および XAI コミュニティに対して、これらの新しいタスクを検討し、研究成果のユーザー関連性を向上させるよう呼びかけます。
要約(オリジナル)
While Explainable AI (XAI) aims to make AI understandable and useful to humans, it has been criticised for relying too much on formalism and solutionism, focusing more on mathematical soundness than user needs. We propose an alternative to this bottom-up approach inspired by design thinking: the XAI research community should adopt a top-down, user-focused perspective to ensure user relevance. We illustrate this with a relatively young subfield of XAI, Training Data Attribution (TDA). With the surge in TDA research and growing competition, the field risks repeating the same patterns of solutionism. We conducted a needfinding study with a diverse group of AI practitioners to identify potential user needs related to TDA. Through interviews (N=10) and a systematic survey (N=31), we uncovered new TDA tasks that are currently largely overlooked. We invite the TDA and XAI communities to consider these novel tasks and improve the user relevance of their research outcomes.
arxiv情報
著者 | Elisa Nguyen,Johannes Bertram,Evgenii Kortukov,Jean Y. Song,Seong Joon Oh |
発行日 | 2024-09-25 14:40:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google