Peeking Inside the Schufa Blackbox: Explaining the German Housing Scoring System

要約

説明可能な人工知能は、統一されたソリューションを通じて複雑なアルゴリズムをユーザーに透過的にすることを目的とした概念です。
研究者らは、エンドユーザーに合わせた説明を開発するためにドメイン固有のコンテキストを統合することの重要性を強調しています。
この研究では、ドイツのシューファ住宅スコアリングシステムに焦点を当て、ユーザーの情報ニーズと説明への期待が役割に応じてどのように変化するかを調査します。
私たちは、投機的デザインのアプローチを使用して、ビジネス情報の学生に、テナントと家主の両方の視点から住宅信用スコアの説明を提供するユーザー インターフェイスを想像するように依頼しました。
私たちの予備的な調査結果は、すべてのユーザーに当てはまる一般的なニーズがある一方で、ユーザーの役割の実際の現実や信用スコアがユーザーに与える影響に応じて、矛盾するニーズも存在することを示唆しています。
ユーザーの役割や主体性を考慮し、ユーザーの説明ニーズを検討した今後の研究の方向性を提案することで、人間中心のXAI研究に貢献します。

要約(オリジナル)

Explainable Artificial Intelligence is a concept aimed at making complex algorithms transparent to users through a uniform solution. Researchers have highlighted the importance of integrating domain specific contexts to develop explanations tailored to end users. In this study, we focus on the Schufa housing scoring system in Germany and investigate how users information needs and expectations for explanations vary based on their roles. Using the speculative design approach, we asked business information students to imagine user interfaces that provide housing credit score explanations from the perspectives of both tenants and landlords. Our preliminary findings suggest that although there are general needs that apply to all users, there are also conflicting needs that depend on the practical realities of their roles and how credit scores affect them. We contribute to Human centered XAI research by proposing future research directions that examine users explanatory needs considering their roles and agencies.

arxiv情報

著者 Dean-Robin Kern,Gunnar Stevens,Erik Dethier,Sidra Naveed,Fatemeh Alizadeh,Delong Du,Md Shajalal
発行日 2023-11-22 14:57:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.HC パーマリンク