要約
トランスベースのモデルの不透明な性質は、特にユーザー インターフェイスのダーク パターンなどの非倫理的な行為の影響を受けやすいアプリケーションでは、予測の信頼性を高めるために不確実性の定量化を統合したモデルを必要とします。
この研究は、ダークパターンの検出、つまりユーザーの意思決定を操作し、自主性と同意を損なう欺瞞的な設計の選択に焦点を当てています。
トランスフォーマーベースの事前トレーニング済みモデルによる不確実性の定量化を介して、最終分類ヘッドで実装される差分微調整アプローチを提案します。
ベースラインとして高密度ニューラル ネットワーク (DNN) ヘッド アーキテクチャを採用し、不確実性を定量化できる 2 つの方法、スペクトル正規化ニューラル ガウス プロセス (SNGP) とベイジアン ニューラル ネットワーク (BNN) を検証します。
これらの手法は、モデルのパフォーマンス、予測の確実性のばらつき、トレーニングおよび推論フェーズでの環境への影響など、複数の側面にわたってオープンソースの基礎モデルのセットに基づいて評価されます。
結果は、不確実性の定量化を統合することでパフォーマンスを維持しながら、モデル内の困難なインスタンスに対する洞察を提供できることを示しています。
さらに、この研究は、不確実性の定量化手法を導入しても環境への影響が一律に増加するわけではないことを明らかにしています。
この研究結果は、不確実性の定量化により透明性が向上し、予測に測定可能な信頼性がもたらされ、ブラックボックス モデルの説明可能性と明確さが向上することを示しています。
これにより、情報に基づいた意思決定が容易になり、ユーザー インターフェイスに対するダーク パターンの影響が軽減されます。
これらの結果は、特に解釈可能性と信頼性が重要な領域において、機械学習モデルの開発に不確実性の定量化手法を組み込むことの重要性を浮き彫りにしています。
要約(オリジナル)
The opaque nature of transformer-based models, particularly in applications susceptible to unethical practices such as dark-patterns in user interfaces, requires models that integrate uncertainty quantification to enhance trust in predictions. This study focuses on dark-pattern detection, deceptive design choices that manipulate user decisions, undermining autonomy and consent. We propose a differential fine-tuning approach implemented at the final classification head via uncertainty quantification with transformer-based pre-trained models. Employing a dense neural network (DNN) head architecture as a baseline, we examine two methods capable of quantifying uncertainty: Spectral-normalized Neural Gaussian Processes (SNGPs) and Bayesian Neural Networks (BNNs). These methods are evaluated on a set of open-source foundational models across multiple dimensions: model performance, variance in certainty of predictions and environmental impact during training and inference phases. Results demonstrate that integrating uncertainty quantification maintains performance while providing insights into challenging instances within the models. Moreover, the study reveals that the environmental impact does not uniformly increase with the incorporation of uncertainty quantification techniques. The study’s findings demonstrate that uncertainty quantification enhances transparency and provides measurable confidence in predictions, improving the explainability and clarity of black-box models. This facilitates informed decision-making and mitigates the influence of dark-patterns on user interfaces. These results highlight the importance of incorporating uncertainty quantification techniques in developing machine learning models, particularly in domains where interpretability and trustworthiness are critical.
arxiv情報
著者 | Javier Muñoz,Álvaro Huertas-García,Carlos Martí-González,Enrique De Miguel Ambite |
発行日 | 2024-12-06 18:31:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google