要約
人工知能(AI)モデルのバイアスは、性別や人種などの機密特性に基づいてグループや個人を区別する自動意思決定プロセスにつながる可能性があります。
さまざまなAIモデルのバイアスの診断と緩和に関する多くの研究がありますが、グラフニューラルネットワーク(GNNS)の個々の公平性に関する研究はほとんどありません。
データ機能を独立して扱い、相互関係を見落とす従来のモデルとは異なり、GNNはノードが相互接続されているグラフベースの構造をキャプチャするように設計されています。
このリレーショナルアプローチにより、GNNは複雑な依存関係をモデル化できますが、バイアスがこれらの接続を通じて伝播し、個々の公平性違反の検出と緩和を複雑にすることも意味します。
このPhDプロジェクトは、GNNの個々の公平性を評価および確保するためのテストフレームワークを開発することを目的としています。
最初に、個々の公平性に関する文献を体系的にレビューし、既存のアプローチを分類してモデルバイアスを定義、測定、テスト、および軽減し、個々の公平性の分類を作成します。
次に、プロジェクトは、現在の公平性テストと緩和手法を適応させ、拡張することにより、GNNの公平性をテストおよび確保するためのフレームワークを開発します。
フレームワークは、グラフベースの大手言語モデルに焦点を当てた産業ケーススタディを通じて評価されます。
要約(オリジナル)
The biases in artificial intelligence (AI) models can lead to automated decision-making processes that discriminate against groups and/or individuals based on sensitive properties such as gender and race. While there are many studies on diagnosing and mitigating biases in various AI models, there is little research on individual fairness in Graph Neural Networks (GNNs). Unlike traditional models, which treat data features independently and overlook their inter-relationships, GNNs are designed to capture graph-based structure where nodes are interconnected. This relational approach enables GNNs to model complex dependencies, but it also means that biases can propagate through these connections, complicating the detection and mitigation of individual fairness violations. This PhD project aims to develop a testing framework to assess and ensure individual fairness in GNNs. It first systematically reviews the literature on individual fairness, categorizing existing approaches to define, measure, test, and mitigate model biases, creating a taxonomy of individual fairness. Next, the project will develop a framework for testing and ensuring fairness in GNNs by adapting and extending current fairness testing and mitigation techniques. The framework will be evaluated through industrial case studies, focusing on graph-based large language models.
arxiv情報
著者 | Roya Nasiri |
発行日 | 2025-04-25 13:45:24+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google