Diversity matters: Robustness of bias measurements in Wikidata

要約

さまざまな自動化された AI システムやアプリケーションでナレッジ グラフ (KG) が広く使用されているため、それらを活用する情報検索アルゴリズムが社会的偏見から解放されていることを確認することが非常に重要です。
以前の作品では、KG に持続するバイアスが描かれており、バイアスを測定するためにいくつかの指標が採用されていました。
ただし、このような研究には、さまざまなデータ ソースや使用される埋め込みアルゴリズムによるバイアス測定の感度の体系的な調査が欠けています。
この研究のギャップに対処するために、この作業では、ナレッジグラフでのバイアス測定の全体論的分析を提示します。
まず、7 つの大陸から選択された 13 の異なる人口統計について、ウィキデータで表面化するデータの偏りを明らかにしようとします。
次に、2 つの異なるナレッジ グラフ埋め込みアルゴリズム (TransE と ComplEx) によるバイアスの検出における分散を展開しようとします。
私たちは、13 の人口統計学からサンプリングされた多数の職業について、センシティブな属性、つまり性別に関して広範な実験を行っています。
私たちの結果は、KGに持続する固有のデータバイアスが、KG埋め込み学習アルゴリズムによって組み込まれた特定のアルゴリズムバイアスによって変更できることを示しています。
さらに、最先端の KG 埋め込みアルゴリズムの選択が、性別に関係なく偏った職業のランキングに強い影響を与えることを示します。
人口統計全体で偏った職業の類似性は最小限であり、これは世界中の社会文化的な違いを反映していることがわかります。
バイアス測定パイプラインのこの本格的な監査は、データとアルゴリズムの両方の設計上の選択に関連する洞察を導き出し、「万能型」という一般的な定説を控えながら、コミュニティの間で意識を高めると信じています。

要約(オリジナル)

With the widespread use of knowledge graphs (KG) in various automated AI systems and applications, it is very important to ensure that information retrieval algorithms leveraging them are free from societal biases. Previous works have depicted biases that persist in KGs, as well as employed several metrics for measuring the biases. However, such studies lack the systematic exploration of the sensitivity of the bias measurements, through varying sources of data, or the embedding algorithms used. To address this research gap, in this work, we present a holistic analysis of bias measurement on the knowledge graph. First, we attempt to reveal data biases that surface in Wikidata for thirteen different demographics selected from seven continents. Next, we attempt to unfold the variance in the detection of biases by two different knowledge graph embedding algorithms – TransE and ComplEx. We conduct our extensive experiments on a large number of occupations sampled from the thirteen demographics with respect to the sensitive attribute, i.e., gender. Our results show that the inherent data bias that persists in KG can be altered by specific algorithm bias as incorporated by KG embedding learning algorithms. Further, we show that the choice of the state-of-the-art KG embedding algorithm has a strong impact on the ranking of biased occupations irrespective of gender. We observe that the similarity of the biased occupations across demographics is minimal which reflects the socio-cultural differences around the globe. We believe that this full-scale audit of the bias measurement pipeline will raise awareness among the community while deriving insights related to design choices of data and algorithms both and refrain from the popular dogma of “one-size-fits-all”.

arxiv情報

著者 Paramita Das,Sai Keerthana Karnam,Anirban Panda,Bhanu Prakash Reddy Guda,Soumya Sarkar,Animesh Mukherjee
発行日 2023-02-27 18:38:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CY, cs.IR, cs.LG パーマリンク