要約
タイトル:FairPilot:公正性の観点からのハイパーパラメーターチューニングを探索するためのシステム
要約:
– 機械学習(ML)が高リスク決定領域での潜在的な利点を持っているにもかかわらず、MLの展開が実践者にとってアクセス可能でなく、差別的なリスクがある。
– このような領域でMLツールの民主化と公正性の考慮が重要であるため、これらの問題に取り組むFairPilotというインタラクティブシステムを紹介する。
– FairPilotは、さまざまなモデル、異なるハイパーパラメーター、および広範な公正性定義の組み合わせを探索することによってMLモデルの責任ある開発を促進するよう設計されている。
– 「最適な」MLモデルを選択するという課題を強調し、FairPilotがユーザーが評価基準のセットを選択して、モデルとハイパーパラメーターのParetoフロンティアをインタラクティブなマップとして表示することができるようにする点を示す。
– FairPilotは、これらの機能を組み合わせた最初のシステムであり、ユーザーが責任あるモデルを選択するためのユニークな機会を提供する。
要約(オリジナル)
Despite the potential benefits of machine learning (ML) in high-risk decision-making domains, the deployment of ML is not accessible to practitioners, and there is a risk of discrimination. To establish trust and acceptance of ML in such domains, democratizing ML tools and fairness consideration are crucial. In this paper, we introduce FairPilot, an interactive system designed to promote the responsible development of ML models by exploring a combination of various models, different hyperparameters, and a wide range of fairness definitions. We emphasize the challenge of selecting the “best’ ML model and demonstrate how FairPilot allows users to select a set of evaluation criteria and then displays the Pareto frontier of models and hyperparameters as an interactive map. FairPilot is the first system to combine these features, offering a unique opportunity for users to responsibly choose their model.
arxiv情報
著者 | Francesco Di Carlo,Nazanin Nezami,Hadis Anahideh,Abolfazl Asudeh |
発行日 | 2023-04-10 15:54:18+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI