要約
この論文では、FairSense-AI:テキストと画像の両方でバイアスを検出および緩和するように設計されたマルチモーダルフレームワークを紹介します。
大規模な言語モデル(LLMS)とビジョン言語モデル(VLM)を活用することにより、フェアセンス – aiは、コンテンツに表示される可能性のある偏見またはステレオタイプの微妙な形を発見し、ユーザーに公平性向上のためのバイアススコア、説明的強調、自動化された推奨事項を提供します。
さらに、FairSense-AIは、MIT AIリスクリポジトリやNIST AIリスク管理フレームワークなどのフレームワークと整合するAIリスク評価コンポーネントを統合し、倫理的および安全性の懸念の構造化された識別を可能にします。
このプラットフォームは、モデルの剪定や混合精度計算などの技術を介してエネルギー効率のために最適化されているため、環境フットプリントが削減されます。
一連のケーススタディとアプリケーションを通じて、公平性の社会的側面と大規模なAIの展開における持続可能性の差し迫った必要性の両方に対処することにより、フェアセンスがどのように責任あるAIの使用を促進するかを示します。
https://vectorinstitute.github.io/fairsense-ai、https://pypi.org/project/fair-sense-ai/
要約(オリジナル)
In this paper, we introduce FairSense-AI: a multimodal framework designed to detect and mitigate bias in both text and images. By leveraging Large Language Models (LLMs) and Vision-Language Models (VLMs), FairSense-AI uncovers subtle forms of prejudice or stereotyping that can appear in content, providing users with bias scores, explanatory highlights, and automated recommendations for fairness enhancements. In addition, FairSense-AI integrates an AI risk assessment component that aligns with frameworks like the MIT AI Risk Repository and NIST AI Risk Management Framework, enabling structured identification of ethical and safety concerns. The platform is optimized for energy efficiency via techniques such as model pruning and mixed-precision computation, thereby reducing its environmental footprint. Through a series of case studies and applications, we demonstrate how FairSense-AI promotes responsible AI use by addressing both the social dimension of fairness and the pressing need for sustainability in large-scale AI deployments. https://vectorinstitute.github.io/FairSense-AI, https://pypi.org/project/fair-sense-ai/ (Sustainability , Responsible AI , Large Language Models , Vision Language Models , Ethical AI , Green AI)
arxiv情報
著者 | Shaina Raza,Mukund Sayeeganesh Chettiar,Matin Yousefabadi,Tahniat Khan,Marcelo Lotif |
発行日 | 2025-03-05 16:24:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google