A Fairness-Oriented Reinforcement Learning Approach for the Operation and Control of Shared Micromobility Services

要約

機械学習の人気がさまざまな分野で高まるにつれ、AI コミュニティでは公平性が重要な焦点になっています。
ただし、スマート モビリティにおいては、公平性を重視したアプローチはまだ十分に検討されていません。
このギャップに対処するために、私たちの研究では、強化学習に基づく新しいフレームワークを提供する共有マイクロモビリティ サービスにおけるパフォーマンスの最適化とアルゴリズムの公平性の間のバランスを調査しています。
Q ラーニングを活用することで、提案された方法論は、中心ハブからの距離によって特徴付けられるさまざまなエリアにわたって、ジニ指数に関して公平な結果を達成します。
提供されるスキームは、車両のリバランスを通じて、ユーザーの公平原則を確保しながらオペレーターのパフォーマンスを最大化し、不法行為を最大 85% 削減しながら、コストの増加は 30% のみに留めます (資本調整を適用しない場合)。
合成データを使用したケーススタディは、私たちの洞察を検証し、都市マイクロモビリティにおける公平性の重要性を強調しています (ソースコード: https://github.com/mcederle99/FairMSS.git)。

要約(オリジナル)

As Machine Learning grows in popularity across various fields, equity has become a key focus for the AI community. However, fairness-oriented approaches are still underexplored in smart mobility. Addressing this gap, our study investigates the balance between performance optimization and algorithmic fairness in shared micromobility services providing a novel framework based on Reinforcement Learning. Exploiting Q-learning, the proposed methodology achieves equitable outcomes in terms of the Gini index across different areas characterized by their distance from central hubs. Through vehicle rebalancing, the provided scheme maximizes operator performance while ensuring fairness principles for users, reducing iniquity by up to 85% while only increasing costs by 30% (w.r.t. applying no equity adjustment). A case study with synthetic data validates our insights and highlights the importance of fairness in urban micromobility (source code: https://github.com/mcederle99/FairMSS.git).

arxiv情報

著者 Matteo Cederle,Luca Vittorio Piron,Marina Ceccon,Federico Chiariotti,Alessandro Fabris,Marco Fabris,Gian Antonio Susto
発行日 2025-01-17 18:42:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CY, cs.LG, cs.SY, eess.SY パーマリンク