要約
2023年、機械学習に関する国際会議(ICML)は、知覚された品質に基づいて提出をランク付けするために複数の提出を行う著者を要求しました。
この論文では、これらの著者指定のランキングを採用して、等張メカニズムを指数関数的な家族分布に拡張することにより、機械学習および人工知能会議のピアレビューを強化することを目指しています。
このメカニズムは、作成者指定のランキングを順守しながら、元のスコアと密接に整合する調整済みスコアを生成します。
幅広い指数関数的な家族分布への適用性にもかかわらず、このメカニズムを実装しても、特定の分布フォームの知識は必要ありません。
私たちは、著者が、彼女のユーティリティが調整されたレビュースコアの凸面添加関数の形をとるときに正確なランキングを提供するようにインセンティブ化されることを実証します。
指数関数的な家族分布の特定のサブクラスについて、著者は、質問が彼女の提出物間のペアワイズ比較のみを伴う場合にのみ正直に報告し、したがって真実の情報の誘発にランキングの最適性を示していることを証明します。
さらに、調整されたスコアは、元のスコアと比較して推定精度を劇的に改善し、グラウンドトゥルーススコアが総変動を縮小した場合にほぼミニマックスの最適性を達成することを示します。
ICML 2023ランキングデータの数値分析で結論を出し、等張メカニズムを使用して論文のプロキシグラウンドトゥルースの品質を近似する際の大幅な推定ゲインを示しています。
要約(オリジナル)
In 2023, the International Conference on Machine Learning (ICML) required authors with multiple submissions to rank their submissions based on perceived quality. In this paper, we aim to employ these author-specified rankings to enhance peer review in machine learning and artificial intelligence conferences by extending the Isotonic Mechanism to exponential family distributions. This mechanism generates adjusted scores that closely align with the original scores while adhering to author-specified rankings. Despite its applicability to a broad spectrum of exponential family distributions, implementing this mechanism does not require knowledge of the specific distribution form. We demonstrate that an author is incentivized to provide accurate rankings when her utility takes the form of a convex additive function of the adjusted review scores. For a certain subclass of exponential family distributions, we prove that the author reports truthfully only if the question involves only pairwise comparisons between her submissions, thus indicating the optimality of ranking in truthful information elicitation. Moreover, we show that the adjusted scores improve dramatically the estimation accuracy compared to the original scores and achieve nearly minimax optimality when the ground-truth scores have bounded total variation. We conclude with a numerical analysis of the ICML 2023 ranking data, showing substantial estimation gains in approximating a proxy ground-truth quality of the papers using the Isotonic Mechanism.
arxiv情報
著者 | Yuling Yan,Weijie J. Su,Jianqing Fan |
発行日 | 2025-02-11 15:50:27+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google