Large Language Models for Multi-Facility Location Mechanism Design

要約

エージェントの好みに基づいてソーシャルコストを最適化する多目的位置のための戦略的なメカニズムの設計は、必要な広範なドメイン知識と最悪のケースの保証が低いために困難でした。
最近、ディープラーニングモデルが代替案として提案されています。
ただし、これらのモデルには、ドメインの知識と広範なハイパーパラメーターの調整、および解釈可能性が不足している必要があります。これは、学習メカニズムの透明性が必須である場合に実際に重要です。
この論文では、LLMMECHという名前の新しいアプローチを紹介します。これは、大規模な言語モデル(LLM)を、解釈可能なハイパーパラメーターフリー、経験的に戦略的、ほぼ最適なメカニズムを生成するための進化的フレームワークに組み込むことにより、これらの制限に対処します。
私たちの実験結果は、社会的コストがエージェント全体で任意に重み付けされ、エージェントの好みが均一に分布していないさまざまな問題設定で評価され、LLM生成メカニズムが一般に既存の手作りのベースラインと深い学習モデルを上回ることを示しています。
さらに、このメカニズムは、分散剤の好みと、より多くのエージェントを持つより大きなインスタンスに印象的な一般化可能性を示します。

要約(オリジナル)

Designing strategyproof mechanisms for multi-facility location that optimize social costs based on agent preferences had been challenging due to the extensive domain knowledge required and poor worst-case guarantees. Recently, deep learning models have been proposed as alternatives. However, these models require some domain knowledge and extensive hyperparameter tuning as well as lacking interpretability, which is crucial in practice when transparency of the learned mechanisms is mandatory. In this paper, we introduce a novel approach, named LLMMech, that addresses these limitations by incorporating large language models (LLMs) into an evolutionary framework for generating interpretable, hyperparameter-free, empirically strategyproof, and nearly optimal mechanisms. Our experimental results, evaluated on various problem settings where the social cost is arbitrarily weighted across agents and the agent preferences may not be uniformly distributed, demonstrate that the LLM-generated mechanisms generally outperform existing handcrafted baselines and deep learning models. Furthermore, the mechanisms exhibit impressive generalizability to out-of-distribution agent preferences and to larger instances with more agents.

arxiv情報

著者 Nguyen Thach,Fei Liu,Houyu Zhou,Hau Chan
発行日 2025-03-12 16:49:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク