Robust Graph Learning Against Adversarial Evasion Attacks via Prior-Free Diffusion-Based Structure Purification

要約

敵対的な回避攻撃は、グラフニューラルネットワーク(GNNS)の堅牢性を改善した研究のラインとともに、グラフ学習に大きな脅威をもたらします。
ただし、既存の作品は、クリーンなグラフや攻撃戦略について事前に依存しています。
さまざまな種類の回避攻撃と多様なデータセットにわたって堅牢なグラフ学習を実現するために、この問題を以前の構造浄化の観点から調査します。
具体的には、diffSPという名前の新しい拡散ベースの構造精製フレームワークを提案します。これは、グラフ拡散モデルを創造的に組み込み、清潔なグラフの固有の分布を学習し、プライアーに頼らずに捕獲された予測パターンの方向の下で敵を除去することにより乱暴な構造を浄化します。
DIFFSPは、順方向拡散プロセスと逆除去プロセスに分割され、その間に構造精製が達成されます。
前方プロセス中の貴重な情報の損失を回避するために、蓋をしている非異所性拡散メカニズムを提案して、非異方性ノイズを選択的に注入します。
逆プロセス中に生成されたクリーングラフと精製グラフの間のセマンティックアライメントを促進するために、提案されたグラフ転送エントロピーガイド除去メカニズムにより、生成の不確実性を減らします。
広範な実験は、回避攻撃に対するdiffSPの優れた堅牢性を示しています。

要約(オリジナル)

Adversarial evasion attacks pose significant threats to graph learning, with lines of studies that have improved the robustness of Graph Neural Networks (GNNs). However, existing works rely on priors about clean graphs or attacking strategies, which are often heuristic and inconsistent. To achieve robust graph learning over different types of evasion attacks and diverse datasets, we investigate this problem from a prior-free structure purification perspective. Specifically, we propose a novel Diffusion-based Structure Purification framework named DiffSP, which creatively incorporates the graph diffusion model to learn intrinsic distributions of clean graphs and purify the perturbed structures by removing adversaries under the direction of the captured predictive patterns without relying on priors. DiffSP is divided into the forward diffusion process and the reverse denoising process, during which structure purification is achieved. To avoid valuable information loss during the forward process, we propose an LID-driven nonisotropic diffusion mechanism to selectively inject noise anisotropically. To promote semantic alignment between the clean graph and the purified graph generated during the reverse process, we reduce the generation uncertainty by the proposed graph transfer entropy guided denoising mechanism. Extensive experiments demonstrate the superior robustness of DiffSP against evasion attacks.

arxiv情報

著者 Jiayi Luo,Qingyun Sun,Haonan Yuan,Xingcheng Fu,Jianxin Li
発行日 2025-02-07 15:21:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | Robust Graph Learning Against Adversarial Evasion Attacks via Prior-Free Diffusion-Based Structure Purification はコメントを受け付けていません

A New Paradigm in Tuning Learned Indexes: A Reinforcement Learning Enhanced Approach

要約

学習インデックス構造(LIS)は、機械学習モデルを活用してデータインデックスを最適化することにより、データ管理を大幅に高度にしています。
ただし、これらの構造を設計するには、多くの場合、重要なトレードオフが含まれるため、デザイナーとエンドユーザーの両方が特定のワークロードとシナリオに合わせた最適なバランスを見つけることが困難になります。
いくつかのインデックスは、集中的なマニュアルチューニングを必要とする調整可能なパラメーターを提供しますが、他のインデックスは、最適なパフォーマンスを一貫して提供しない場合があるヒューリスティックな自動チューナーまたは専門知識に基づいて固定構成に依存しています。
このペーパーでは、学習したインデックス構造のエンドツーエンドの自動チューニングの新しいフレームワークであるLituneを紹介します。
Lituneは、安定した効率的なチューニングを確保するために、テーラーメイドのディープ補強学習(DRL)アプローチを備えた適応型トレーニングパイプラインを採用しています。
オンラインチューニングから生じる長期的なダイナミクスに対応するために、O2システムと呼ばれるオンザフライ更新メカニズムでLituneをさらに強化します。
これらの革新により、Lituneはオンラインチューニングシナリオで州の移行を効果的にキャプチャし、データ分布とワークロードの変更に動的に調整し、他のチューニング方法よりも大幅に改善されます。
実験結果は、選択した学習インデックスインスタンスを考慮して、デフォルトのパラメーター設定と比較して、リチューンがランタイムが最大98%減少し、スループットの17倍の増加を達成することを示しています。
これらの調査結果は、Lituneの有効性と、実際のアプリケーションにおけるLISのより広範な採用を促進する可能性を強調しています。

要約(オリジナル)

Learned Index Structures (LIS) have significantly advanced data management by leveraging machine learning models to optimize data indexing. However, designing these structures often involves critical trade-offs, making it challenging for both designers and end-users to find an optimal balance tailored to specific workloads and scenarios. While some indexes offer adjustable parameters that demand intensive manual tuning, others rely on fixed configurations based on heuristic auto-tuners or expert knowledge, which may not consistently deliver optimal performance. This paper introduces LITune, a novel framework for end-to-end automatic tuning of Learned Index Structures. LITune employs an adaptive training pipeline equipped with a tailor-made Deep Reinforcement Learning (DRL) approach to ensure stable and efficient tuning. To accommodate long-term dynamics arising from online tuning, we further enhance LITune with an on-the-fly updating mechanism termed the O2 system. These innovations allow LITune to effectively capture state transitions in online tuning scenarios and dynamically adjust to changing data distributions and workloads, marking a significant improvement over other tuning methods. Our experimental results demonstrate that LITune achieves up to a 98% reduction in runtime and a 17-fold increase in throughput compared to default parameter settings given a selected Learned Index instance. These findings highlight LITune’s effectiveness and its potential to facilitate broader adoption of LIS in real-world applications.

arxiv情報

著者 Taiyi Wang,Liang Liang,Guang Yang,Thomas Heinis,Eiko Yoneki
発行日 2025-02-07 15:22:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.DB, cs.SY, eess.SY | A New Paradigm in Tuning Learned Indexes: A Reinforcement Learning Enhanced Approach はコメントを受け付けていません

Analyzing Advanced AI Systems Against Definitions of Life and Consciousness

要約

人工知能は、機能的な意味で真に意識することができました。
このペーパーでは、適応性のある自己維持、緊急の複雑さ、初歩的な自己参照モデリングなどの経験的特徴を備えた古典的な生物学的基準(Oxford、NASA、Kosland)を統一する概念であるLens of Lifeを介したオープンエンドの質問を探ります。
高度なAIシステムが意識を獲得したかどうかを調べるための多くのメトリックを提案し、すべてのAIステムが意識的になると主張するわけではないことを強調します。
むしろ、妨害防止、自己認識の類似物、またはメタ認知の更新のような免疫を示す十分に高度なアーキテクチャが、生命のようなものや意識のような特性に似た重要なしきい値を超える可能性があることを提案します。
これらのアイデアを実証するために、適応的な自己メンテナンス能力を評価し、制御されたデータ腐敗の妨害行為をトレーニングプロセスに導入することから始めます。
結果は、これらの矛盾を検出し、再生生物学的プロセスに類似した自己修正を検出するAI能力を示しています。
また、動物に触発されたミラー自己認識テストを神経埋め込みに適応させ、部分的に訓練されたCNNが完全な正確さで自己を外来機能と区別できることを発見しました。
次に、5つの最先端のチャットボット(ChatGpt4、Gemini、Perplexity、Claude、およびCopilot)で質問ベースのミラーテストを実行して分析を拡張し、他の回答と比較して自分の答えを認識する能力を実証しました。
チャットボット。

要約(オリジナル)

Could artificial intelligence ever become truly conscious in a functional sense; this paper explores that open-ended question through the lens of Life, a concept unifying classical biological criteria (Oxford, NASA, Koshland) with empirical hallmarks such as adaptive self maintenance, emergent complexity, and rudimentary self referential modeling. We propose a number of metrics for examining whether an advanced AI system has gained consciousness, while emphasizing that we do not claim all AI stems can become conscious. Rather, we suggest that sufficiently advanced architectures exhibiting immune like sabotage defenses, mirror self-recognition analogs, or meta-cognitive updates may cross key thresholds akin to life-like or consciousness-like traits. To demonstrate these ideas, we start by assessing adaptive self-maintenance capability, and introduce controlled data corruption sabotage into the training process. The result demonstrates AI capability to detect these inconsistencies and revert or self-correct analogous to regenerative biological processes. We also adapt an animal-inspired mirror self recognition test to neural embeddings, finding that partially trained CNNs can distinguish self from foreign features with complete accuracy. We then extend our analysis by performing a question-based mirror test on five state-of-the-art chatbots (ChatGPT4, Gemini, Perplexity, Claude, and Copilot) and demonstrated their ability to recognize their own answers compared to those of the other chatbots.

arxiv情報

著者 Azadeh Alavi,Hossein Akhoundi,Fatemeh Kouchmeshki
発行日 2025-02-07 15:27:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI | Analyzing Advanced AI Systems Against Definitions of Life and Consciousness はコメントを受け付けていません

Bridging Voting and Deliberation with Algorithms: Field Insights from vTaiwan and Kultur Komitee

要約

民主的なプロセスは、大規模な投票を対面の審議と統合することをますます目指しており、個人の好みを集合的な意思決定と調和させるという課題に対処することを目指しています。
この作業では、アルゴリズムと計算ツールを使用して、2つの現実世界のシナリオでテストされた対面審議でオンライン投票を埋めるための新しい方法を紹介します:Kultur Komitee 2024(KK24)とVtaiwan。
これらのケーススタディは、提案された方法の実用的なアプリケーションと影響を強調しています。
3つの重要な貢献を提示します。(1)好みベースのサブグループのラジアルクラスタリング。これにより、バランスのとれた調整可能なグループサイズで均質および不​​均一なグループ組成を計算することにより、審議設定で詳細な議論と幅広い議論が可能になります。
(2)Human-in-the-Loop MES、リアルタイムのデジタルフィードバックを備えた株式(MES)アルゴリズムの方法を強化する実用的な方法。
これにより、参加者は、審議と比較して投票集約アルゴリズムに委任される意思決定の量を完全に制御できるようにすることにより、アルゴリズムの信頼を構築します。
(3)審議スペースマッピングを使用して合意と発散を識別するReadThoroom審議方法、および審議中の意見の変化を追跡するためのスペクトルベースの優先視覚化。
このアプローチは、集団的感情を明らかにすることにより透明性を高め、参加者が異なる視点に建設的に関与することを奨励することでコラボレーションを促進します。
これらの実用的なフレームワークを導入することにより、この研究は、参加型プロセスにおける最新の意思決定の複雑さに対処するスケーラブルなデジタル方法で対面審議を拡張します。

要約(オリジナル)

Democratic processes increasingly aim to integrate large-scale voting with face-to-face deliberation, addressing the challenge of reconciling individual preferences with collective decision-making. This work introduces new methods that use algorithms and computational tools to bridge online voting with face-to-face deliberation, tested in two real-world scenarios: Kultur Komitee 2024 (KK24) and vTaiwan. These case studies highlight the practical applications and impacts of the proposed methods. We present three key contributions: (1) Radial Clustering for Preference Based Subgroups, which enables both in-depth and broad discussions in deliberative settings by computing homogeneous and heterogeneous group compositions with balanced and adjustable group sizes; (2) Human-in-the-loop MES, a practical method that enhances the Method of Equal Shares (MES) algorithm with real-time digital feedback. This builds algorithmic trust by giving participants full control over how much decision-making is delegated to the voting aggregation algorithm as compared to deliberation; and (3) the ReadTheRoom deliberation method, which uses opinion space mapping to identify agreement and divergence, along with spectrum-based preference visualisation to track opinion shifts during deliberation. This approach enhances transparency by clarifying collective sentiment and fosters collaboration by encouraging participants to engage constructively with differing perspectives. By introducing these actionable frameworks, this research extends in-person deliberation with scalable digital methods that address the complexities of modern decision-making in participatory processes.

arxiv情報

著者 Joshua C. Yang,Fynn Bachmann
発行日 2025-02-07 15:45:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T01, 68T20, 68U35, 91A12, 91B12, 91B14, cs.AI, cs.HC, econ.GN, H.5.3, q-fin.EC | Bridging Voting and Deliberation with Algorithms: Field Insights from vTaiwan and Kultur Komitee はコメントを受け付けていません

Federated Learning for Anomaly Detection in Energy Consumption Data: Assessing the Vulnerability to Adversarial Attacks

要約

エネルギーセクターでは、機器の障害、エネルギー盗難、またはその他の問題を示す不規則なパターンを特定するために、異常検出が重要です。
異常検出のための機械学習手法は大きな成功を収めていますが、通常は集中化されており、プライバシーとセキュリティの懸念を引き起こす中央サーバーとローカルデータを共有することが含まれます。
Federated Learning(FL)は、ローカルデータを共有せずに分散学習を可能にするため、人気を集めています。
ただし、FLはニューラルネットワークに依存しています。ニューラルネットワークは、データを操作する敵対的な攻撃に対して脆弱であり、モデルをリードして誤った予測を行います。
画像ドメインでは敵対的な攻撃が調査されていますが、特にエネルギードメインでは、時系列の問題ではほとんど説明されていません。
さらに、FL設定における敵対的な攻撃の影響もほとんど不明です。
このペーパーでは、エネルギーデータにおけるFLベースの異常検出の敵対的攻撃に対する脆弱性を評価します。
具体的には、2つの最先端のモデル、長期記憶(LSTM)と変圧器を使用して、FL設定で異常を検出し、2つのホワイトボックス攻撃方法、高速勾配標識メソッド(FGSM)と投影勾配
降下(PGD)は、データを摂動するために使用されます。
結果は、FLがFGSM攻撃よりもPGD攻撃に対してより敏感であり、PGDの反復的性質に起因していることを示しており、その結果、素朴で弱い攻撃があっても精度が10%以上低下します。
さらに、FLは集中学習よりもこれらの攻撃の影響を受け、FLの防衛メカニズムの必要性を強調しています。

要約(オリジナル)

Anomaly detection is crucial in the energy sector to identify irregular patterns indicating equipment failures, energy theft, or other issues. Machine learning techniques for anomaly detection have achieved great success, but are typically centralized, involving sharing local data with a central server which raises privacy and security concerns. Federated Learning (FL) has been gaining popularity as it enables distributed learning without sharing local data. However, FL depends on neural networks, which are vulnerable to adversarial attacks that manipulate data, leading models to make erroneous predictions. While adversarial attacks have been explored in the image domain, they remain largely unexplored in time series problems, especially in the energy domain. Moreover, the effect of adversarial attacks in the FL setting is also mostly unknown. This paper assesses the vulnerability of FL-based anomaly detection in energy data to adversarial attacks. Specifically, two state-of-the-art models, Long Short Term Memory (LSTM) and Transformers, are used to detect anomalies in an FL setting, and two white-box attack methods, Fast Gradient Sign Method (FGSM) and Projected Gradient Descent (PGD), are employed to perturb the data. The results show that FL is more sensitive to PGD attacks than to FGSM attacks, attributed to PGD’s iterative nature, resulting in an accuracy drop of over 10% even with naive, weaker attacks. Moreover, FL is more affected by these attacks than centralized learning, highlighting the need for defense mechanisms in FL.

arxiv情報

著者 Yohannis Kifle Telila,Damitha Senevirathne,Dumindu Tissera,Apurva Narayan,Miriam A. M. Capretz,Katarina Grolinger
発行日 2025-02-07 16:08:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68, cs.AI, cs.DC, cs.LG, I.2 | Federated Learning for Anomaly Detection in Energy Consumption Data: Assessing the Vulnerability to Adversarial Attacks はコメントを受け付けていません

Conversation Routines: A Prompt Engineering Framework for Task-Oriented Dialog Systems

要約

この研究では、大規模な言語モデル(LLM)を使用してタスク指向のダイアログシステムを開発するための構造化されたプロンプトエンジニアリングフレームワークである会話ルーチン(CR)を紹介します。
LLMは顕著な自然言語理解能力を示していますが、複雑なビジネスワークフローを確実に実行するためにそれらを設計することは依然として困難です。
提案されたCRフレームワークにより、自然言語仕様を通じて会話エージェントシステム(CAS)の開発が可能になり、LLMプロンプトにタスク指向のロジックを埋め込みます。
このアプローチは、行動の一貫性を維持しながら、複雑な会話ワークフローを設計および実装するための体系的な方法論を提供します。
2つの概念実装の実装を通じてフレームワークの有効性を実証します:列車のチケット予約システムとインタラクティブなトラブルシューティングカピロー。
これらのケーススタディは、自然な会話の柔軟性を維持しながら、洗練された行動パターンと決定論理をエンコードするCRの能力を検証します。
結果は、CRがソフトウェアエンジニアによって開発されたカスタム関数(ツール)を活用しながら、ドメインの専門家が自然言語で会話のワークフローを設計できることを示しており、開発者がコアAPI実装に焦点を当て、ドメインの専門家が会話のデザインを処理する効率的な責任の分割を作成します。
フレームワークはアクセシビリティと適応性の有望を示していますが、計算オーバーヘッド、非決定論的行動、ドメイン固有のロジック最適化などの重要な課題を特定します。
将来の研究の方向性には、目標指向のグレーディング基準によって駆動される迅速なエンジニアリングフレームワークに基づくCR評価方法、複雑なマルチエージェント相互作用のスケーラビリティの向上、および多様なビジネスアプリケーション全体の特定された制限に対処するためのシステムの堅牢性の向上が含まれます。

要約(オリジナル)

This study introduces Conversation Routines (CR), a structured prompt engineering framework for developing task-oriented dialog systems using Large Language Models (LLMs). While LLMs demonstrate remarkable natural language understanding capabilities, engineering them to reliably execute complex business workflows remains challenging. The proposed CR framework enables the development of Conversation Agentic Systems (CAS) through natural language specifications, embedding task-oriented logic within LLM prompts. This approach provides a systematic methodology for designing and implementing complex conversational workflows while maintaining behavioral consistency. We demonstrate the framework’s effectiveness through two proof-of-concept implementations: a Train Ticket Booking System and an Interactive Troubleshooting Copilot. These case studies validate CR’s capability to encode sophisticated behavioral patterns and decision logic while preserving natural conversational flexibility. Results show that CR enables domain experts to design conversational workflows in natural language while leveraging custom functions (tools) developed by software engineers, creating an efficient division of responsibilities where developers focus on core API implementation and domain experts handle conversation design. While the framework shows promise in accessibility and adaptability, we identify key challenges including computational overhead, non-deterministic behavior, and domain-specific logic optimization. Future research directions include CR evaluation methods based on prompt engineering frameworks driven by goal-oriented grading criteria, improving scalability for complex multi-agent interactions, and enhancing system robustness to address the identified limitations across diverse business applications.

arxiv情報

著者 Giorgio Robino
発行日 2025-02-07 16:18:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.ET, cs.HC, cs.PL | Conversation Routines: A Prompt Engineering Framework for Task-Oriented Dialog Systems はコメントを受け付けていません

GenBFA: An Evolutionary Optimization Approach to Bit-Flip Attacks on LLMs

要約

大規模な言語モデル(LLM)は、テキスト生成や要約などのタスクで優れている自然言語処理(NLP)に革命をもたらしました。
ただし、ミッションクリティカルなアプリケーションでの採用の増加は、ハードウェアベースの脅威、特にビットフリップ攻撃(BFA)に関する懸念を引き起こします。
BFAは、Rowhammerなどの断層注入方法によって有効になり、メモリ内のターゲットモデルパラメーター、完全性とパフォーマンスの両方を損なう。
LLMSの広大なパラメーター空間でBFAの重要なパラメーターを特定することは、重要な課題をもたらします。
以前の研究では、トランスベースのアーキテクチャは、従来の深いニューラルネットワークと比較してBFAに対して本質的に堅牢であることが示唆されていますが、この仮定に挑戦しています。
初めて、わずか3つのビットフリップが数十億のパラメーターを備えたLLMで壊滅的な性能低下を引き起こす可能性があることを実証します。
現在のBFA技術は、広大なパラメーター空間内の重要なパラメーターを効率的に識別することが難しいため、この脆弱性を活用するには不十分です。
これに対処するために、LLMに合わせて調整された新しいフレームワークであるAttention Breakerを提案します。これにより、パラメーター空間を効率的に移動して重要なパラメーターを特定できます。
さらに、検索をさらに改良するように設計された進化的最適化戦略であるGenBFAを紹介し、効率的かつ効果的な攻撃のために最も重要なビットを分離します。
経験的な結果は、LLMSの注意ブレーカーに対する重大な脆弱性を明らかにしています。
たとえば、llama3-8b-instruct 8ビット量子化された(w8)モデルの3つのビットフリップ(4.129 x 10^-9%の合計パラメーターの4.129 x 10^-9%)は、完全なパフォーマンス崩壊をもたらします:MMLUタスクの精度は67.3%から低下します
12.6から4.72 x 10^5の0%、およびwikitext Perplexity Skyrockets。
これらの発見は、LLMアーキテクチャ内の重要な脆弱性を明らかにし、活用する上での注意ブレーカーの有効性を強調しています。

要約(オリジナル)

Large Language Models (LLMs) have revolutionized natural language processing (NLP), excelling in tasks like text generation and summarization. However, their increasing adoption in mission-critical applications raises concerns about hardware-based threats, particularly bit-flip attacks (BFAs). BFAs, enabled by fault injection methods such as Rowhammer, target model parameters in memory, compromising both integrity and performance. Identifying critical parameters for BFAs in the vast parameter space of LLMs poses significant challenges. While prior research suggests transformer-based architectures are inherently more robust to BFAs compared to traditional deep neural networks, we challenge this assumption. For the first time, we demonstrate that as few as three bit-flips can cause catastrophic performance degradation in an LLM with billions of parameters. Current BFA techniques are inadequate for exploiting this vulnerability due to the difficulty of efficiently identifying critical parameters within the immense parameter space. To address this, we propose AttentionBreaker, a novel framework tailored for LLMs that enables efficient traversal of the parameter space to identify critical parameters. Additionally, we introduce GenBFA, an evolutionary optimization strategy designed to refine the search further, isolating the most critical bits for an efficient and effective attack. Empirical results reveal the profound vulnerability of LLMs to AttentionBreaker. For example, merely three bit-flips (4.129 x 10^-9% of total parameters) in the LLaMA3-8B-Instruct 8-bit quantized (W8) model result in a complete performance collapse: accuracy on MMLU tasks drops from 67.3% to 0%, and Wikitext perplexity skyrockets from 12.6 to 4.72 x 10^5. These findings underscore the effectiveness of AttentionBreaker in uncovering and exploiting critical vulnerabilities within LLM architectures.

arxiv情報

著者 Sanjay Das,Swastik Bhattacharya,Souvik Kundu,Shamik Kundu,Anand Menon,Arnab Raha,Kanad Basu
発行日 2025-02-07 16:24:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.LG | GenBFA: An Evolutionary Optimization Approach to Bit-Flip Attacks on LLMs はコメントを受け付けていません

Preference-aware compensation policies for crowdsourced on-demand services

要約

クラウドソーシングオンデマンドサービスは、コストの削減、サービスの充足時間の速度、適応性の向上、および需要のある配信コンテキストでの持続可能な都市輸送への貢献などの利点を提供します。
ただし、クラウドソーシングを利用するオンデマンドプラットフォームの成功は、ギグワーカーの魅力的なオファーの作成と収益性を確保することとのバランスをとる補償ポリシーを見つけることに依存しています。
この作業では、リクエストとワーカーが意地悪に到着する離散時間フレームワークでギグ労働者のリクエスト固有の報酬を設定するオンデマンドプラットフォームの動的価格設定問題を調べます。
オペレーターの目標は、期間にわたって予想される総報酬を最大化する補償ポリシーを決定することです。
私たちのアプローチは、ギグワーカーのリクエストの好みを明示的に説明する報酬戦略を導入します。
これを達成するために、多項ロジットモデルを採用して、ギグワーカーの受け入れ確率を表し、その結果、決定後の状態を利用する分析ソリューションを導き出します。
その後、このソリューションをおおよその動的プログラミングアルゴリズムに統合します。
フォーミュラベースのポリシーや、完全な情報線形プログラミングソリューションによって提供される上限など、ベンチマークアルゴリズムとアルゴリズムを比較します。
私たちのアルゴリズムは、多様な設定全体で一貫したパフォーマンスを示し、完全な合成データに基づいて、均一なギグ労働者集団で少なくとも2.5〜7.5%、ベンチマークよりも異種集団で9%の改善を達成します。
実際のデータの場合、ベンチマークを弱い場合は8%、強力な場所優先シナリオで20%を上回ります。

要約(オリジナル)

Crowdsourced on-demand services offer benefits such as reduced costs, faster service fulfillment times, greater adaptability, and contributions to sustainable urban transportation in on-demand delivery contexts. However, the success of an on-demand platform that utilizes crowdsourcing relies on finding a compensation policy that strikes a balance between creating attractive offers for gig workers and ensuring profitability. In this work, we examine a dynamic pricing problem for an on-demand platform that sets request-specific compensation of gig workers in a discrete-time framework, where requests and workers arrive stochastically. The operator’s goal is to determine a compensation policy that maximizes the total expected reward over the time horizon. Our approach introduces compensation strategies that explicitly account for gig worker request preferences. To achieve this, we employ the Multinomial Logit model to represent the acceptance probabilities of gig workers, and, as a result, derive an analytical solution that utilizes post-decision states. Subsequently, we integrate this solution into an approximate dynamic programming algorithm. We compare our algorithm against benchmark algorithms, including formula-based policies and an upper bound provided by the full information linear programming solution. Our algorithm demonstrates consistent performance across diverse settings, achieving improvements of at least 2.5-7.5% in homogeneous gig worker populations and 9% in heterogeneous populations over benchmarks, based on fully synthetic data. For real-world data, it surpasses benchmarks by 8% in weak and 20% in strong location preference scenarios.

arxiv情報

著者 Georgina Nouli,Axel Parmentier,Maximilian Schiffer
発行日 2025-02-07 16:33:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, math.OC | Preference-aware compensation policies for crowdsourced on-demand services はコメントを受け付けていません

Computing and Learning on Combinatorial Data

要約

21世紀は、人間の活動と行動、物理的現象、科学的発見、技術の進歩、そして世界で起こるほとんどすべてのものが、データの大規模な生成、収集、利用をもたらすデータ主導の時代です。
データの接続は重要なプロパティです。
簡単な例は、すべてのWebページがハイパーリンクを介して他のWebページに接続されているWorld Wide Webです。
組み合わせデータとは、特定の接続ルールに基づいたデータ項目の組み合わせを指します。
組み合わせデータの他の形式には、ソーシャルネットワーク、メッシュ、コミュニティクラスター、セットシステム、および分子が含まれます。
この博士号
論文は、組み合わせデータを使用した学習とコンピューティングに焦点を当てています。
接続されたデータ内および接続されたデータの機能を研究および調べて、学習のパフォーマンスを改善し、高いアルゴリズム効率を実現します。

要約(オリジナル)

The twenty-first century is a data-driven era where human activities and behavior, physical phenomena, scientific discoveries, technology advancements, and almost everything that happens in the world resulting in massive generation, collection, and utilization of data. Connectivity in data is a crucial property. A straightforward example is the World Wide Web, where every webpage is connected to other web pages through hyperlinks, providing a form of directed connectivity. Combinatorial data refers to combinations of data items based on certain connectivity rules. Other forms of combinatorial data include social networks, meshes, community clusters, set systems, and molecules. This Ph.D. dissertation focuses on learning and computing with combinatorial data. We study and examine topological and connectivity features within and across connected data to improve the performance of learning and achieve high algorithmic efficiency.

arxiv情報

著者 Simon Zhang
発行日 2025-02-07 16:35:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.DM, cs.DS | Computing and Learning on Combinatorial Data はコメントを受け付けていません

Explainable Artificial Intelligence (XAI) for Malware Analysis: A Survey of Techniques, Applications, and Open Challenges

要約

機械学習(ML)は近年急速に進歩しており、金融、医学、サイバーセキュリティなどの分野に革命をもたらしています。
マルウェア検出では、MLベースのアプローチが高精度を実証しています。
しかし、彼らの透明性の欠如は大きな課題をもたらします。
従来のブラックボックスモデルは、予測に対して解釈可能な正当化を提供することができず、検出の背後にある理由を理解することが脅威の緩和と対応に不可欠なセキュリティ批判的な環境での採用を制限することができます。
説明可能なAI(XAI)は、強力な検出機能を維持しながらモデルの解釈可能性を高めることにより、このギャップに対処します。
この調査では、説明可能性の方法に特に焦点を当てた、マルウェア分析のための最先端のML技術の包括的なレビューを提示します。
既存のXAIフレームワーク、マルウェア分類と検出におけるアプリケーション、およびマルウェア検出モデルのより解釈可能にすることに関連する課題を調べます。
さらに、最近の進歩を調査し、説明可能なマルウェア分析の分野で開かれた研究の課題を強調します。
Xai駆動型のマルウェア検出アプローチの構造化された概要を提供することにより、この調査は、サイバーセキュリティのMLパフォーマンスと説明可能性のギャップを埋めることを目指している研究者と実践者にとって貴重なリソースとして機能します。

要約(オリジナル)

Machine learning (ML) has rapidly advanced in recent years, revolutionizing fields such as finance, medicine, and cybersecurity. In malware detection, ML-based approaches have demonstrated high accuracy; however, their lack of transparency poses a significant challenge. Traditional black-box models often fail to provide interpretable justifications for their predictions, limiting their adoption in security-critical environments where understanding the reasoning behind a detection is essential for threat mitigation and response. Explainable AI (XAI) addresses this gap by enhancing model interpretability while maintaining strong detection capabilities. This survey presents a comprehensive review of state-of-the-art ML techniques for malware analysis, with a specific focus on explainability methods. We examine existing XAI frameworks, their application in malware classification and detection, and the challenges associated with making malware detection models more interpretable. Additionally, we explore recent advancements and highlight open research challenges in the field of explainable malware analysis. By providing a structured overview of XAI-driven malware detection approaches, this survey serves as a valuable resource for researchers and practitioners seeking to bridge the gap between ML performance and explainability in cybersecurity.

arxiv情報

著者 Harikha Manthena,Shaghayegh Shajarian,Jeffrey Kimmell,Mahmoud Abdelsalam,Sajad Khorsandroo,Maanak Gupta
発行日 2025-02-07 16:44:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR | Explainable Artificial Intelligence (XAI) for Malware Analysis: A Survey of Techniques, Applications, and Open Challenges はコメントを受け付けていません