CoKe: Customizable Fine-Grained Story Evaluation via Chain-of-Keyword Rationalization

要約

言語モデルを使用した人間が作成したストーリーなどの創造的なテキストを評価することは、マルチアノテーター評価の主観性により、常に挑戦的なタスクでした。
人間の思考プロセスを模倣するために、思考の連鎖(COT)は、モデルの予測と自己整合性(SC)を導くのに役立つフリーテキストの説明を生成し、複数の生成された説明にわたって予測を疎外します。
この研究では、広く使用されている自己整合の推論方法が、「流fluentな」説明と実際にストーリーの側面に対する良好な評価予測につながる客観的な不一致のために、最適ではない結果を引き起こすことがわかります。
この課題を克服するために、$ \ textbf {c} $ hain-$ \ textbf {o} $ \ textbf {ke} $ ywords(coke)を提案します。
次に、このようなキーワードの多様なセットを生成し、これらの世代に対応するスコアを集約します。
ストーリーデータセットでは、小さな微調整された評価モデルに基づいたコーラは、人間レベルのパフォーマンスに到達するだけでなく、ヒトのアノテーターとの相関が2倍のブーストでGPT-4を大幅に上回るだけでなく、パラメーターの数が大幅に少ないことも必要です。

要約(オリジナル)

Evaluating creative text such as human-written stories using language models has always been a challenging task — owing to the subjectivity of multi-annotator ratings. To mimic the thinking process of humans, chain of thought (CoT) generates free-text explanations that help guide a model’s predictions and Self-Consistency (SC) marginalizes predictions over multiple generated explanations. In this study, we discover that the widely-used self-consistency reasoning methods cause suboptimal results due to an objective mismatch between generating ‘fluent-looking’ explanations vs. actually leading to a good rating prediction for an aspect of a story. To overcome this challenge, we propose $\textbf{C}$hain-$\textbf{o}$f-$\textbf{Ke}$ywords (CoKe), that generates a sequence of keywords $\textit{before}$ generating a free-text rationale, that guide the rating prediction of our evaluation language model. Then, we generate a diverse set of such keywords, and aggregate the scores corresponding to these generations. On the StoryER dataset, CoKe based on our small fine-tuned evaluation models not only reach human-level performance and significantly outperform GPT-4 with a 2x boost in correlation with human annotators, but also requires drastically less number of parameters.

arxiv情報

著者 Brihi Joshi,Sriram Venkatapathy,Mohit Bansal,Nanyun Peng,Haw-Shiuan Chang
発行日 2025-03-21 13:37:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | CoKe: Customizable Fine-Grained Story Evaluation via Chain-of-Keyword Rationalization はコメントを受け付けていません

Edu-Values: Towards Evaluating the Chinese Education Values of Large Language Models

要約

このホワイトペーパーでは、eDU-Valuesを提示します。これは、プロの哲学、教師の専門倫理、教育法と規制、文化リテラシー、教育知識とスキル、基本的能力、主題知識など、7つのコアバリューを含む中国の最初の教育価値評価ベンチマークです。
私たちは細心の注意を払って1,418の質問を設計し、複数選択、マルチモーダルの質問応答、主観的分析、敵対的なプロンプト、および中国の伝統文化(短い答え)の質問をカバーします。
21の最先端(SOTA)LLMSを超える人間のフィードバックベースの自動評価を実施し、3つの主要な調査結果を強調します。(1)教育文化の違いにより、中国のLLMSは英語LLMを上回り、Qwen 2は81.37のスコアで最初のランキングを行います。
(2)LLMSはしばしば教師の職業倫理や職業哲学に苦しんでいます。
(3)EDU値を活用して、RAGの外部知識リポジトリを構築すると、LLMSのアライメントが大幅に向上します。
これは、提案されたベンチマークの有効性を示しています。

要約(オリジナル)

In this paper, we present Edu-Values, the first Chinese education values evaluation benchmark that includes seven core values: professional philosophy, teachers’ professional ethics, education laws and regulations, cultural literacy, educational knowledge and skills, basic competencies and subject knowledge. We meticulously design 1,418 questions, covering multiple-choice, multi-modal question answering, subjective analysis, adversarial prompts, and Chinese traditional culture (short answer) questions. We conduct human feedback based automatic evaluation over 21 state-of-the-art (SoTA) LLMs, and highlight three main findings: (1) due to differences in educational culture, Chinese LLMs outperform English LLMs, with Qwen 2 ranking the first with a score of 81.37; (2) LLMs often struggle with teachers’ professional ethics and professional philosophy; (3) leveraging Edu-Values to build an external knowledge repository for RAG significantly improves LLMs’ alignment. This demonstrates the effectiveness of the proposed benchmark.

arxiv情報

著者 Peiyi Zhang,Yazhou Zhang,Bo Wang,Lu Rong,Prayag Tiwari,Jing Qin
発行日 2025-03-21 14:17:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Edu-Values: Towards Evaluating the Chinese Education Values of Large Language Models はコメントを受け付けていません

CASE — Condition-Aware Sentence Embeddings for Conditional Semantic Textual Similarity Measurement

要約

文によって伝えられる意味は、しばしばそれが現れるコンテキストに依存します。
文の埋め込み方法の進行にもかかわらず、そのコンテキストに条件付けられた文の埋め込みを最適に変更する方法は不明のままです。
この問題に対処するために、特定の条件下で文の埋め込みを作成するための効率的かつ正確な方法である条件認識文の埋め込み(ケース)を提案します。
まず、ケースは、大規模な言語モデル(LLM)を使用して条件の埋め込みを作成します。この場合、文はプーリング中に条件のトークンに対して計算された注意スコアに影響します。
次に、LLMベースのテキスト埋め込みの次元を減らすために、監視された非線形投影が学習されます。
ケースは、既存の標準ベンチマークデータセットで、以前に提案された条件付きセマンティックテキスト類似性(C-STS)メソッドを大幅に上回ることを示します。
埋め込み条件を減算すると、LLMベースのテキスト埋め込みのC-STSパフォーマンスが一貫して改善されることがわかります。
さらに、LLMベースの埋め込みの次元を削減するだけでなく、パフォーマンスを大幅に向上させる監視された次元削減方法を提案します。

要約(オリジナル)

The meaning conveyed by a sentence often depends on the context in which it appears. Despite the progress of sentence embedding methods, it remains unclear how to best modify a sentence embedding conditioned on its context. To address this problem, we propose Condition-Aware Sentence Embeddings (CASE), an efficient and accurate method to create an embedding for a sentence under a given condition. First, CASE creates an embedding for the condition using a Large Language Model (LLM), where the sentence influences the attention scores computed for the tokens in the condition during pooling. Next, a supervised nonlinear projection is learned to reduce the dimensionality of the LLM-based text embeddings. We show that CASE significantly outperforms previously proposed Conditional Semantic Textual Similarity (C-STS) methods on an existing standard benchmark dataset. We find that subtracting the condition embedding consistently improves the C-STS performance of LLM-based text embeddings. Moreover, we propose a supervised dimensionality reduction method that not only reduces the dimensionality of LLM-based embeddings but also significantly improves their performance.

arxiv情報

著者 Gaifan Zhang,Yi Zhou,Danushka Bollegala
発行日 2025-03-21 16:27:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | CASE — Condition-Aware Sentence Embeddings for Conditional Semantic Textual Similarity Measurement はコメントを受け付けていません

FastCuRL: Curriculum Reinforcement Learning with Progressive Context Extension for Efficient Training R1-like Reasoning Models

要約

この論文では、\ textbf {\ textsc {fastCurl}}を提案します。
特に1.5Bパラメーター言語モデルを使用した、概念の根拠。
\ textBf {\ textSc {fastCurl}}は、長さを認識しているトレーニングデータセグメンテーションとコンテキストウィンドウ拡張トレーニングの2つの主要な手順で構成されています。
具体的には、前者は最初に元のトレーニングデータを入力プロンプトの長さによって3つの異なるレベルに分割し、次に、推論モデルをトレーニングするためにコンテキストウィンドウの長さが徐々に増加するセグメント化されたトレーニングデータセットをレバレッジします。
実験結果は、\ textbf {\ textsc {fastcurl}} -1.5b-previewが50個のデータセット(Math 500、AIME 2023、Minerva Math、Olympiadbenchを含む50個のデータセットすべて)でDeepscaler-1.5b-previewを上回っていることを示しています。
さらに、FastCurl-1.5B-Previewのすべてのトレーニング段階は、8 GPUを備えた単一のノードのみを使用して完了します。

要約(オリジナル)

In this paper, we propose \textbf{\textsc{FastCuRL}}, a simple yet efficient \textbf{Cu}rriculum \textbf{R}einforcement \textbf{L}earning approach with context window extending strategy to accelerate the reinforcement learning training efficiency for R1-like reasoning models while enhancing their performance in tackling complex reasoning tasks with long chain-of-thought rationales, particularly with a 1.5B parameter language model. \textbf{\textsc{FastCuRL}} consists of two main procedures: length-aware training data segmentation and context window extension training. Specifically, the former first splits the original training data into three different levels by the input prompt length, and then the latter leverages segmented training datasets with a progressively increasing context window length to train the reasoning model. Experimental results demonstrate that \textbf{\textsc{FastCuRL}}-1.5B-Preview surpasses DeepScaleR-1.5B-Preview across all five datasets (including MATH 500, AIME 2024, AMC 2023, Minerva Math, and OlympiadBench) while only utilizing 50\% of training steps. Furthermore, all training stages for FastCuRL-1.5B-Preview are completed using just a single node with 8 GPUs.

arxiv情報

著者 Mingyang Song,Mao Zheng,Zheng Li,Wenjie Yang,Xuan Luo,Yue Pan,Feng Zhang
発行日 2025-03-21 16:35:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | FastCuRL: Curriculum Reinforcement Learning with Progressive Context Extension for Efficient Training R1-like Reasoning Models はコメントを受け付けていません

Dancing with Critiques: Enhancing LLM Reasoning with Stepwise Natural Language Self-Critique

要約

特にマルチステップ論理控除を必要とする複雑なタスクの場合、大規模な言語モデル(LLM)の推論能力を強化することは、依然として重要な課題です。
従来の推論時間スケーリング方法は、プロセス報酬モデルからのスカラー報酬信号を利用して候補の推論ステップを評価しますが、これらのスカラーの報酬は、各ステップを理解し正当化するために不可欠な微妙な定性的情報を欠いています。
この論文では、段階的な推論時間スケーリングアプローチ – 段階的な自然言語の自己批判(パネル)を提案します。
各候補者の推論ステップに対して豊富で人間の読み取り可能な批評を生成することにより、パネルは重要な定性的情報を保持し、推論中のより情報に基づいた意思決定を促進します。
このアプローチは、タスク固有の検証剤と関連するトレーニングのオーバーヘッドの必要性を回避し、多様なタスクに広く適用されます。
AIMEやGPQAを含む挑戦的な推論ベンチマークに関する実験結果は、パネルが推論パフォーマンスを大幅に向上させ、従来のスカラー報酬ベースの方法を上回ることを示しています。
私たちのコードは、この有望な分野での将来の研究をサポートおよび奨励するために、https://github.com/puddingyeah/panelで入手できます。

要約(オリジナル)

Enhancing the reasoning capabilities of large language models (LLMs), particularly for complex tasks requiring multi-step logical deductions, remains a significant challenge. Traditional inference time scaling methods utilize scalar reward signals from process reward models to evaluate candidate reasoning steps, but these scalar rewards lack the nuanced qualitative information essential for understanding and justifying each step. In this paper, we propose a novel inference-time scaling approach — stepwise natural language self-critique (PANEL), which employs self-generated natural language critiques as feedback to guide the step-level search process. By generating rich, human-readable critiques for each candidate reasoning step, PANEL retains essential qualitative information, facilitating better-informed decision-making during inference. This approach bypasses the need for task-specific verifiers and the associated training overhead, making it broadly applicable across diverse tasks. Experimental results on challenging reasoning benchmarks, including AIME and GPQA, demonstrate that PANEL significantly enhances reasoning performance, outperforming traditional scalar reward-based methods. Our code is available at https://github.com/puddingyeah/PANEL to support and encourage future research in this promising field.

arxiv情報

著者 Yansi Li,Jiahao Xu,Tian Liang,Xingyu Chen,Zhiwei He,Qiuzhi Liu,Rui Wang,Zhuosheng Zhang,Zhaopeng Tu,Haitao Mi,Dong Yu
発行日 2025-03-21 17:59:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Dancing with Critiques: Enhancing LLM Reasoning with Stepwise Natural Language Self-Critique はコメントを受け付けていません

OptionZero: Planning with Learned Options

要約

一連の原始的なアクションであるオプションを使用した計画は、複雑な環境内での強化学習に効果的であることが示されています。
以前の研究では、事前定義されたオプションまたは専門家のデモデータを通じて学習オプションを使用した計画に焦点を当ててきました。
人間の知識のない超人的ヒューリスティックを学ぶMuzeroに触発された私たちは、OptionZeroという名前の新しいアプローチを提案します。
OptionZeroは、オプションネットワークをMuzeroに組み込み、自己プレイゲームを通じてオプションの自律的な発見を提供します。
さらに、ダイナミクスネットワークを変更して、オプションを使用するときに環境遷移を提供し、同じシミュレーション制約の下でより深く検索できるようにします。
26のAtariゲームで実施された経験的実験では、OptionZeroがMuzeroを上回ることを示しており、平均ヒト正規化スコアで131.58%の改善を達成しています。
私たちの動作分析は、OptionZeroがオプションを学習するだけでなく、さまざまなゲーム特性に合わせた戦略的スキルを取得することを示しています。
私たちの調査結果は、計画でオプションを発見して使用するための有望な方向性を示しています。
私たちのコードは、https://rlg.iis.sinica.edu.tw/papers/optionzeroで入手できます。

要約(オリジナル)

Planning with options — a sequence of primitive actions — has been shown effective in reinforcement learning within complex environments. Previous studies have focused on planning with predefined options or learned options through expert demonstration data. Inspired by MuZero, which learns superhuman heuristics without any human knowledge, we propose a novel approach, named OptionZero. OptionZero incorporates an option network into MuZero, providing autonomous discovery of options through self-play games. Furthermore, we modify the dynamics network to provide environment transitions when using options, allowing searching deeper under the same simulation constraints. Empirical experiments conducted in 26 Atari games demonstrate that OptionZero outperforms MuZero, achieving a 131.58% improvement in mean human-normalized score. Our behavior analysis shows that OptionZero not only learns options but also acquires strategic skills tailored to different game characteristics. Our findings show promising directions for discovering and using options in planning. Our code is available at https://rlg.iis.sinica.edu.tw/papers/optionzero.

arxiv情報

著者 Po-Wei Huang,Pei-Chiun Peng,Hung Guei,Ti-Rong Wu
発行日 2025-03-21 13:30:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | OptionZero: Planning with Learned Options はコメントを受け付けていません

Temporal-Guided Spiking Neural Networks for Event-Based Human Action Recognition

要約

このペーパーでは、プライバシーを提供する人間の行動認識(HAR)のためのスパイクニューラルネットワーク(SNNS)とイベントベースのカメラとの間の有望な相互作用を調査します。
スパイクによる空間的データの処理におけるSNNSの習熟度と組み合わされたモーションの輪郭のみをキャプチャする際のイベントカメラのユニークな機能は、イベントベースのHARとの非常に相乗的な互換性を確立します。
しかし、以前の研究は、正確なHARに不可欠な長期的な時間情報を処理するSNNSの能力によって制限されてきました。
このペーパーでは、これに対処するために2つの新しいフレームワークを紹介します:時間セグメントベースのSNN(\ textIT {ts-snn})と3D畳み込みSNN(\ textit {3d-snn})。
\ textit {ts-snn}は、アクションをより短いセグメントに分割することにより長期の時間情報を抽出し、\ textit {3d-snn}は2D空間要素を3Dコンポーネントに置き換えて、時間情報の送信を容易にします。
イベントベースのHARのさらなる研究を促進するために、7つの異なるアクションを含む高解像度Celex-Vイベントカメラ$(1280 \ Times 800)$を使用して収集されたデータセット\ TextIT {fallingDetection-Celex}を作成します。
広範な実験結果は、提案されているフレームワークが新しく収集されたデータセットと他の3つの神経形態データセットの最先端のSNNメソッドを上回り、イベントベースのHARの長距離時間情報を処理する際の有効性を示していることを示しています。

要約(オリジナル)

This paper explores the promising interplay between spiking neural networks (SNNs) and event-based cameras for privacy-preserving human action recognition (HAR). The unique feature of event cameras in capturing only the outlines of motion, combined with SNNs’ proficiency in processing spatiotemporal data through spikes, establishes a highly synergistic compatibility for event-based HAR. Previous studies, however, have been limited by SNNs’ ability to process long-term temporal information, essential for precise HAR. In this paper, we introduce two novel frameworks to address this: temporal segment-based SNN (\textit{TS-SNN}) and 3D convolutional SNN (\textit{3D-SNN}). The \textit{TS-SNN} extracts long-term temporal information by dividing actions into shorter segments, while the \textit{3D-SNN} replaces 2D spatial elements with 3D components to facilitate the transmission of temporal information. To promote further research in event-based HAR, we create a dataset, \textit{FallingDetection-CeleX}, collected using the high-resolution CeleX-V event camera $(1280 \times 800)$, comprising 7 distinct actions. Extensive experimental results show that our proposed frameworks surpass state-of-the-art SNN methods on our newly collected dataset and three other neuromorphic datasets, showcasing their effectiveness in handling long-range temporal information for event-based HAR.

arxiv情報

著者 Siyuan Yang,Shilin Lu,Shizheng Wang,Meng Hwa Er,Zengwei Zheng,Alex C. Kot
発行日 2025-03-21 13:31:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.CV, cs.NE | Temporal-Guided Spiking Neural Networks for Event-Based Human Action Recognition はコメントを受け付けていません

Autonomous AI imitators increase diversity in homogeneous information ecosystems

要約

大規模な言語モデル(LLMS)の最近のブレークスルーにより、人間が生成したコンテンツを模倣できる自律AIエージェントが促進されました。
この技術の進歩は、情報生態系の多様性と民主的価値に対するAIの影響に関する基本的な疑問を提起します。
大規模なシミュレーションフレームワークを紹介して、ニュース内のAIベースの模倣を調べることができます。これは、公の談話に不可欠なコンテキストです。
初期の多様性がさまざまなさまざまな情報環境で2つの異なる模倣戦略を体系的にテストすることにより、AI生成された記事が均一に均質化しないことを実証します。
代わりに、AIの影響は強くコンテキスト依存しています。AI生成されたコンテンツは、もともと均質なニュース環境で貴重な多様性を導入できますが、最初は不均一なコンテキストで多様性を低下させます。
これらの結果は、情報環境の初期の多様性がAIの影響を強く形成し、AI主導の模倣が均一に多様性を脅かすという仮定に挑戦していることを示しています。
代わりに、情報が最初に均一である場合、AI駆動型の模倣は視点、スタイル、およびトピックを拡大することができます。
これは、情報の多様性が、市民を代替の視点にさらし、バイアスに挑戦し、弾力性のある民主主義に不可欠な物語の独占を防ぐことにより、より豊かな公開討論を促進するニュースの文脈で特に重要です。

要約(オリジナル)

Recent breakthroughs in large language models (LLMs) have facilitated autonomous AI agents capable of imitating human-generated content. This technological advancement raises fundamental questions about AI’s impact on the diversity and democratic value of information ecosystems. We introduce a large-scale simulation framework to examine AI-based imitation within news, a context crucial for public discourse. By systematically testing two distinct imitation strategies across a range of information environments varying in initial diversity, we demonstrate that AI-generated articles do not uniformly homogenize content. Instead, AI’s influence is strongly context-dependent: AI-generated content can introduce valuable diversity in originally homogeneous news environments but diminish diversity in initially heterogeneous contexts. These results illustrate that the initial diversity of an information environment critically shapes AI’s impact, challenging assumptions that AI-driven imitation uniformly threatens diversity. Instead, when information is initially homogeneous, AI-driven imitation can expand perspectives, styles, and topics. This is especially important in news contexts, where information diversity fosters richer public debate by exposing citizens to alternative viewpoints, challenging biases, and preventing narrative monopolies, which is essential for a resilient democracy.

arxiv情報

著者 Emil Bakkensen Johansen,Oliver Baumann
発行日 2025-03-21 13:35:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CY, J.4 | Autonomous AI imitators increase diversity in homogeneous information ecosystems はコメントを受け付けていません

Embedded Visual Prompt Tuning

要約

大規模なデータで事前に訓練された基礎モデルは、さまざまな自然なイメージングの下流タスクで成功を達成するために広く目撃されています。
パラメーター効率の高い微調整(PEFT)メソッドは、計算オーバーヘッドを減らすためにパラメーターのごく一部のみを更新することにより、基礎モデルを新しいドメインに適応させることを目的としています。
ただし、特にクロスドメインの少数のショットシナリオ、たとえば医療画像分析では、これらのPEFTメソッドの有効性は完全には検討されていません。
この作業では、基礎モデルを医療画像分類タスクに適応させる際のPEFTのパフォーマンスの研究を促進します。
さらに、メインストリームプロンプトチューニング方法のトランスアーキテクチャに関する迅速な導入方法と近似機能を導入するために、拡張トークンを拡張したチャネルに埋め込むことにより、組み込みプロンプトチューニング(EPT)メソッドを提案します。
また、トレーニング前のプロセス中にファンデーションモデルの特徴空間分布に異常があることがわかり、迅速なチューニングはこのマイナスの影響を軽減するのに役立つことがわかります。
この現象を説明するために、迅速な調整を理解するための新しい視点も紹介します。プロンプトチューニングは分布キャリブレーターです。
また、EPTに含まれるパッチごとのスケーリングと機能分離操作を分析することにより、サポートします。
私たちの実験は、EPTが少数のショットの医療画像分類タスクの大幅なマージンによっていくつかの最先端の微調整方法を上回り、非常に競争力のある時間内に微調整プロセスを完了することを示しています。
ソースコードはgithub.com/zuwenqiang/eptで入手できます。

要約(オリジナル)

Foundation models pre-trained on large-scale data have been widely witnessed to achieve success in various natural imaging downstream tasks. Parameter-efficient fine-tuning (PEFT) methods aim to adapt foundation models to new domains by updating only a small portion of parameters in order to reduce computational overhead. However, the effectiveness of these PEFT methods, especially in cross-domain few-shot scenarios, e.g., medical image analysis, has not been fully explored. In this work, we facilitate the study of the performance of PEFT when adapting foundation models to medical image classification tasks. Furthermore, to alleviate the limitations of prompt introducing ways and approximation capabilities on Transformer architectures of mainstream prompt tuning methods, we propose the Embedded Prompt Tuning (EPT) method by embedding prompt tokens into the expanded channels. We also find that there are anomalies in the feature space distribution of foundation models during pre-training process, and prompt tuning can help mitigate this negative impact. To explain this phenomenon, we also introduce a novel perspective to understand prompt tuning: Prompt tuning is a distribution calibrator. And we support it by analyzing patch-wise scaling and feature separation operations contained in EPT. Our experiments show that EPT outperforms several state-of-the-art fine-tuning methods by a significant margin on few-shot medical image classification tasks, and completes the fine-tuning process within highly competitive time, indicating EPT is an effective PEFT method. The source code is available at github.com/zuwenqiang/EPT.

arxiv情報

著者 Wenqiang Zu,Shenghao Xie,Qing Zhao,Guoqi Li,Lei Ma
発行日 2025-03-21 13:38:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV | Embedded Visual Prompt Tuning はコメントを受け付けていません

Instant Adversarial Purification with Adversarial Consistency Distillation

要約

ニューラルネットワークは、並外れたパフォーマンスで多数の分野に革命をもたらしましたが、微妙な摂動を通じて敵対的な攻撃を受けやすいままです。
Diffpureのような拡散ベースの精製方法は有望な防御メカニズムを提供しますが、その計算オーバーヘッドは大きな実用的な制限を示しています。
この論文では、拡散モデル内の単一の神経関数評価(NFE)で堅牢な敵対的浄化を達成する新しい防御フレームワークであるワンステップコントロール精製(OSCP)を紹介します。
Gaussianの敵対的な騒音蒸留(GAND)を蒸留目標として、推論パイプラインとして制御された敵対的浄化(CAP)として提案します。
提案されたGANDは、一貫性の蒸留と敵対的摂動の間の根本的な緊張に対処し、潜在空間の自然マニホールドと敵対的マニホールドのギャップを埋めながら、LORAなどのパラメーター効率の高い微調整(PEFT)メソッドを介して計算上効率的なままであり、完全なパラメーターの微調整からの高い計算予算要求からの高い計算予算要求を排除します。
CAPは、入力画像によって計算された分布不能なエッジ検出演算子を追加のプロンプトとして計算することで、精製プロセスを導き、大規模な精製ステップが使用されたときに、精製画像が元の外観から逸脱するのを効果的に防ぎます。
Imagenet Showcase OSCPの優れたパフォーマンスに関する実験結果は、浄化あたりわずか0.1秒で74.19%の防御成功率を達成しました。これは、従来のアプローチと比較して100倍のスピードアップです。

要約(オリジナル)

Neural networks have revolutionized numerous fields with their exceptional performance, yet they remain susceptible to adversarial attacks through subtle perturbations. While diffusion-based purification methods like DiffPure offer promising defense mechanisms, their computational overhead presents a significant practical limitation. In this paper, we introduce One Step Control Purification (OSCP), a novel defense framework that achieves robust adversarial purification in a single Neural Function Evaluation (NFE) within diffusion models. We propose Gaussian Adversarial Noise Distillation (GAND) as the distillation objective and Controlled Adversarial Purification (CAP) as the inference pipeline, which makes OSCP demonstrate remarkable efficiency while maintaining defense efficacy. Our proposed GAND addresses a fundamental tension between consistency distillation and adversarial perturbation, bridging the gap between natural and adversarial manifolds in the latent space, while remaining computationally efficient through Parameter-Efficient Fine-Tuning (PEFT) methods such as LoRA, eliminating the high computational budget request from full parameter fine-tuning. The CAP guides the purification process through the unlearnable edge detection operator calculated by the input image as an extra prompt, effectively preventing the purified images from deviating from their original appearance when large purification steps are used. Our experimental results on ImageNet showcase OSCP’s superior performance, achieving a 74.19% defense success rate with merely 0.1s per purification — a 100-fold speedup compared to conventional approaches.

arxiv情報

著者 Chun Tong Lei,Hon Ming Yam,Zhongliang Guo,Yifei Qian,Chun Pong Lau
発行日 2025-03-21 13:58:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG | Instant Adversarial Purification with Adversarial Consistency Distillation はコメントを受け付けていません