cs.CR」カテゴリーアーカイブ

Representation Bending for Large Language Model Safety

要約 大規模な言語モデル(LLM)は強力なツールとして浮上していますが、有害なコ … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | コメントする

Is poisoning a real threat to LLM alignment? Maybe more so than you think

要約 人間のフィードバック(RLHF)による強化学習の最近の進歩は、大規模な言語 … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | コメントする

LLM Unlearning Should Be Form-Independent

要約 大規模な言語モデル(LLM)は、モデル内の望ましくない知識を消去または抑制 … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | コメントする

A Cognac Shot To Forget Bad Memories: Corrective Unlearning for Graph Neural Networks

要約 グラフニューラルネットワーク(GNNS)は、グラフデータ上のさまざまなML … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | コメントする

ByzSecAgg: A Byzantine-Resistant Secure Aggregation Scheme for Federated Learning Based on Coded Computing and Vector Commitment

要約 この論文では、ビザンチンの攻撃やプライバシーの漏れに耐性のある連合学習のた … 続きを読む

カテゴリー: cs.CR, cs.DC, cs.IT, cs.LG, math.IT | コメントする

Rethinking Machine Unlearning in Image Generation Models

要約 画像生成モデルの急増と広範なアプリケーションにより、データのプライバシーと … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.CV | コメントする

The Canary’s Echo: Auditing Privacy Risks of LLM-Generated Synthetic Text

要約 トレーニングサンプルに関する情報は、大規模な言語モデル(LLMS)によって … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | コメントする

Towards Lifecycle Unlearning Commitment Management: Measuring Sample-level Unlearning Completeness

要約 データのプライバシーとセキュリティに対する懸念の高まりは、マシンの学習の重 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | コメントする

Joint-GCG: Unified Gradient-Based Poisoning Attacks on Retrieval-Augmented Generation Systems

要約 回答を生成する前に外部コーパスから関連するドキュメントを取得することにより … 続きを読む

カテゴリー: cs.AI, cs.CR | コメントする

A Cognac shot to forget bad memories: Corrective Unlearning in GNNs

要約 グラフニューラルネットワーク(GNNS)は、グラフデータ上のさまざまなML … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | コメントする