cs.CR」カテゴリーアーカイブ

Logits of API-Protected LLMs Leak Proprietary Information

要約 大規模言語モデル (LLM) の商用化により、独自モデルへの高レベル AP … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, cs.CR, cs.LG, I.2.7 | Logits of API-Protected LLMs Leak Proprietary Information はコメントを受け付けていません

Exploring Safety Generalization Challenges of Large Language Models via Code

要約 大規模言語モデル (LLM) の急速な進歩は、自然言語処理に顕著な機能をも … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG, cs.SE | Exploring Safety Generalization Challenges of Large Language Models via Code はコメントを受け付けていません

Optimistic Verifiable Training by Controlling Hardware Nondeterminism

要約 AI システムのコンピューティング需要の増大により、必要なリソースが不足し … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | Optimistic Verifiable Training by Controlling Hardware Nondeterminism はコメントを受け付けていません

Dr. Jekyll and Mr. Hyde: Two Faces of LLMs

要約 わずか 1 年前、特にチャットボット アシスタントなどのアプリケーションと … 続きを読む

カテゴリー: cs.CR, cs.LG | Dr. Jekyll and Mr. Hyde: Two Faces of LLMs はコメントを受け付けていません

Tight Group-Level DP Guarantees for DP-SGD with Sampling via Mixture of Gaussians Mechanisms

要約 ポアソンサンプリングまたは固定バッチサイズサンプリングを使用する場合に、D … 続きを読む

カテゴリー: cs.CR, cs.LG | Tight Group-Level DP Guarantees for DP-SGD with Sampling via Mixture of Gaussians Mechanisms はコメントを受け付けていません

Randomized Kaczmarz in Adversarial Distributed Setting

要約 敵対的なワーカーや破損したワーカーの存在に対して堅牢な大規模な分散手法を開 … 続きを読む

カテゴリー: 65F10, 65F20, 65K10, cs.CR, cs.LG, cs.NA, math.NA, math.OC | Randomized Kaczmarz in Adversarial Distributed Setting はコメントを受け付けていません

Tastle: Distract Large Language Models for Automatic Jailbreak Attack

要約 大規模言語モデル (LLM) は、ここ数日で大幅な進歩を遂げました。 LL … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | Tastle: Distract Large Language Models for Automatic Jailbreak Attack はコメントを受け付けていません

Beyond Gradient and Priors in Privacy Attacks: Leveraging Pooler Layer Inputs of Language Models in Federated Learning

要約 フェデレーテッド ラーニング (FL) を通じてトレーニングされた言語モデ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | Beyond Gradient and Priors in Privacy Attacks: Leveraging Pooler Layer Inputs of Language Models in Federated Learning はコメントを受け付けていません

Continual Adversarial Defense

要約 視覚的分類子に対する敵対的攻撃の性質が毎月急速に進化していることに対応して … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG | Continual Adversarial Defense はコメントを受け付けていません

Quantifying and Mitigating Privacy Risks for Tabular Generative Models

要約 生成モデルからの合成データは、プライバシーを保護するデータ共有ソリューショ … 続きを読む

カテゴリー: cs.CR, cs.LG | Quantifying and Mitigating Privacy Risks for Tabular Generative Models はコメントを受け付けていません