Mapping Controversies Using Artificial Intelligence: An Analysis of the Hamas-Israel Conflict on YouTube

要約

この記事では、紛争をエスカレートした10月7日の攻撃に続いて、2023年10月から2024年1月の間に投稿された253,925のスペイン語YouTubeコメントを通じて、ハマスイスラエルの論争を分析します。
学際的なアプローチを採用して、この研究では、科学技術研究(STS)からの論争の分析と高度な計算方法論、特に自然言語処理(NLP)をBERT(Transformersからの双方向エンコーダー表現)モデルを使用して組み合わせています。
このアプローチを使用して、コメントは7つのカテゴリに自動的に分類され、特にパレスチナ人、親イスラエル、反パレスチナ、反イスラエルのポジションなどを反映しています。
結果はプロレスチナのコメントの優位性を示していますが、プロイスラエルと反パレスチナのコメントはより多くの「いいね」を受けました。
この研究では、アジェンダ設定理論も適用されて、メディアの報道が一般の認識に大きく影響し、世論の顕著な変化を観察し、パレスチナ人の姿勢からイスラエルに対するより重要な立場に移行する方法を観察します。
この研究は、社会科学の視点を論争の分析において技術ツールと組み合わせることの重要性を強調し、計算分析を重要な社会理論と統合して複雑な世論現象とメディアの物語に対処することにより、方法論的革新を提示します。

要約(オリジナル)

This article analyzes the Hamas-Israel controversy through 253,925 Spanish-language YouTube comments posted between October 2023 and January 2024, following the October 7 attack that escalated the conflict. Adopting an interdisciplinary approach, the study combines the analysis of controversies from Science and Technology Studies (STS) with advanced computational methodologies, specifically Natural Language Processing (NLP) using the BERT (Bidirectional Encoder Representations from Transformers) model. Using this approach, the comments were automatically classified into seven categories, reflecting pro-Palestinian, pro-Israeli, anti- Palestinian, anti-Israeli positions, among others. The results show a predominance of pro- Palestinian comments, although pro-Israeli and anti-Palestinian comments received more ‘likes.’ This study also applies the agenda-setting theory to demonstrate how media coverage significantly influences public perception, observing a notable shift in public opinion, transitioning from a pro- Palestinian stance to a more critical position towards Israel. This work highlights the importance of combining social science perspectives with technological tools in the analysis of controversies, presenting a methodological innovation by integrating computational analysis with critical social theories to address complex public opinion phenomena and media narratives.

arxiv情報

著者 Victor Manuel Hernandez Lopez,Jaime E. Cuellar
発行日 2025-04-16 15:27:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | Mapping Controversies Using Artificial Intelligence: An Analysis of the Hamas-Israel Conflict on YouTube はコメントを受け付けていません

Fine-Tuning Diffusion Generative Models via Rich Preference Optimization

要約

豊富なフィードバックシグナルを活用して、テキストから画像への微調整モデルの微調整の好みペアのキュレーションを改善する新しいパイプラインであるRich Preference Optimization(RPO)を紹介します。
拡散DPOのような従来の方法は、多くの場合、不透明である可能性のある報酬モデルのラベル付けだけに依存しており、好みの背後にある理論的根拠に対する限定的な洞察を提供し、報酬のハッキングや過剰フィッティングなどの問題を抱えています。
対照的に、私たちのアプローチは、合成された画像の詳細な批評を生成して、信頼性の高い実用的な画像編集手順を抽出することから始まります。
これらの命令を実装することにより、洗練された画像を作成し、強化されたチューニングデータセットとして機能する合成で有益な好みのペアをもたらします。
パイプラインの有効性と、最先端の拡散モデルの微調整における結果のデータセットを実証します。

要約(オリジナル)

We introduce Rich Preference Optimization (RPO), a novel pipeline that leverages rich feedback signals to improve the curation of preference pairs for fine-tuning text-to-image diffusion models. Traditional methods, like Diffusion-DPO, often rely solely on reward model labeling, which can be opaque, offer limited insights into the rationale behind preferences, and are prone to issues such as reward hacking or overfitting. In contrast, our approach begins with generating detailed critiques of synthesized images to extract reliable and actionable image editing instructions. By implementing these instructions, we create refined images, resulting in synthetic, informative preference pairs that serve as enhanced tuning datasets. We demonstrate the effectiveness of our pipeline and the resulting datasets in fine-tuning state-of-the-art diffusion models.

arxiv情報

著者 Hanyang Zhao,Haoxian Chen,Yucheng Guo,Genta Indra Winata,Tingting Ou,Ziyu Huang,David D. Yao,Wenpin Tang
発行日 2025-04-16 15:28:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | Fine-Tuning Diffusion Generative Models via Rich Preference Optimization はコメントを受け付けていません

Bypassing Prompt Injection and Jailbreak Detection in LLM Guardrails

要約

大規模な言語モデル(LLMS)ガードレールシステムは、迅速な噴射および脱獄攻撃から保護するように設計されています。
しかし、それらは回避技術に対して脆弱なままです。
従来の特性注射方法とアルゴリズム逆境機械学習(AML)回避技術を介してLLM迅速な注入と脱獄検出システムをバイパスするための2つのアプローチを示します。
MicrosoftのAzure Prompt ShieldやMetaのプロンプトガードを含む6つの著名な保護システムに対するテストを通じて、両方の方法を使用して検出を回避しながら、最大100%の回避成功の場合によっては敵対的なユーティリティを維持できることを示しています。
さらに、敵は、オフラインのホワイトボックスモデルによって計算された単語の重要性ランキングを活用することにより、ブラックボックスターゲットに対する攻撃成功率(ASR)を強化できることを実証します。
私たちの調査結果は、現在のLLM保護メカニズム内の脆弱性を明らかにし、より堅牢なガードレールシステムの必要性を強調しています。

要約(オリジナル)

Large Language Models (LLMs) guardrail systems are designed to protect against prompt injection and jailbreak attacks. However, they remain vulnerable to evasion techniques. We demonstrate two approaches for bypassing LLM prompt injection and jailbreak detection systems via traditional character injection methods and algorithmic Adversarial Machine Learning (AML) evasion techniques. Through testing against six prominent protection systems, including Microsoft’s Azure Prompt Shield and Meta’s Prompt Guard, we show that both methods can be used to evade detection while maintaining adversarial utility achieving in some instances up to 100% evasion success. Furthermore, we demonstrate that adversaries can enhance Attack Success Rates (ASR) against black-box targets by leveraging word importance ranking computed by offline white-box models. Our findings reveal vulnerabilities within current LLM protection mechanisms and highlight the need for more robust guardrail systems.

arxiv情報

著者 William Hackett,Lewis Birch,Stefan Trawicki,Neeraj Suri,Peter Garraghan
発行日 2025-04-16 15:33:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.LG, I.2.7 | Bypassing Prompt Injection and Jailbreak Detection in LLM Guardrails はコメントを受け付けていません

Score as Action: Fine-Tuning Diffusion Generative Models by Continuous-time Reinforcement Learning

要約

拡散モデルを入力プロンプトに合わせる人間のフィードバック(RLHF)からの強化学習は、信頼できる生成AIモデルを構築する上で重要なステップになりました。
この領域のほとんどの作品は、誘導されたエラーが発生しやすく、より高次/ブラックボックスソルバーを使用したモデルには適用されない離散時間の定式化を使用しています。
この研究の目的は、最終結果(端子状態)を入力プロンプトに合わせた報酬関数を備えた確率制御問題として定式化された連続時間RLを使用して、拡散モデルを微調整するための規律あるアプローチを開発することです。
重要なアイデアは、スコアマッチングをコントロールまたはアクションとして扱い、それにより、継続時間RLでのポリシーの最適化と正則化に接続することです。
このアイデアを実行するために、連続時間RLの新しいポリシー最適化フレームワークをレイアウトし、拡散モデルの構造特性を活用することにより、バリューネットワーク設計スペースを強化する可能性を示します。
安定した拡散v1.5の微調整の大規模なテキスト2imageモデルの下流タスクでの実験により、方法の利点を検証します。

要約(オリジナル)

Reinforcement learning from human feedback (RLHF), which aligns a diffusion model with input prompt, has become a crucial step in building reliable generative AI models. Most works in this area use a discrete-time formulation, which is prone to induced errors, and often not applicable to models with higher-order/black-box solvers. The objective of this study is to develop a disciplined approach to fine-tune diffusion models using continuous-time RL, formulated as a stochastic control problem with a reward function that aligns the end result (terminal state) with input prompt. The key idea is to treat score matching as controls or actions, and thereby making connections to policy optimization and regularization in continuous-time RL. To carry out this idea, we lay out a new policy optimization framework for continuous-time RL, and illustrate its potential in enhancing the value networks design space via leveraging the structural property of diffusion models. We validate the advantages of our method by experiments in downstream tasks of fine-tuning large-scale Text2Image models of Stable Diffusion v1.5.

arxiv情報

著者 Hanyang Zhao,Haoxian Chen,Ji Zhang,David D. Yao,Wenpin Tang
発行日 2025-04-16 15:36:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, math.OC | Score as Action: Fine-Tuning Diffusion Generative Models by Continuous-time Reinforcement Learning はコメントを受け付けていません

Trusting CHATGPT: how minor tweaks in the prompts lead to major differences in sentiment classification

要約

今日の社会科学の基本的な質問の1つは、ChatGPTのような非常に複雑な予測モデルをどれだけ信頼できるかということです。
この研究では、プロンプトの構造の微妙な変化が、大規模な言語モデルGPT-4O MINIによって生成された感情極性分析の分類結果に大きな変動をもたらさないという仮説をテストします。
4人のラテンアメリカ大統領にスペイン語で100.000のコメントのデータセットを使用して、モデルはコメントを10回肯定的、否定的、または中立として分類し、毎回プロンプトをわずかに変化させました。
実験方法には、分類間の有意な矛盾を特定するための探索的および確認分析が含まれていました。
結果は、語彙、構文、モーダルの変化などのプロンプトに対する軽微な変更でさえ、またはその構造の欠如が分類に影響することを明らかにしています。
特定の場合、モデルは、混合カテゴリ、未承諾の説明を提供する、またはスペイン語以外の言語を使用するなど、一貫性のない応答を生成しました。
カイ二乗検定を使用した統計分析により、言語構造が非常に類似している場合を除き、プロンプト間のほとんどの比較において有意差が確認されました。
これらの調査結果は、分類タスクのための大規模な言語モデルの堅牢性と信頼に挑戦し、指示の変動に対する脆弱性を強調しています。
さらに、プロンプトに構造化された文法の欠如が幻覚の頻度を増加させることは明らかでした。
議論は、大規模な言語モデルでの信頼は、技術的なパフォーマンスだけでなく、その使用を支える社会的および制度的関係にも基づいていることを強調しています。

要約(オリジナル)

One fundamental question for the social sciences today is: how much can we trust highly complex predictive models like ChatGPT? This study tests the hypothesis that subtle changes in the structure of prompts do not produce significant variations in the classification results of sentiment polarity analysis generated by the Large Language Model GPT-4o mini. Using a dataset of 100.000 comments in Spanish on four Latin American presidents, the model classified the comments as positive, negative, or neutral on 10 occasions, varying the prompts slightly each time. The experimental methodology included exploratory and confirmatory analyses to identify significant discrepancies among classifications. The results reveal that even minor modifications to prompts such as lexical, syntactic, or modal changes, or even their lack of structure impact the classifications. In certain cases, the model produced inconsistent responses, such as mixing categories, providing unsolicited explanations, or using languages other than Spanish. Statistical analysis using Chi-square tests confirmed significant differences in most comparisons between prompts, except in one case where linguistic structures were highly similar. These findings challenge the robustness and trust of Large Language Models for classification tasks, highlighting their vulnerability to variations in instructions. Moreover, it was evident that the lack of structured grammar in prompts increases the frequency of hallucinations. The discussion underscores that trust in Large Language Models is based not only on technical performance but also on the social and institutional relationships underpinning their use.

arxiv情報

著者 Jaime E. Cuellar,Oscar Moreno-Martinez,Paula Sofia Torres-Rodriguez,Jaime Andres Pavlich-Mariscal,Andres Felipe Mican-Castiblanco,Juan Guillermo Torres-Hurtado
発行日 2025-04-16 15:37:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | Trusting CHATGPT: how minor tweaks in the prompts lead to major differences in sentiment classification はコメントを受け付けていません

SALAD: Improving Robustness and Generalization through Contrastive Learning with Structure-Aware and LLM-Driven Augmented Data

要約

さまざまな自然言語処理(NLP)のタスクでは、微調整前の言語モデル(PLM)は、特に分散データを扱うときにパフォーマンスに悪影響を与えるという微妙な相関の問題につながることがよくあります。
この問題に対処するために、サラダを提案します}(構造認識およびLLM駆動型の拡張データ)を提案します。これは、コントラスト学習のために構造認識と反論のデータを生成することにより、モデルの堅牢性と一般化を強化するために設計された新しいアプローチです。
私たちの方法は、タグベースのアプローチを活用して構造認識の正のサンプルを生成し、大規模な言語モデル(LLM)を利用して、多様な文パターンを持つ反事実的な負のサンプルを生成します。
対照学習を適用することにより、サラダは、モデルが主要な相関関係への依存を最小限に抑えながら、キー文のコンポーネント間の構造的関係を学習することに集中できるようにします。
センチメント分類、性差別検出、自然言語の推論の3つのタスクでの実験を通じてアプローチを検証します。
結果は、サラダがさまざまな環境でモデルの堅牢性とパフォーマンスを改善するだけでなく、分散型データセットとクロスドメインシナリオへの一般化を強化することを示しています。

要約(オリジナル)

In various natural language processing (NLP) tasks, fine-tuning Pre-trained Language Models (PLMs) often leads to the issue of spurious correlations, which negatively impacts performance, particularly when dealing with out-of-distribution data. To address this problem, we propose SALAD}(Structure Aware and LLM-driven Augmented Data), a novel approach designed to enhance model robustness and generalization by generating structure-aware and counterfactually augmented data for contrastive learning. Our method leverages a tagging-based approach to generate structure-aware positive samples and utilizes large language models (LLMs) to generate counterfactual negative samples with diverse sentence patterns. By applying contrastive learning, SALAD enables the model to focus on learning the structural relationships between key sentence components while minimizing reliance on spurious correlations. We validate our approach through experiments on three tasks: Sentiment Classification, Sexism Detection, and Natural Language Inference. The results demonstrate that SALAD not only improves model robustness and performance across different environments but also enhances generalization to out-of-distribution datasets and cross-domain scenarios.

arxiv情報

著者 Suyoung Bae,Hyojun Kim,YunSeok Choi,Jee-Hyong Lee
発行日 2025-04-16 15:40:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | SALAD: Improving Robustness and Generalization through Contrastive Learning with Structure-Aware and LLM-Driven Augmented Data はコメントを受け付けていません

What Do Large Language Models Know? Tacit Knowledge as a Potential Causal-Explanatory Structure

要約

大規模な言語モデル(LLM)が言語を知っている、またはたとえばパリがフランスの首都であることを知っていると想定されることがあります。
しかし、LLMSは実際に何を知っているのでしょうか?
この論文では、LLMSはMartin Davies(1990)によって定義されているように、暗黙の知識を取得できると主張しています。
Davies自身は、ニューラルネットワークが暗黙の知識を獲得できることを否定していますが、LLMの特定のアーキテクチャの特徴がセマンティックな説明、構文構造、因果体系の制約を満たすことを実証します。
したがって、暗黙の知識は、LLMとその行動を説明、説明、介入するための概念的な枠組みとして機能する可能性があります。

要約(オリジナル)

It is sometimes assumed that Large Language Models (LLMs) know language, or for example that they know that Paris is the capital of France. But what — if anything — do LLMs actually know? In this paper, I argue that LLMs can acquire tacit knowledge as defined by Martin Davies (1990). Whereas Davies himself denies that neural networks can acquire tacit knowledge, I demonstrate that certain architectural features of LLMs satisfy the constraints of semantic description, syntactic structure, and causal systematicity. Thus, tacit knowledge may serve as a conceptual framework for describing, explaining, and intervening on LLMs and their behavior.

arxiv情報

著者 Céline Budding
発行日 2025-04-16 15:42:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG | What Do Large Language Models Know? Tacit Knowledge as a Potential Causal-Explanatory Structure はコメントを受け付けていません

From Requirements to Architecture: Semi-Automatically Generating Software Architectures

要約

ジュニアおよびシニアアーキテクトをサポートするために、LLMSの進化する機能を活用して建築家をサポートする新しいアーキテクチャ作成方法を開発することを提案します。
この方法には、アーキテクトとプロセス全体にわたるLLM燃料のツールとの緊密なコラボレーションが含まれます。
アーキテクトは、ドメインモデルの作成、ユースケースの仕様、アーキテクチャの決定、および建築評価を通じて導かれます。
アーキテクトは、プロセスと結果を完全に制御し、ツールを建物セットとして使用することができますが、最大のツールサポートを得るために意図したプロセスに従うことができます。
予備的な結果は、このプロセスの実現可能性を示唆しており、建築家の大きな時間節約を示しています。

要約(オリジナル)

To support junior and senior architects, I propose developing a new architecture creation method that leverages LLMs’ evolving capabilities to support the architect. This method involves the architect’s close collaboration with LLM-fueled tooling over the whole process. The architect is guided through Domain Model creation, Use Case specification, architectural decisions, and architecture evaluation. While the architect can take complete control of the process and the results, and use the tooling as a building set, they can follow the intended process for maximum tooling support. The preliminary results suggest the feasibility of this process and indicate major time savings for the architect.

arxiv情報

著者 Tobias Eisenreich
発行日 2025-04-16 15:46:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.SE, D.2.2 | From Requirements to Architecture: Semi-Automatically Generating Software Architectures はコメントを受け付けていません

Care for the Mind Amid Chronic Diseases: An Interpretable AI Approach Using IoT

要約

慢性疾患管理のための健康検知は、社会福祉に大きな利益をもたらします。
既存の健康検知研究は、主に身体慢性疾患の予測に焦点を当てています。
しかし、慢性疾患の広範な合併症であるうつ病は、研究されていません。
モーションセンサーデータを使用したうつ病の検出をサポートするために医学文献を利用します。
この意思決定において人間を結びつけるために、信頼を守り、アルゴリズムの透明性を確保するために、解釈可能な深い学習モデルであるTurnal Prototype Network(TemppNet)を開発します。
TemppNetは、緊急のプロトタイプ学習モデルに基づいて構築されています。
センサーデータの時間的特性とうつ病の進歩的特性に対応するために、TemppNetは、プロトタイプの時間的進行をキャプチャする能力が既存のプロトタイプ学習モデルとは異なります。
実際のモーションセンサーデータを使用した広範な経験的分析は、TemppNetがうつ病検出における最先端のベンチマークよりも優れていることを示しています。
さらに、TemppNetは、うつ病の時間的進行とセンサーデータから検出された対応する症状を視覚化することにより、その決定を解釈します。
さらに、ユーザー調査と医療専門家パネルを採用して、解釈可能性におけるベンチマークに対する優位性を実証します。
この研究は、衝撃的な社会的利益のためのアルゴリズムソリューションを提供します – 慢性疾患の共同ケアと健康検知におけるうつ病。
方法論的には、センサーデータからのうつ病検出のための新しい解釈可能な深い学習モデルで現存する文献に貢献します。
患者、医師、介護者は、モバイルデバイスにモデルを展開して、患者のうつ病のリスクをリアルタイムで監視できます。
また、モデルの解釈可能性により、人間の専門家は、解釈を確認し、情報に基づいた介入を行うことにより、意思決定に参加することができます。

要約(オリジナル)

Health sensing for chronic disease management creates immense benefits for social welfare. Existing health sensing studies primarily focus on the prediction of physical chronic diseases. Depression, a widespread complication of chronic diseases, is however understudied. We draw on the medical literature to support depression detection using motion sensor data. To connect humans in this decision-making, safeguard trust, and ensure algorithm transparency, we develop an interpretable deep learning model: Temporal Prototype Network (TempPNet). TempPNet is built upon the emergent prototype learning models. To accommodate the temporal characteristic of sensor data and the progressive property of depression, TempPNet differs from existing prototype learning models in its capability of capturing temporal progressions of prototypes. Extensive empirical analyses using real-world motion sensor data show that TempPNet outperforms state-of-the-art benchmarks in depression detection. Moreover, TempPNet interprets its decision by visualizing the temporal progression of depression and its corresponding symptoms detected from sensor data. We further employ a user study and a medical expert panel to demonstrate its superiority over the benchmarks in interpretability. This study offers an algorithmic solution for impactful social good — collaborative care of chronic diseases and depression in health sensing. Methodologically, it contributes to extant literature with a novel interpretable deep learning model for depression detection from sensor data. Patients, doctors, and caregivers can deploy our model on mobile devices to monitor patients’ depression risks in real-time. Our model’s interpretability also allows human experts to participate in the decision-making by reviewing the interpretation and making informed interventions.

arxiv情報

著者 Jiaheng Xie,Xiaohang Zhao,Xiang Liu,Xiao Fang
発行日 2025-04-16 15:54:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.HC, cs.LG | Care for the Mind Amid Chronic Diseases: An Interpretable AI Approach Using IoT はコメントを受け付けていません

Communication Optimization for Decentralized Learning atop Bandwidth-limited Edge Networks

要約

分散化されたフェデレーションラーニング(DFL)は、ネットワークエッジに人工知能(AI)機能をもたらすための有望な機械学習パラダイムです。
ただし、エッジネットワークの上でDFLを実行すると、エージェント間の広範なパラメーター交換により、深刻なパフォーマンスの課題に直面しています。
これらの課題に対する既存のソリューションのほとんどは、単純化された通信モデルに基づいており、マルチホップ帯域幅が制限されたネットワークを介して学習の場合を把握できません。
この作業では、エージェントによって形成されたオーバーレイネットワークの通信スキームと、エージェント間の通信要求を制御する混合マトリックスのコミュニケーションスキームを共同設計することにより、この問題に対処します。
問題の特性を慎重に分析することにより、各設計問題を扱いやすい最適化に導き、パフォーマンスを保証する効率的なアルゴリズムを開発します。
実際のトポロジとデータに基づいた私たちの評価は、提案されたアルゴリズムが精度を犠牲にすることなくベースラインと比較して総トレーニング時間を80ドル以上削減できることを示しています。

要約(オリジナル)

Decentralized federated learning (DFL) is a promising machine learning paradigm for bringing artificial intelligence (AI) capabilities to the network edge. Running DFL on top of edge networks, however, faces severe performance challenges due to the extensive parameter exchanges between agents. Most existing solutions for these challenges were based on simplistic communication models, which cannot capture the case of learning over a multi-hop bandwidth-limited network. In this work, we address this problem by jointly designing the communication scheme for the overlay network formed by the agents and the mixing matrix that controls the communication demands between the agents. By carefully analyzing the properties of our problem, we cast each design problem into a tractable optimization and develop an efficient algorithm with guaranteed performance. Our evaluations based on real topology and data show that the proposed algorithm can reduce the total training time by over $80\%$ compared to the baseline without sacrificing accuracy, while significantly improving the computational efficiency over the state of the art.

arxiv情報

著者 Tingyang Sun,Tuan Nguyen,Ting He
発行日 2025-04-16 15:56:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.DC, cs.LG, cs.NI | Communication Optimization for Decentralized Learning atop Bandwidth-limited Edge Networks はコメントを受け付けていません