Rapid AI-based generation of coverage paths for dispensing applications

要約

カバレッジパスサーマルインターフェイス材料(TIM)の計画は、電子電子機器と電子制御ユニットの設計において重要な役割を果たします。
これまで、これは専門家によって手動で行われ、または高い計算努力で最適化アプローチを使用して行われます。
TIMの分配パスと同様の分配アプリケーションを生成するための新しいAIベースのアプローチを提案します。
これは、最適化ベースのアプローチのドロップイン交換です。
人工ニューラルネットワーク(ANN)は、ターゲット冷却領域を入力として受け取り、ディスペンスパスを直接出力します。
提案されたセットアップでは、ラベルは必要ありません。複数のターゲット領域での実行可能性を示しています。
結果として生じるディスペンスパスは、自動化された製造機器に直接転送でき、空気の閉じ込めを示すことはできません。
ANNを使用して、目的のターゲット状態のプロセスパラメーターをリアルタイムで予測するアプローチは、潜在的に他の製造プロセスに転送される可能性があります。

要約(オリジナル)

Coverage Path Planning of Thermal Interface Materials (TIM) plays a crucial role in the design of power electronics and electronic control units. Up to now, this is done manually by experts or by using optimization approaches with a high computational effort. We propose a novel AI-based approach to generate dispense paths for TIM and similar dispensing applications. It is a drop-in replacement for optimization-based approaches. An Artificial Neural Network (ANN) receives the target cooling area as input and directly outputs the dispense path. Our proposed setup does not require labels and we show its feasibility on multiple target areas. The resulting dispense paths can be directly transferred to automated manufacturing equipment and do not exhibit air entrapments. The approach of using an ANN to predict process parameters for a desired target state in real-time could potentially be transferred to other manufacturing processes.

arxiv情報

著者 Simon Baeuerle,Ian F. Mendonca,Kristof Van Laerhoven,Ralf Mikut,Andreas Steimer
発行日 2025-05-06 14:13:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | Rapid AI-based generation of coverage paths for dispensing applications はコメントを受け付けていません

Ergodic Generative Flows

要約

生成フローネットワーク(GFN)は、正規化されていない分布密度からサンプリングするために、指向の非環式グラフに最初に導入されました。
最近の研究により、生成方法の理論的枠組みが拡張され、柔軟性が向上し、アプリケーション範囲が強化されています。
ただし、フローマッチング損失の操作性、非活性トレーニングの限られたテスト、模倣学習における個別の報酬モデルの必要性など、継続的な設定でGFNをトレーニングし、模倣学習(IL)のために多くの課題が残っています。
現在の研究では、前述の問題に対処するために使用されるエルゴジック生成フロー(EGF)と呼ばれる生成フローのファミリーを提案しています。
まず、ergodity性を活用して、普遍性の保証と扱いやすい流れの損失(FM損失)を備えた、世界的に定義された変換(diffeyomorphisms)を有限に定義した変換(FM損失)を備えた単純な生成フローを構築します。
第二に、KL-WeakFM損失を生み出した弱いフローマッチングコントロールに結合した交差エントロピーを含む新しい損失を導入します。
別の報酬モデルなしでILトレーニング用に設計されています。
KL-WeakFM損失を使用して、NASAのTOY 2Dタスクと実世界のデータセットでIL-EGFSを評価します。
さらに、FM損失を使用して、ターゲット報酬でTOY 2D強化学習実験を実施します。

要約(オリジナル)

Generative Flow Networks (GFNs) were initially introduced on directed acyclic graphs to sample from an unnormalized distribution density. Recent works have extended the theoretical framework for generative methods allowing more flexibility and enhancing application range. However, many challenges remain in training GFNs in continuous settings and for imitation learning (IL), including intractability of flow-matching loss, limited tests of non-acyclic training, and the need for a separate reward model in imitation learning. The present work proposes a family of generative flows called Ergodic Generative Flows (EGFs) which are used to address the aforementioned issues. First, we leverage ergodicity to build simple generative flows with finitely many globally defined transformations (diffeomorphisms) with universality guarantees and tractable flow-matching loss (FM loss). Second, we introduce a new loss involving cross-entropy coupled to weak flow-matching control, coined KL-weakFM loss. It is designed for IL training without a separate reward model. We evaluate IL-EGFs on toy 2D tasks and real-world datasets from NASA on the sphere, using the KL-weakFM loss. Additionally, we conduct toy 2D reinforcement learning experiments with a target reward, using the FM loss.

arxiv情報

著者 Leo Maxime Brunswic,Mateo Clemente,Rui Heng Yang,Adam Sigal,Amir Rasouli,Yinchuan Li
発行日 2025-05-06 14:13:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 37A25, 68Q87, 68T07, 68T99, 68W20, cs.AI, cs.LG, math.DG, math.DS | Ergodic Generative Flows はコメントを受け付けていません

The Adaptive Arms Race: Redefining Robustness in AI Security

要約

それらを堅牢にするためのかなりの努力にもかかわらず、現実世界のAIベースのシステムを意思決定ベースの攻撃に対して脆弱なままでいます。その運用上の堅牢性の決定的な証拠は、これまでのところ扱いにくいことが証明されています。
標準的な堅牢性評価は、適応攻撃に依存しており、防御の完全な知識を活用し、それをバイパスするように調整されています。
この作品は、攻撃と防御の両方を強化するために採用する適応性の概念を広げ、相互作用を通じて相互学習からどのように利益を得ることができるかを示しています。
彼らが形成する競争力のあるゲームの下で、ブラックボックス攻撃と防御を適応的に最適化するためのフレームワークを紹介します。
堅牢性を確実に評価するには、現実的および最悪の攻撃に対して評価することが不可欠です。
したがって、RLを使用して攻撃とそれらの回避兵器を一緒に強化し、同じ原理を防御に適用し、最初に独立して評価し、次にマルチエージェントの視点で共同で評価します。
システム応答を動的に制御するアクティブな防御は、決定ベースの攻撃に対するモデルの硬化に不可欠な補完物であることがわかります。
これらの防御は、適応攻撃によって回避できることです。これは、防御が適応的であることを引き出すものです。
広範な理論的および経験的調査に裏付けられた私たちの調査結果は、適応敵がブラックボックスAIベースのシステムに深刻な脅威をもたらし、ことわざの武器競争を再燃させることを確認します。
特に、私たちのアプローチは、最先端のブラックボックス攻撃と防御を上回り、それらをまとめて、実際の展開されたMLベースのシステムの堅牢性に関する効果的な洞察を提供します。

要約(オリジナル)

Despite considerable efforts on making them robust, real-world AI-based systems remain vulnerable to decision based attacks, as definitive proofs of their operational robustness have so far proven intractable. Canonical robustness evaluation relies on adaptive attacks, which leverage complete knowledge of the defense and are tailored to bypass it. This work broadens the notion of adaptivity, which we employ to enhance both attacks and defenses, showing how they can benefit from mutual learning through interaction. We introduce a framework for adaptively optimizing black-box attacks and defenses under the competitive game they form. To assess robustness reliably, it is essential to evaluate against realistic and worst-case attacks. We thus enhance attacks and their evasive arsenal together using RL, apply the same principle to defenses, and evaluate them first independently and then jointly under a multi-agent perspective. We find that active defenses, those that dynamically control system responses, are an essential complement to model hardening against decision-based attacks; that these defenses can be circumvented by adaptive attacks, something that elicits defenses being adaptive too. Our findings, supported by an extensive theoretical and empirical investigation, confirm that adaptive adversaries pose a serious threat to black-box AI-based systems, rekindling the proverbial arms race. Notably, our approach outperforms the state-of-the-art black-box attacks and defenses, while bringing them together to render effective insights into the robustness of real-world deployed ML-based systems.

arxiv情報

著者 Ilias Tsingenopoulos,Vera Rimmer,Davy Preuveneers,Fabio Pierazzi,Lorenzo Cavallaro,Wouter Joosen
発行日 2025-05-06 14:21:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR | The Adaptive Arms Race: Redefining Robustness in AI Security はコメントを受け付けていません

OSUniverse: Benchmark for Multimodal GUI-navigation AI Agents

要約

このホワイトペーパーでは、Osuniverseを紹介します。これは、使いやすさ、拡張性、テストケースの包括的なカバレッジ、自動検証に焦点を当てた高度なGUIナビゲーションAIエージェントのための複雑でマルチモーダルデスクトップ指向のタスクのベンチマークです。
基本的な精度のクリックから、エージェントからの器用さ、精度、および明確な思考を必要とする多段階、多段階、多段階、多段階、多段階のテストに至るまで、複雑さのレベルを上げるタスクを分けます。
ここに示されているベンチマークのバージョン1では、ベンチマークテストケースの複雑さを調整して、SOTA(最先端)エージェント(出版時に)が50%を超える結果を達成しないようにしますが、平均的なホワイトカラーワーカーはこれらすべてのタスクを完璧な精度で実行できます。
ベンチマークは手動で採点することができますが、平均エラー率が2%未満の自動検証メカニズムも導入します。
したがって、このベンチマークは、短期および中期の地平線にわたるGUIナビゲーションAIエージェントの進捗、能力、および有効性の完全に自動化された測定のための堅実な地面を提供します。
ベンチマークのソースコードは、https://github.com/agentsea/osuniverseで入手できます。

要約(オリジナル)

In this paper, we introduce OSUniverse: a benchmark of complex, multimodal desktop-oriented tasks for advanced GUI-navigation AI agents that focuses on ease of use, extensibility, comprehensive coverage of test cases, and automated validation. We divide the tasks in increasing levels of complexity, from basic precision clicking to multistep, multiapplication tests requiring dexterity, precision, and clear thinking from the agent. In version one of the benchmark, presented here, we have calibrated the complexity of the benchmark test cases to ensure that the SOTA (State of the Art) agents (at the time of publication) do not achieve results higher than 50%, while the average white collar worker can perform all these tasks with perfect accuracy. The benchmark can be scored manually, but we also introduce an automated validation mechanism that has an average error rate less than 2%. Therefore, this benchmark presents solid ground for fully automated measuring of progress, capabilities and the effectiveness of GUI-navigation AI agents over the short and medium-term horizon. The source code of the benchmark is available at https://github.com/agentsea/osuniverse.

arxiv情報

著者 Mariya Davydova,Daniel Jeffries,Patrick Barker,Arturo Márquez Flores,Sinéad Ryan
発行日 2025-05-06 14:29:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI | OSUniverse: Benchmark for Multimodal GUI-navigation AI Agents はコメントを受け付けていません

LlamaFirewall: An open source guardrail system for building secure AI agents

要約

大規模な言語モデル(LLMS)は、シンプルなチャットボットから、本番コードの編集、ワークフローの調整、ウェブページや電子メールなどの信頼できない入力に基づいてより高い賭けのアクションを実行できるような複雑なタスクを実行できる自律エージェントに進化しました。
これらの機能は、モデルの微調整やチャットボット中心のガードレールなどの既存のセキュリティ対策が完全には対応していないという新しいセキュリティリスクを導入します。
これらのリスクを軽減するためのより高い利害関係と決定論的解決策がないことを考えると、リアルタイムのガードレールモニターが防御の最終層として機能し、システムレベル、ユースケース固有の安全ポリシーの定義と執行をサポートするための重要な必要性があります。
AIエージェントに関連するセキュリティリスクに対する防御の最終層として機能するように設計されたオープンソースセキュリティに焦点を当てたガードレールフレームワークであるLlamafirewallを紹介します。
私たちのフレームワークは、3つの強力なガードレールを介して、迅速なインジェクション、エージェントの不整合、不安定なコードリスクなどのリスクを軽減します。Artのパフォーマンスを明確に示す普遍的な脱獄検出器であるPromptGuard 2。
エージェントアライメントチェックは、迅速な注入と目標の不整合の推論を検査する考え方の監査人です。
また、エージェントをコーディングすることにより、不安定または危険なコードの生成を防ぐことを目的とした、高速かつ拡張可能なオンライン静的分析エンジンであるCodeshield。
さらに、正規表現またはLLMプロンプトを書くことができる開発者がエージェントのセキュリティガードレールをすばやく更新できるようにする、使いやすいカスタマイズ可能なスキャナーが含まれています。

要約(オリジナル)

Large language models (LLMs) have evolved from simple chatbots into autonomous agents capable of performing complex tasks such as editing production code, orchestrating workflows, and taking higher-stakes actions based on untrusted inputs like webpages and emails. These capabilities introduce new security risks that existing security measures, such as model fine-tuning or chatbot-focused guardrails, do not fully address. Given the higher stakes and the absence of deterministic solutions to mitigate these risks, there is a critical need for a real-time guardrail monitor to serve as a final layer of defense, and support system level, use case specific safety policy definition and enforcement. We introduce LlamaFirewall, an open-source security focused guardrail framework designed to serve as a final layer of defense against security risks associated with AI Agents. Our framework mitigates risks such as prompt injection, agent misalignment, and insecure code risks through three powerful guardrails: PromptGuard 2, a universal jailbreak detector that demonstrates clear state of the art performance; Agent Alignment Checks, a chain-of-thought auditor that inspects agent reasoning for prompt injection and goal misalignment, which, while still experimental, shows stronger efficacy at preventing indirect injections in general scenarios than previously proposed approaches; and CodeShield, an online static analysis engine that is both fast and extensible, aimed at preventing the generation of insecure or dangerous code by coding agents. Additionally, we include easy-to-use customizable scanners that make it possible for any developer who can write a regular expression or an LLM prompt to quickly update an agent’s security guardrails.

arxiv情報

著者 Sahana Chennabasappa,Cyrus Nikolaidis,Daniel Song,David Molnar,Stephanie Ding,Shengye Wan,Spencer Whitman,Lauren Deason,Nicholas Doucette,Abraham Montilla,Alekhya Gampa,Beto de Paola,Dominik Gabi,James Crnkovich,Jean-Christophe Testud,Kat He,Rashnil Chaturvedi,Wu Zhou,Joshua Saxe
発行日 2025-05-06 14:34:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR | LlamaFirewall: An open source guardrail system for building secure AI agents はコメントを受け付けていません

BCause: Human-AI collaboration to improve hybrid mapping and ideation in argumentation-grounded deliberation

要約

国民の審議は、一般の懸念の問題に関する公開された議論のように、しばしば散らばった浅い言説、貧弱なセンスメイキング、および実用的な政策の結果からの切断に苦しんでいます。
このペーパーでは、BCauseを紹介します。これは、生成的AIおよびヒューマンマシンコラボレーションを活用して、公共の問題(都市生活、政策の変更、現在の社会経済的変革など)に関する非構造化された対話を構造化された実行可能な民主的プロセスに変換します。
(i)構造化されていない転写産物を議論的な議論にインポートおよび変換する、(ii)ローカル発行報告のための電信ボットによる地理依存性の問題検知、および(iii)カスタマイズ可能なウィジェットを使用したスマートレポート(例えば、要約、トピックモデリング、ポリシーの推奨事項、クラスターされた議論)を使用したスマートレポート)。
このシステムの人間とのパートナーシップは、倫理的な監視、文脈上の関連性、および創造的な統合を確保するために、重要な人間の参加を維持します。

要約(オリジナル)

Public deliberation, as in open discussion of issues of public concern, often suffers from scattered and shallow discourse, poor sensemaking, and a disconnect from actionable policy outcomes. This paper introduces BCause, a discussion system leveraging generative AI and human-machine collaboration to transform unstructured dialogue around public issues (such as urban living, policy changes, and current socio-economic transformations) into structured, actionable democratic processes. We present three innovations: (i) importing and transforming unstructured transcripts into argumentative discussions, (ii) geo-deliberated problem-sensing via a Telegram bot for local issue reporting, and (iii) smart reporting with customizable widgets (e.g., summaries, topic modelling, policy recommendations, clustered arguments). The system’s human-AI partnership preserves critical human participation to ensure ethical oversight, contextual relevance, and creative synthesis.

arxiv情報

著者 Lucas Anastasiou,Anna De Liddo
発行日 2025-05-06 14:43:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.HC, I.2 | BCause: Human-AI collaboration to improve hybrid mapping and ideation in argumentation-grounded deliberation はコメントを受け付けていません

DyTTP: Trajectory Prediction with Normalization-Free Transformers

要約

正確な軌道予測は、周囲のエージェントの動的な動作を理解することが重要である自律運転システムの安全な動作の基礎です。
変圧器ベースのアーキテクチャは、複雑な空間的依存性をキャプチャする際に大きな約束を示しています。
ただし、正規化層への依存は、計算オーバーヘッドとトレーニングの不安定性につながる可能性があります。
この作業では、これらの課題に対処するための2つのアプローチを提示します。
まず、トランスを促進する最新の方法であるDynamictanh(DYT)をバックボーンに統合し、従来の層の正規化を置き換えます。
この変更により、ネットワークアーキテクチャが簡素化され、推論の安定性が向上します。
私たちは、DYTを軌道予測タスクに展開する最初の作業です。
これを補完すると、スナップショットアンサンブル戦略を採用して、軌道予測のパフォーマンスをさらに高めます。
循環学習率のスケジューリングを使用して、1回のトレーニング実行中に複数のモデルスナップショットがキャプチャされます。
これらのスナップショットは、推論時間に単純な平均化を介して集約され、実質的な追加の計算コストを発生させることなく、モデルが多様な仮説から利益を得ることができます。
Armoverse Datasetの広範な実験は、私たちの組み合わせたアプローチが、多様な運転シナリオの予測精度、推論速度、堅牢性を大幅に改善することを示しています。
この作業は、自律車の軌跡予測を進める際の軽量アンサンブル技術で増強された正規化のない変圧器設計の可能性を強調しています。

要約(オリジナル)

Accurate trajectory prediction is a cornerstone for the safe operation of autonomous driving systems, where understanding the dynamic behavior of surrounding agents is crucial. Transformer-based architectures have demonstrated significant promise in capturing complex spatio-temporality dependencies. However, their reliance on normalization layers can lead to computation overhead and training instabilities. In this work, we present a two-fold approach to address these challenges. First, we integrate DynamicTanh (DyT), which is the latest method to promote transformers, into the backbone, replacing traditional layer normalization. This modification simplifies the network architecture and improves the stability of the inference. We are the first work to deploy the DyT to the trajectory prediction task. Complementing this, we employ a snapshot ensemble strategy to further boost trajectory prediction performance. Using cyclical learning rate scheduling, multiple model snapshots are captured during a single training run. These snapshots are then aggregated via simple averaging at inference time, allowing the model to benefit from diverse hypotheses without incurring substantial additional computational cost. Extensive experiments on Argoverse datasets demonstrate that our combined approach significantly improves prediction accuracy, inference speed and robustness in diverse driving scenarios. This work underscores the potential of normalization-free transformer designs augmented with lightweight ensemble techniques in advancing trajectory forecasting for autonomous vehicles.

arxiv情報

著者 JianLin Zhu,HongKuo Niu
発行日 2025-05-06 14:46:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | DyTTP: Trajectory Prediction with Normalization-Free Transformers はコメントを受け付けていません

Rainbow Delay Compensation: A Multi-Agent Reinforcement Learning Framework for Mitigating Delayed Observation

要約

現実世界のマルチエージェントシステム(質量)では、観測の遅延は遍在しており、エージェントが環境の真の状態に基づいて意思決定を行うことを妨げます。
個々のエージェントの局所観察は、多くの場合、環境内の他のエージェントまたは動的エンティティからの複数のコンポーネントで構成されています。
さまざまな遅延特性を持つこれらの離散観察成分は、マルチエージェント補強学習(MARL)に大きな課題をもたらします。
このホワイトペーパーでは、標準のDEC-POMDPを拡張することにより、最初に分散型の確率的個々の遅延部分を部分的に観察可能なマルコフ決定プロセス(DSID-POMDP)を定式化します。
次に、確率的な個々の遅延に対処するためのMARLトレーニングフレームワークであるRainbow Delay補償(RDC)と、その構成モジュールに推奨される実装を提案します。
MPEやSMACを含む標準のMARLベンチマークを使用して、DSID-POMDPの観測生成パターンを実装します。
実験では、ベースラインMARLメソッドが固定されていない遅延の下で深刻なパフォーマンスの低下を受けることが示されています。
RDC強化アプローチはこの問題を軽減し、一般化能力を維持しながら、特定の遅延シナリオで理想的な遅延パフォーマンスを著しく達成します。
私たちの作品は、マルチエージェント遅延観測問題に関する新しい視点を提供し、効果的なソリューションフレームワークを提供します。

要約(オリジナル)

In real-world multi-agent systems (MASs), observation delays are ubiquitous, preventing agents from making decisions based on the environment’s true state. An individual agent’s local observation often consists of multiple components from other agents or dynamic entities in the environment. These discrete observation components with varying delay characteristics pose significant challenges for multi-agent reinforcement learning (MARL). In this paper, we first formulate the decentralized stochastic individual delay partially observable Markov decision process (DSID-POMDP) by extending the standard Dec-POMDP. We then propose the Rainbow Delay Compensation (RDC), a MARL training framework for addressing stochastic individual delays, along with recommended implementations for its constituent modules. We implement the DSID-POMDP’s observation generation pattern using standard MARL benchmarks, including MPE and SMAC. Experiments demonstrate that baseline MARL methods suffer severe performance degradation under fixed and unfixed delays. The RDC-enhanced approach mitigates this issue, remarkably achieving ideal delay-free performance in certain delay scenarios while maintaining generalization capability. Our work provides a novel perspective on multi-agent delayed observation problems and offers an effective solution framework.

arxiv情報

著者 Songchen Fu,Siang Chen,Shaojing Zhao,Letian Bai,Ta Li,Yonghong Yan
発行日 2025-05-06 14:47:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: (Primary), 68T20, 68T42, cs.AI, cs.MA, I.2 | Rainbow Delay Compensation: A Multi-Agent Reinforcement Learning Framework for Mitigating Delayed Observation はコメントを受け付けていません

FastRM: An efficient and automatic explainability framework for multimodal generative models

要約

大規模なビジョン言語モデル(LVLMS)は、テキストおよび視覚入力よりも顕著な推論能力を実証しています。
ただし、これらのモデルは誤った情報を生成する傾向があります。
信頼できるAIを開発するには、接地されていない応答を特定して軽減することが重要です。
グラデーションベースの関連性マップなどの従来の説明可能性方法は、モデルの決定プロセスに関する洞察を提供しますが、多くの場合、リアルタイムの出力検証には計算上の高価で不適切です。
この作業では、LVLMの説明可能な関連性マップを予測するための効率的な方法であるFastrMを紹介します。
さらに、FASTRMは、モデル信頼の定量的評価と定性的評価の両方を提供します。
実験結果は、FASTRMが計算時間の99.8%の短縮を達成し、従来の関連マップ生成と比較してメモリフットプリントが44.4%減少することを示しています。
FASTRMは、説明可能なAIがより実用的でスケーラブルであるため、実際のアプリケーションでの展開を促進し、ユーザーがモデル出力の信頼性をより効果的に評価できるようにします。

要約(オリジナル)

Large Vision Language Models (LVLMs) have demonstrated remarkable reasoning capabilities over textual and visual inputs. However, these models remain prone to generating misinformation. Identifying and mitigating ungrounded responses is crucial for developing trustworthy AI. Traditional explainability methods such as gradient-based relevancy maps, offer insight into the decision process of models, but are often computationally expensive and unsuitable for real-time output validation. In this work, we introduce FastRM, an efficient method for predicting explainable Relevancy Maps of LVLMs. Furthermore, FastRM provides both quantitative and qualitative assessment of model confidence. Experimental results demonstrate that FastRM achieves a 99.8% reduction in computation time and a 44.4% reduction in memory footprint compared to traditional relevancy map generation. FastRM allows explainable AI to be more practical and scalable, thereby promoting its deployment in real-world applications and enabling users to more effectively evaluate the reliability of model outputs.

arxiv情報

著者 Gabriela Ben-Melech Stan,Estelle Aflalo,Man Luo,Shachar Rosenman,Tiep Le,Sayak Paul,Shao-Yen Tseng,Vasudev Lal
発行日 2025-05-06 14:49:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI | FastRM: An efficient and automatic explainability framework for multimodal generative models はコメントを受け付けていません

CounterQuill: Investigating the Potential of Human-AI Collaboration in Online Counterspeech Writing

要約

オンラインヘイトスピーチは、ソーシャルメディアプラットフォームでますます普及しており、個人や社会に害を及ぼしています。
コンテンツモデレートを通じてこの問題に対処するための努力がなされていますが、代替ソリューションとしてのユーザー駆動型のcounterspeechの可能性は、採用されていないままです。
既存のcounterspeechメソッドは、報復の恐怖やスキル関連の障壁などの課題に直面することがよくあります。
これらの課題に対処するために、ユーザーが効果的で共感的なウンパースピーチを構成するのを支援するAIを介したシステムであるCounterQuillを紹介します。
CounterQuillは、3段階のプロセスを提供します。(1)ユーザーがヘイトスピーチとカウンタースピーチを理解できるようにするための学習セッション。
(2)ユーザーがヘイトスピーチの重要な要素を特定し、カウンタースピーチ戦略の調査に導くブレーンストーミングセッション。
(3)ユーザーがカウンターキルでカウンタースピーチをドラフトして改良できるようにする共同執筆セッション。
CHATGPTと比較して、カウンターキルを評価するために、20人の参加者を使用した被験者内ユーザー調査を実施しました。
結果は、Counter Quillのガイダンスと共同執筆プロセスにより、ユーザーが共著したcounterspeechよりも強力な所有感を提供したことを示しています。
ユーザーはカウンターキルをライティングパートナーとして認識していたため、CHATGPTで書かれたものと比較して、共同執筆のcountersepeechをオンラインで投稿する意思がありました。

要約(オリジナル)

Online hate speech has become increasingly prevalent on social media platforms, causing harm to individuals and society. While efforts have been made to combat this issue through content moderation, the potential of user-driven counterspeech as an alternative solution remains underexplored. Existing counterspeech methods often face challenges such as fear of retaliation and skill-related barriers. To address these challenges, we introduce CounterQuill, an AI-mediated system that assists users in composing effective and empathetic counterspeech. CounterQuill provides a three-step process: (1) a learning session to help users understand hate speech and counterspeech; (2) a brainstorming session that guides users in identifying key elements of hate speech and exploring counterspeech strategies; and (3) a co-writing session that enables users to draft and refine their counterspeech with CounterQuill. We conducted a within-subjects user study with 20 participants to evaluate CounterQuill in comparison to ChatGPT. Results show that CounterQuill’s guidance and collaborative writing process provided users a stronger sense of ownership over their co-authored counterspeech. Users perceived CounterQuill as a writing partner and thus were more willing to post the co-written counterspeech online compared to the one written with ChatGPT.

arxiv情報

著者 Xiaohan Ding,Kaike Ping,Uma Sushmitha Gunturi,Buse Carik,Sophia Stil,Lance T Wilhelm,Taufiq Daryanto,James Hawdon,Sang Won Lee,Eugenia H Rho
発行日 2025-05-06 14:58:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.HC | CounterQuill: Investigating the Potential of Human-AI Collaboration in Online Counterspeech Writing はコメントを受け付けていません