ViSA-Flow: Accelerating Robot Skill Learning via Large-Scale Video Semantic Action Flow

要約

ロボットが複雑な操作スキルを獲得できないようにする中心的な課題の1つは、大規模なロボットデモンストレーションを収集するための法外なコストです。
対照的に、人間は、他の人が自分の環境と対話するのを見ることで効率的に学ぶことができます。
このギャップを埋めるために、セマンティックアクションフローをコア中間表現として導入します。本質的な視覚的違いから不変の時空間マニピュレーターとオブジェクトの相互作用を捉えます。
Visa-Flowを提示します。Visa-Flowは、この表現を学習しているこの表現を学習していることを紹介します。
第一に、生成モデルは、大規模な人間とオブジェクトの相互作用ビデオデータから自動的に抽出されたセマンティックアクションフローで事前に訓練され、操作構造よりも堅牢な事前の学習を学びます。
第二に、これは、同じセマンティック抽象化パイプラインを通じて処理されたロボットデモの小さなセットで微調整することにより、ターゲットロボットに効率的に適合しています。
Calvin BenchmarkおよびVisa-Flowが最先端のパフォーマンスを達成する現実世界のタスクに関する広範な実験を通じて、特に低データ体制では、人間のビデオ観察からロボット実行に効果的に伝達することにより、以前の方法よりも優れています。
ビデオはhttps://visaflow-web.github.io/visaflowで入手できます。

要約(オリジナル)

One of the central challenges preventing robots from acquiring complex manipulation skills is the prohibitive cost of collecting large-scale robot demonstrations. In contrast, humans are able to learn efficiently by watching others interact with their environment. To bridge this gap, we introduce semantic action flow as a core intermediate representation capturing the essential spatio-temporal manipulator-object interactions, invariant to superficial visual differences. We present ViSA-Flow, a framework that learns this representation self-supervised from unlabeled large-scale video data. First, a generative model is pre-trained on semantic action flows automatically extracted from large-scale human-object interaction video data, learning a robust prior over manipulation structure. Second, this prior is efficiently adapted to a target robot by fine-tuning on a small set of robot demonstrations processed through the same semantic abstraction pipeline. We demonstrate through extensive experiments on the CALVIN benchmark and real-world tasks that ViSA-Flow achieves state-of-the-art performance, particularly in low-data regimes, outperforming prior methods by effectively transferring knowledge from human video observation to robotic execution. Videos are available at https://visaflow-web.github.io/ViSAFLOW.

arxiv情報

著者 Changhe Chen,Quantao Yang,Xiaohao Xu,Nima Fazeli,Olov Andersson
発行日 2025-05-12 13:37:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | ViSA-Flow: Accelerating Robot Skill Learning via Large-Scale Video Semantic Action Flow はコメントを受け付けていません

SICNav-Diffusion: Safe and Interactive Crowd Navigation with Diffusion Trajectory Predictions

要約

衝突せずに群衆をナビゲートするために、ロボットは将来の動きを予測し、それに応じて反応することにより、人間と対話する必要があります。
学習ベースの予測モデルは、おそらくヒトの軌跡予測を生成することに成功していることを示していますが、これらの確率モデルをロボットコントローラーに統合すると、いくつかの課題があります。
コントローラーは、計画されたロボットの動きと人間の予測との間のインタラクティブな結合を説明する必要があり、予測とロボットのアクションの両方が安全であることを確認します(つまり、衝突なし)。
これらの課題に対処するために、シングルロボットマルチヒューマン環境のための後退地平線クラウドナビゲーション方法を提示します。
最初に、現場のすべての人間の共同軌道予測を生成する拡散モデルを提案します。
次に、これらのマルチモーダル予測をSICNAV Bilevel MPC問題に組み込みます。これは、ロボットプラン(上位レベル)を同時に解決し、非衝突(低レベル)の予測を改良する安全フィルターとして機能します。
計画と予測の改良を1つのバイレベル問題に組み合わせることで、ロボット計画と人間の予測が結合されることが保証されます。
一般的に使用されるETH/UCYベンチマーク上の拡散モデルのオープンループ軌道予測パフォーマンスを検証し、シミュレーションおよび安全で効率的で反応性のあるロボットモーションを実証する広範なレアルロボット実験におけるロボットナビゲーション法の閉ループパフォーマンスを評価します。

要約(オリジナル)

To navigate crowds without collisions, robots must interact with humans by forecasting their future motion and reacting accordingly. While learning-based prediction models have shown success in generating likely human trajectory predictions, integrating these stochastic models into a robot controller presents several challenges. The controller needs to account for interactive coupling between planned robot motion and human predictions while ensuring both predictions and robot actions are safe (i.e. collision-free). To address these challenges, we present a receding horizon crowd navigation method for single-robot multi-human environments. We first propose a diffusion model to generate joint trajectory predictions for all humans in the scene. We then incorporate these multi-modal predictions into a SICNav Bilevel MPC problem that simultaneously solves for a robot plan (upper-level) and acts as a safety filter to refine the predictions for non-collision (lower-level). Combining planning and prediction refinement into one bilevel problem ensures that the robot plan and human predictions are coupled. We validate the open-loop trajectory prediction performance of our diffusion model on the commonly used ETH/UCY benchmark and evaluate the closed-loop performance of our robot navigation method in simulation and extensive real-robot experiments demonstrating safe, efficient, and reactive robot motion.

arxiv情報

著者 Sepehr Samavi,Anthony Lem,Fumiaki Sato,Sirui Chen,Qiao Gu,Keijiro Yano,Angela P. Schoellig,Florian Shkurti
発行日 2025-05-12 14:45:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | SICNav-Diffusion: Safe and Interactive Crowd Navigation with Diffusion Trajectory Predictions はコメントを受け付けていません

ReFeree: Radar-Based Lightweight and Robust Localization using Feature and Free space

要約

場所認識は、堅牢な長期の自律性を達成する上で重要な役割を果たします。
現実世界のロボットは、幅広い気象条件(曇り、大雨、雪の雪)に直面しており、ほとんどのセンサー(つまり、カメラ、ライダー)は、目に見える電磁波内またはほぼ魅力的な電磁波の内部またはほぼ有機波波に敏感であり、信頼性の高い局所化に敏感です。
対照的に、レーダーは長い電磁波のために牽引力を獲得していますが、これは環境の変化や天候の独立性の影響を受けません。
この作業では、レーダーベースの軽量で堅牢な場所認識を提案します。
一次宇宙と特徴の間で反対のノイズ特性を利用する誤検出の影響を軽減することにより、1次元のリング形の説明と堅牢性を選択することにより、回転不変性と軽量を実現します。
さらに、最初の見出しを推定することができます。これは、船尾コンピューティングを考慮に入れる臭気と登録を組み合わせたスラムパイプラインの構築に役立ちます。
提案された方法は、さまざまなシナリオ(つまり、単一のセッション、マルチセッション、さまざまな気象条件)にわたる厳密な検証のためにテストされました。
特に、ORDデータセットなどの構造情報がない極端な環境の結果を通じて、信頼できる場所認識パフォーマンスを達成する記述子を検証します。

要約(オリジナル)

Place recognition plays an important role in achieving robust long-term autonomy. Real-world robots face a wide range of weather conditions (e.g. overcast, heavy rain, and snowing) and most sensors (i.e. camera, LiDAR) essentially functioning within or near-visible electromagnetic waves are sensitive to adverse weather conditions, making reliable localization difficult. In contrast, radar is gaining traction due to long electromagnetic waves, which are less affected by environmental changes and weather independence. In this work, we propose a radar-based lightweight and robust place recognition. We achieve rotational invariance and lightweight by selecting a one-dimensional ring-shaped description and robustness by mitigating the impact of false detection utilizing opposite noise characteristics between free space and feature. In addition, the initial heading can be estimated, which can assist in building a SLAM pipeline that combines odometry and registration, which takes into account onboard computing. The proposed method was tested for rigorous validation across various scenarios (i.e. single session, multi-session, and different weather conditions). In particular, we validate our descriptor achieving reliable place recognition performance through the results of extreme environments that lacked structural information such as an OORD dataset.

arxiv情報

著者 Hogyun Kim,Byunghee Choi,Euncheol Choi,Younggun Cho
発行日 2025-05-12 15:01:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | ReFeree: Radar-Based Lightweight and Robust Localization using Feature and Free space はコメントを受け付けていません

Intuitive Human-Robot Interfaces Leveraging on Autonomy Features for the Control of Highly-redundant Robots

要約

[…] Defenyysicaloperationインターフェイスを使用すると、選択したロボットボディパーツに仮想力を適用することにより、ロボットのさまざまな機能(単一/二重腕操作、ホイール/脚の移動など)を操作できます。
このアプローチは、物理的な人間とロボットの相互作用の直感性をエミュレートしますが、同時に、「マリオネット」インターフェイスに似た方法で、安全な距離からロボットをテレホティーズすることができます。
システムは、「マリオネット」のメタファーとより適切に整合するためにウェアラブルの触覚フィードバック機能でさらに強化され、触覚チャネルが有効になっている場合となしでその有効性を検証するためにユーザー調査が実施されました。
ロボットの独立性の重要性を考慮すると、DefenySyoperationインターフェイスには、たとえば、両腕のモバイルベースロボットの双方向のモバイルベースロボットの操作と輸送タスクのテレオ操作に直面する自律モジュールが組み込まれています。
レーザー誘導インターフェイスを使用すると、ユーザーは、シンプルだが効果的なレーザーエミッタデバイスの利用を通じて、ロボットに興味のあるポイントを示すことができます。
ニューラルネットワークベースのビジョンシステムを使用すると、ロボットはレーザー投影をリアルタイムで追跡し、ユーザーがオブジェクトのような固定された目標だけでなく、従うべきパスも示すことができます。
実装された自律行動により、モバイルマニピュレーターは、指示された目標に従うためにそのcomonalipulation能力を採用しています。
動作は、動作ツリーを使用してモデル化され、反応性を活用して目標位置の変化に迅速に反応し、モジュール性をタスクのニーズに合わせてモジュール性を備えています。
提案されたレーザーインターフェイスは、支援シナリオでも採用されています。
この場合、上肢の障害を持つユーザーは、日常生活の活動に協力して対処するために、頭のあるレーザーエミッターを関心のあるポイントに向けることにより、支援マニピュレーターを制御できます。
[…]

要約(オリジナル)

[…] With the TelePhysicalOperation interface, the user can teleoperate the different capabilities of a robot (e.g., single/double arm manipulation, wheel/leg locomotion) by applying virtual forces on selected robot body parts. This approach emulates the intuitiveness of physical human-robot interaction, but at the same time it permits to teleoperate the robot from a safe distance, in a way that resembles a ‘Marionette’ interface. The system is further enhanced with wearable haptic feedback functions to align better with the ‘Marionette’ metaphor, and a user study has been conducted to validate its efficacy with and without the haptic channel enabled. Considering the importance of robot independence, the TelePhysicalOperation interface incorporates autonomy modules to face, for example, the teleoperation of dual-arm mobile base robots for bimanual object grasping and transportation tasks. With the laser-guided interface, the user can indicate points of interest to the robot through the utilization of a simple but effective laser emitter device. With a neural network-based vision system, the robot tracks the laser projection in real time, allowing the user to indicate not only fixed goals, like objects, but also paths to follow. With the implemented autonomous behavior, a mobile manipulator employs its locomanipulation abilities to follow the indicated goals. The behavior is modeled using Behavior Trees, exploiting their reactivity to promptly respond to changes in goal positions, and their modularity to adapt the motion planning to the task needs. The proposed laser interface has also been employed in an assistive scenario. In this case, users with upper limbs impairments can control an assistive manipulator by directing a head-worn laser emitter to the point of interests, to collaboratively address activities of everyday life. […]

arxiv情報

著者 Davide Torielli
発行日 2025-05-12 15:33:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Intuitive Human-Robot Interfaces Leveraging on Autonomy Features for the Control of Highly-redundant Robots はコメントを受け付けていません

DATAMUt: Deterministic Algorithms for Time-Delay Attack Detection in Multi-Hop UAV Networks

要約

無人航空機(UAV)は、ドローンとしても知られており、農業、緊急対応、捜索救助活動などのさまざまな分野で人気を博しています。
UAVネットワークは、ワームホール、ジャミング、スプーフィング、誤検出データインジェクションなど、いくつかのセキュリティの脅威に敏感です。
時間遅延攻撃(TDA)は、悪意のあるUAVが意図的にパケット転送を遅らせるユニークな攻撃であり、特に時間に敏感なアプリケーションで大きな脅威をもたらします。
UAVネットワークの動的な性質、断続的なワイヤレス接続、またはマルチホップ通信中のストアキャリーフォワード(SCF)メカニズムにより、悪意のある遅延を良性ネットワーク遅延と区別することは困難です。
いくつかの既存の作品は、計算的に集中的であり、大きなメッセージオーバーヘッドを持っているTDAを検出するための機械学習ベースの集中アプローチを提案しています。
このホワイトペーパーでは、ネットワークの時間的ダイナミクスが加重タイムウィンドウグラフ(Twig)で表される新しいアプローチDatamutを提案し、UAVがグローバルおよびローカルネットワークの知識を持っている場合にTDAを検出するために2つの決定論的多項式時間アルゴリズムが提示されます。
シミュレーションの研究では、提案されたアルゴリズムが、既存のアプローチと比較して、グローバルおよびローカルの知識でそれぞれ5倍と12倍のメッセージオーバーヘッドを減少させたことを示しています。
さらに、当社のアプローチは、グローバルおよびローカルの知識でそれぞれ約860および1050倍短い時間を達成し、既存の方法を上回ります。

要約(オリジナル)

Unmanned Aerial Vehicles (UAVs), also known as drones, have gained popularity in various fields such as agriculture, emergency response, and search and rescue operations. UAV networks are susceptible to several security threats, such as wormhole, jamming, spoofing, and false data injection. Time Delay Attack (TDA) is a unique attack in which malicious UAVs intentionally delay packet forwarding, posing significant threats, especially in time-sensitive applications. It is challenging to distinguish malicious delay from benign network delay due to the dynamic nature of UAV networks, intermittent wireless connectivity, or the Store-Carry-Forward (SCF) mechanism during multi-hop communication. Some existing works propose machine learning-based centralized approaches to detect TDA, which are computationally intensive and have large message overheads. This paper proposes a novel approach DATAMUt, where the temporal dynamics of the network are represented by a weighted time-window graph (TWiG), and then two deterministic polynomial-time algorithms are presented to detect TDA when UAVs have global and local network knowledge. Simulation studies show that the proposed algorithms have reduced message overhead by a factor of five and twelve in global and local knowledge, respectively, compared to existing approaches. Additionally, our approaches achieve approximately 860 and 1050 times less execution time in global and local knowledge, respectively, outperforming the existing methods.

arxiv情報

著者 Keiwan Soltani,Federico Corò,Punyasha Chatterjee,Sajal K. Das
発行日 2025-05-12 15:34:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | DATAMUt: Deterministic Algorithms for Time-Delay Attack Detection in Multi-Hop UAV Networks はコメントを受け付けていません

FD-RIO: Fast Dense Radar Inertial Odometry

要約

レーダーベースの臭気測定は、照明が不十分であるか困難な気象条件があるため、他の外部受容センサーが劣化する可能性のある条件での自我モーション推定に人気のあるソリューションです。
ただし、スキャンレーダーには、サンプリングレートが比較的低く、空間分解能が低下します。
この作業では、FD-Rioを提示します。FD-Rioは、騒々しくドリフトが発生しやすいが、高頻度のIMUデータを密なレーダースキャンで融合させることにより、この問題を軽減する方法です。
私たちの知る限り、これはカルマンフィルターを使用してIMUと密なスキャンレーダー臭気を融合する最初の試みです。
アブレーションテストとランタイム分析に加えて、2つの公開されたデータセットを使用して方法を評価し、標準のKitti評価メトリックを使用して精度を報告します。
私たちの位相相関ベースのアプローチはコンパクトで直感的であり、モバイルプラットフォームの現実的なハードウェアセットアップに展開できる実用的なソリューションとして設計されています。
そのシンプルさにもかかわらず、FD-Rioは他の最先端の方法と同等のものであり、いくつかのテストシーケンスでアウトパフォームしています。

要約(オリジナル)

Radar-based odometry is a popular solution for ego-motion estimation in conditions where other exteroceptive sensors may degrade, whether due to poor lighting or challenging weather conditions; however, scanning radars have the downside of relatively lower sampling rate and spatial resolution. In this work, we present FD-RIO, a method to alleviate this problem by fusing noisy, drift-prone, but high-frequency IMU data with dense radar scans. To the best of our knowledge, this is the first attempt to fuse dense scanning radar odometry with IMU using a Kalman filter. We evaluate our methods using two publicly available datasets and report accuracies using standard KITTI evaluation metrics, in addition to ablation tests and runtime analysis. Our phase correlation -based approach is compact, intuitive, and is designed to be a practical solution deployable on a realistic hardware setup of a mobile platform. Despite its simplicity, FD-RIO is on par with other state-of-the-art methods and outperforms in some test sequences.

arxiv情報

著者 Nader J. Abu-Alrub,Nathir A. Rawashdeh
発行日 2025-05-12 16:03:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | FD-RIO: Fast Dense Radar Inertial Odometry はコメントを受け付けていません

Hybrid Control Strategies for Safe and Adaptive Robot-Assisted Dressing

要約

安全性、信頼性、およびユーザーの信頼は、ロボットがリアルタイムで危険に対処する必要がある場合に、人間とロボットの相互作用(HRI)に不可欠です。
この研究では、衣服の障害やユーザーの不快感などの危険がタスクのパフォーマンスやユーザーの安全性に影響を与える可能性があるため、ロボット支援ドレッシング(RAD)シナリオに実装されたハザード駆動型の低レベル制御戦略を示しています。
提案された制御メカニズムには、(1)過度の力を検出し、チャットボットを介してユーザーの介入を求めるか、その軌跡を自律的に調整するかのいずれかの衣服を引っ掛ける制御戦略が含まれます。
これらの制御戦略を評価するために、物理的なドレッシングトライアルを使用しました。
結果は、ユーザーのフィードバックと力の監視を統合することで、安全性とタスクの継続性が向上することを確認します。
調査結果は、自律的な介入、ユーザーの関与、および制御されたタスク終了のバランスをとるハイブリッドアプローチの必要性を強調しています。これは、双方向の相互作用とリアルタイムのユーザー駆動型の適応性によってサポートされ、より応答性の高いパーソナライズされたHRIシステムへの道を開きます。

要約(オリジナル)

Safety, reliability, and user trust are crucial in human-robot interaction (HRI) where the robots must address hazards in real-time. This study presents hazard driven low-level control strategies implemented in robot-assisted dressing (RAD) scenarios where hazards like garment snags and user discomfort in real-time can affect task performance and user safety. The proposed control mechanisms include: (1) Garment Snagging Control Strategy, which detects excessive forces and either seeks user intervention via a chatbot or autonomously adjusts its trajectory, and (2) User Discomfort/Pain Mitigation Strategy, which dynamically reduces velocity based on user feedback and aborts the task if necessary. We used physical dressing trials in order to evaluate these control strategies. Results confirm that integrating force monitoring with user feedback improves safety and task continuity. The findings emphasise the need for hybrid approaches that balance autonomous intervention, user involvement, and controlled task termination, supported by bi-directional interaction and real-time user-driven adaptability, paving the way for more responsive and personalised HRI systems.

arxiv情報

著者 Yasmin Rafiq,Baslin A. James,Ke Xu,Robert M. Hierons,Sanja Dogramadzi
発行日 2025-05-12 16:17:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Hybrid Control Strategies for Safe and Adaptive Robot-Assisted Dressing はコメントを受け付けていません

Multi-Agent Path Finding via Finite-Horizon Hierarchical Factorization

要約

自動化された倉庫などの動的環境で高速でスケーラブルな計画を可能にする大規模なマルチエージェントパスファインディング(MAPF)の新しいアルゴリズムを提示します。
私たちのアプローチでは、有限の地域の階層因子化を導入します。これは、後退する舞台裏で一歩ずつ計画するフレームワークです。
ロボットは最初に個々の計画を並行して計算し、次に時空間の競合と到達可能性に基づいて動的にグループ化します。
フレームワークは、紛争解決、および即時の実行と同時計画を説明し、オフラインアルゴリズムと比較して応答時間を大幅に削減します。
ベンチマークマップでの実験結果は、私たちの方法が一貫して高品質のソリューションを一貫して提供し、さまざまな問題サイズと計画視野にわたって最先端のオフラインベースラインを上回ると一貫して配信し、最大60%の削減を達成することを示しています。

要約(オリジナル)

We present a novel algorithm for large-scale Multi-Agent Path Finding (MAPF) that enables fast, scalable planning in dynamic environments such as automated warehouses. Our approach introduces finite-horizon hierarchical factorization, a framework that plans one step at a time in a receding-horizon fashion. Robots first compute individual plans in parallel, and then dynamically group based on spatio-temporal conflicts and reachability. The framework accounts for conflict resolution, and for immediate execution and concurrent planning, significantly reducing response time compared to offline algorithms. Experimental results on benchmark maps demonstrate that our method achieves up to 60% reduction in time-to-first-action while consistently delivering high-quality solutions, outperforming state-of-the-art offline baselines across a range of problem sizes and planning horizons.

arxiv情報

著者 Jiarui Li,Alessandro Zanardi,Gioele Zardini
発行日 2025-05-12 17:31:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Multi-Agent Path Finding via Finite-Horizon Hierarchical Factorization はコメントを受け付けていません

AcoustoBots: A swarm of robots for acoustophoretic multimodal interactions

要約

音響恐怖症により、浮揚、体積ディスプレイ、中空の触覚フィードバック、方向サウンド生成などの新しい相互作用能力が、新しい形態のマルチモーダル相互作用を開くことができます。
ただし、単数の静的ユニットとしての従来の実装により、ダイナミックレンジとアプリケーションの汎用性が制限されます。
このペーパーでは、Acoustobotsを紹介します。これは、Acoustophoresisの新規収束であり、可動で再構成可能な段階的なトランスデューサの配列を使用して、アプリケーションの汎用性を高めます。
複数のモバイル音響障害ユニットの利点を活用するために、ロボットの群れに一連のトランスデューサーを取り付けます。
これにより、より柔軟でインタラクティブなプラットフォームが提供され、音響恐怖症のマルチモーダル相互作用の群れが可能になります。
私たちの新しいAcoustobotsのデザインには、音響恐怖症のマルチモーダル相互作用の群れで高い柔軟性を実現するために、マウントされたフェーズ化されたトランスデューサーの方向を制御するヒンジ作動システムが含まれています。
さらに、粒子をトラップ場所に供給できるビーズディスペンサーボットを設計しました。
これらの属性により、アコーストボットはモダリティ間の共通の原因と交換のために独立して機能し、拡張された相互作用領域でのユーザーとの新しい増強(例えば、ハプティックス、オーディオ、および浮上の群れ)と両側の相互作用を可能にします。
設計上の考慮事項、課題、および方法論的アプローチを詳しく説明し、分散設定で音響恐怖症の中心制御を拡張します。
この作業は、2つのモバイルロボットを備えたスケーラブルな音響制御フレームワークを示しており、より大きなロボット群での将来の展開の基礎を築きます。
最後に、Acoustobotsのパフォーマンスを特徴付け、有効にできる潜在的なインタラクティブなシナリオを探ります。

要約(オリジナル)

Acoustophoresis has enabled novel interaction capabilities, such as levitation, volumetric displays, mid-air haptic feedback, and directional sound generation, to open new forms of multimodal interactions. However, its traditional implementation as a singular static unit limits its dynamic range and application versatility. This paper introduces AcoustoBots – a novel convergence of acoustophoresis with a movable and reconfigurable phased array of transducers for enhanced application versatility. We mount a phased array of transducers on a swarm of robots to harness the benefits of multiple mobile acoustophoretic units. This offers a more flexible and interactive platform that enables a swarm of acoustophoretic multimodal interactions. Our novel AcoustoBots design includes a hinge actuation system that controls the orientation of the mounted phased array of transducers to achieve high flexibility in a swarm of acoustophoretic multimodal interactions. In addition, we designed a BeadDispenserBot that can deliver particles to trapping locations, which automates the acoustic levitation interaction. These attributes allow AcoustoBots to independently work for a common cause and interchange between modalities, allowing for novel augmentations (e.g., a swarm of haptics, audio, and levitation) and bilateral interactions with users in an expanded interaction area. We detail our design considerations, challenges, and methodological approach to extend acoustophoretic central control in distributed settings. This work demonstrates a scalable acoustic control framework with two mobile robots, laying the groundwork for future deployment in larger robotic swarms. Finally, we characterize the performance of our AcoustoBots and explore the potential interactive scenarios they can enable.

arxiv情報

著者 Narsimlu Kemsaram,James Hardwick,Jincheng Wang,Bonot Gautam,Ceylan Besevli,Giorgos Christopoulos,Sourabh Dogra,Lei Gao,Akin Delibasi,Diego Martinez Plasencia,Orestis Georgiou,Marianna Obrist,Ryuji Hirayama,Sriram Subramanian
発行日 2025-05-12 17:56:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | AcoustoBots: A swarm of robots for acoustophoretic multimodal interactions はコメントを受け付けていません

Trial and Trust: Addressing Byzantine Attacks with Comprehensive Defense Strategy

要約

機械学習の最近の進歩により、パフォーマンスが向上し、計算需要が増加しています。
フェデレーションおよび分散セットアップはこれらの問題に対処していますが、その構造は悪意のある影響に対して脆弱です。
この論文では、特定の脅威であるビザンチン攻撃に対処します。そこでは、侵害されたクライアントがグローバルな収束を脱線させるために敵対的な更新を注入します。
Trust Scores Conceptと試験機能方法論を組み合わせて、外れ値を動的にフィルタリングします。
私たちの方法は、以前のアプローチの重要な制限に対処し、ビザンチンノードが大多数ある場合でも機能を可能にします。
さらに、私たちのアルゴリズムは、AdamやRMSPropなどの広く使用されているスケーリングされた方法、およびローカルトレーニングや部分参加などの実用的なシナリオに適応します。
医療機関から収集された合成および実際のECGデータの両方で広範な実験を実施することにより、方法の堅牢性を検証します。
さらに、アルゴリズムの幅広い理論分析と、前述の実用的なセットアップに対する拡張を提供します。
私たちの方法の収束保証は、ビザンチンの干渉なしに開発された古典的なアルゴリズムの収束保証に匹敵します。

要約(オリジナル)

Recent advancements in machine learning have improved performance while also increasing computational demands. While federated and distributed setups address these issues, their structure is vulnerable to malicious influences. In this paper, we address a specific threat, Byzantine attacks, where compromised clients inject adversarial updates to derail global convergence. We combine the trust scores concept with trial function methodology to dynamically filter outliers. Our methods address the critical limitations of previous approaches, allowing functionality even when Byzantine nodes are in the majority. Moreover, our algorithms adapt to widely used scaled methods like Adam and RMSProp, as well as practical scenarios, including local training and partial participation. We validate the robustness of our methods by conducting extensive experiments on both synthetic and real ECG data collected from medical institutions. Furthermore, we provide a broad theoretical analysis of our algorithms and their extensions to aforementioned practical setups. The convergence guarantees of our methods are comparable to those of classical algorithms developed without Byzantine interference.

arxiv情報

著者 Gleb Molodtsov,Daniil Medyakov,Sergey Skorik,Nikolas Khachaturov,Shahane Tigranyan,Vladimir Aletov,Aram Avetisyan,Martin Takáč,Aleksandr Beznosikov
発行日 2025-05-12 14:36:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.OC | Trial and Trust: Addressing Byzantine Attacks with Comprehensive Defense Strategy はコメントを受け付けていません