CONCERT: a Modular Reconfigurable Robot for Construction

要約

このペーパーでは、建設現場での複数のオンサイトオペレーションのための完全に再構成可能なモジュール式コラボレーションロボット(コボット)であるコンサートを紹介します。
コンサートは、高出力密度モーターとモジュール性という2つの主要な特性を活用することにより、建設現場での人間の活動をサポートするように設計されています。
このようにして、ロボットは、人間のオペレーターの同僚として行動するか、ユーザーの指示に従って自律的に実行することにより、幅広い非常に要求の厳しいタスクを実行することができます。
その汎用性のほとんどは、受動的またはアクティブなモジュールを追加または削除することにより、その運動学構造を迅速に変化させる可能性に由来しています。
このようにして、ロボットは膨大な一連の形態学でセットアップできるため、実行するタスクに応じてワークスペースと機能を変更できます。
同様に、異なる操作の実行のために、遠位エンド効果を交換できます。
このペーパーには、ロボットの形態を自動的に発見および展開するために採用されたソフトウェアパイプラインの完全な説明も含まれています。
具体的には、インストールされているモジュールに応じて、ロボットは各モジュールに組み込まれた情報を考慮して、運動学、動的、および幾何学的パラメーターを更新します。
このようにして、ロボットを10分以内に完全に再組み立てし、動作させる方法を示します。
掘削、サンディング、プラスター化、障害物の回避を伴う共同輸送など、さまざまなユースケースでコンサートロボットを検証しました。これらはすべて、実際の建設現場のシナリオで実行されました。
電力とワークスペースの点で異なる要件を特徴とする複数のシナリオで、ロボットの適応性とパフォーマンスを実証しました。
コンサートは、ヨーロッパプロジェクト2020コンサートの文脈で、イタイアーノディテクノロジアでヒューマノイドおよび人間中心のメカトロニクス研究所(HHCM)によって設計および構築されました。

要約(オリジナル)

This paper presents CONCERT, a fully reconfigurable modular collaborative robot (cobot) for multiple on-site operations in a construction site. CONCERT has been designed to support human activities in construction sites by leveraging two main characteristics: high-power density motors and modularity. In this way, the robot is able to perform a wide range of highly demanding tasks by acting as a co-worker of the human operator or by autonomously executing them following user instructions. Most of its versatility comes from the possibility of rapidly changing its kinematic structure by adding or removing passive or active modules. In this way, the robot can be set up in a vast set of morphologies, consequently changing its workspace and capabilities depending on the task to be executed. In the same way, distal end-effectors can be replaced for the execution of different operations. This paper also includes a full description of the software pipeline employed to automatically discover and deploy the robot morphology. Specifically, depending on the modules installed, the robot updates the kinematic, dynamic, and geometric parameters, taking into account the information embedded in each module. In this way, we demonstrate how the robot can be fully reassembled and made operational in less than ten minutes. We validated the CONCERT robot across different use cases, including drilling, sanding, plastering, and collaborative transportation with obstacle avoidance, all performed in a real construction site scenario. We demonstrated the robot’s adaptivity and performance in multiple scenarios characterized by different requirements in terms of power and workspace. CONCERT has been designed and built by the Humanoid and Human-Centered Mechatronics Laboratory (HHCM) at the Istituto Italiano di Tecnologia in the context of the European Project Horizon 2020 CONCERT.

arxiv情報

著者 Luca Rossini,Edoardo Romiti,Arturo Laurenzi,Francesco Ruscelli,Marco Ruzzon,Luca Covizzi,Lorenzo Baccelliere,Stefano Carrozzo,Michael Terzer,Marco Magri,Carlo Morganti,Maolin Lei,Liana Bertoni,Diego Vedelago,Corrado Burchielli,Stefano Cordasco,Luca Muratore,Andrea Giusti,Nikos Tsagarakis
発行日 2025-04-07 12:25:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | CONCERT: a Modular Reconfigurable Robot for Construction はコメントを受け付けていません

CloSE: A Compact Shape- and Orientation-Agnostic Cloth State Representation

要約

布の操作は、主に布の非剛性の性質のために困難な問題であり、これが変形の良い表現を不可欠にします。
衣服の変形状態の新しい表現を提示します。
まず、円形のグリッドに配置された布メッシュ境界の縁のセグメントに対して計算されたトポロジーインデックスに基づいて、DGLIディスク表現を提案します。
DGLIディスクのヒートマップは、さまざまな形状、角の位置のサイズ、コーナー、折り畳みの場所に一貫している布の特徴に対応するパターンを明らかにします。
次に、これらの重要な機能をDGLIディスクから円に抽象化し、布の状態表現(近接)と呼びます。
この表現は、異なる形状に対してコンパクトで連続的で、一般的です。
最後に、セマンティックラベリングと高レベルおよび低レベルの計画という2つの関連アプリケーションで、この表現の強みを示します。
コード、データセット、ビデオにはhttps://jaykamat99.github.io/close-representationからアクセスできます。

要約(オリジナル)

Cloth manipulation is a difficult problem mainly because of the non-rigid nature of cloth, which makes a good representation of deformation essential. We present a new representation for the deformation-state of clothes. First, we propose the dGLI disk representation, based on topological indices computed for segments on the edges of the cloth mesh border that are arranged on a circular grid. The heat-map of the dGLI disk uncovers patterns that correspond to features of the cloth state that are consistent for different shapes, sizes of positions of the cloth, like the corners and the fold locations. We then abstract these important features from the dGLI disk onto a circle, calling it the Cloth StatE representation (CloSE). This representation is compact, continuous, and general for different shapes. Finally, we show the strengths of this representation in two relevant applications: semantic labeling and high- and low-level planning. The code, the dataset and the video can be accessed from : https://jaykamat99.github.io/close-representation

arxiv情報

著者 Jay Kamat,Júlia Borràs,Carme Torras
発行日 2025-04-07 12:54:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | CloSE: A Compact Shape- and Orientation-Agnostic Cloth State Representation はコメントを受け付けていません

Segmented Trajectory Optimization for Autonomous Parking in Unstructured Environments

要約

このホワイトペーパーでは、自律駐車場のセグメント化された軌道最適化(STO)方法を紹介します。これは、反復的なSQPベースのアプローチを使用して、初期の軌道を動的に実行可能で衝突のないものに改良します。
STOは、高レベルのグローバルプランナーの操作戦略を維持しながら、スイッチングポイントでの曲率の不連続性を可能にして、操作効率を向上させます。
安全性を確保するために、GJK加速楕円の縮小と拡張を介して凸回廊が構築され、各反復の安全上の制約として機能します。
垂直および逆角のある駐車場のシナリオの数値シミュレーションは、STOが安全性を確保しながら操作効率を高めることを示しています。
さらに、計算パフォーマンスは、実際のアプリケーションの実用性を確認します。

要約(オリジナル)

This paper presents a Segmented Trajectory Optimization (STO) method for autonomous parking, which refines an initial trajectory into a dynamically feasible and collision-free one using an iterative SQP-based approach. STO maintains the maneuver strategy of the high-level global planner while allowing curvature discontinuities at switching points to improve maneuver efficiency. To ensure safety, a convex corridor is constructed via GJK-accelerated ellipse shrinking and expansion, serving as safety constraints in each iteration. Numerical simulations in perpendicular and reverse-angled parking scenarios demonstrate that STO enhances maneuver efficiency while ensuring safety. Moreover, computational performance confirms its practicality for real-world applications.

arxiv情報

著者 Hang Yu,Renjie Li
発行日 2025-04-07 13:07:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Segmented Trajectory Optimization for Autonomous Parking in Unstructured Environments はコメントを受け付けていません

Speech-to-Trajectory: Learning Human-Like Verbal Guidance for Robot Motion

要約

ロボットを実際のアプリケーションに完全に統合するには、訓練されていないユーザーから自然言語指令を解釈および実行する能力が必要です。
人間の言語に固有の変動性を考えると、同等の指示は異なる方法でフレーズされる場合がありますが、一貫したロボットの動作が必要です。
大規模な言語モデル(LLM)は高度な言語理解を持っていますが、ユーザーのフレーズの変動性の処理にしばしば揺れ動き、事前定義されたコマンドに依存し、予測不可能な出力を示します。
このレターは、事前定義されたフレーズをバイパスして、動作可能なモーション軌跡に口頭でコマンドをマップする新しい音声から軌跡のフレームワークであるディレクティブ言語モデル(DLM)を紹介します。
DLMは、ヒト誘導ロボットの動きのシミュレートされたデモンストレーションに行動クローニング(BC)を利用します。
一般化を強化するために、GPTベースのセマンティック増強は、同じ動きの軌跡でラベル付けされたトレーニングコマンドの多様な言い換えを生成します。
DLMには、適応運動洗練と確率的サンプリングのための拡散ポリシーベースの軌道生成がさらに組み込まれています。
LLMベースの方法とは対照的に、DLMは、広範な迅速なエンジニアリングなしで一貫した予測可能なモーションを保証し、リアルタイムのロボットガイダンスを促進します。
DLMが軌道データから学習すると、それは具体化されていない、多様なロボットプラットフォーム全体の展開を可能にします。
実験結果は、DLMの改善されたコマンド一般化、構造化されたフレーゼンへの依存の減少、および人間のような動きの達成を示しています。

要約(オリジナル)

Full integration of robots into real-life applications necessitates their ability to interpret and execute natural language directives from untrained users. Given the inherent variability in human language, equivalent directives may be phrased differently, yet require consistent robot behavior. While Large Language Models (LLMs) have advanced language understanding, they often falter in handling user phrasing variability, rely on predefined commands, and exhibit unpredictable outputs. This letter introduces the Directive Language Model (DLM), a novel speech-to-trajectory framework that directly maps verbal commands to executable motion trajectories, bypassing predefined phrases. DLM utilizes Behavior Cloning (BC) on simulated demonstrations of human-guided robot motion. To enhance generalization, GPT-based semantic augmentation generates diverse paraphrases of training commands, labeled with the same motion trajectory. DLM further incorporates a diffusion policy-based trajectory generation for adaptive motion refinement and stochastic sampling. In contrast to LLM-based methods, DLM ensures consistent, predictable motion without extensive prompt engineering, facilitating real-time robotic guidance. As DLM learns from trajectory data, it is embodiment-agnostic, enabling deployment across diverse robotic platforms. Experimental results demonstrate DLM’s improved command generalization, reduced dependence on structured phrasing, and achievement of human-like motion.

arxiv情報

著者 Eran Beeri Bamani,Eden Nissinman,Rotem Atari,Nevo Heimann Saadon,Avishai Sintov
発行日 2025-04-07 13:54:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Speech-to-Trajectory: Learning Human-Like Verbal Guidance for Robot Motion はコメントを受け付けていません

TDFANet: Encoding Sequential 4D Radar Point Clouds Using Trajectory-Guided Deformable Feature Aggregation for Place Recognition

要約

場所の認識は、自動運転車やモバイルロボットで閉ループまたはグローバルなポジショニングを達成するために不可欠です。
2Dカメラまたは3D LIDARを使用した最近の適切な認識にもかかわらず、4Dレーダーを使用する方法を確認するために4Dレーダーを使用する方法はまだ分からない。
Lidar Point Cloudsと比較して、レーダーデータは劇的にスパースで、騒々しく、解像度がはるかに低く、シーンを効果的に表現する能力を妨げ、4Dレーダーベースの場所認識に大きな課題をもたらします。
この作業は、順次4Dレーダースキャンからのマルチモーダル情報を活用し、時空間的特徴を効果的に抽出して集約することにより、これらの課題に対処します。私たちのアプローチは、(1)ベロシティプロパティからの動的なポイント除去とエゴ速度推定を構成する原則的なパイプラインに従います。
自我速度によって計算された軌跡、(4)整列したBEV機能マップの多面的な時空間特徴が抽出され、集計されています。現実世界の実験結果は、提案された方法の実現可能性を検証し、動的環境の取り扱いにおけるその堅牢性を実証します。
ソースコードが利用可能です。

要約(オリジナル)

Place recognition is essential for achieving closed-loop or global positioning in autonomous vehicles and mobile robots. Despite recent advancements in place recognition using 2D cameras or 3D LiDAR, it remains to be seen how to use 4D radar for place recognition – an increasingly popular sensor for its robustness against adverse weather and lighting conditions. Compared to LiDAR point clouds, radar data are drastically sparser, noisier and in much lower resolution, which hampers their ability to effectively represent scenes, posing significant challenges for 4D radar-based place recognition. This work addresses these challenges by leveraging multi-modal information from sequential 4D radar scans and effectively extracting and aggregating spatio-temporal features.Our approach follows a principled pipeline that comprises (1) dynamic points removal and ego-velocity estimation from velocity property, (2) bird’s eye view (BEV) feature encoding on the refined point cloud, (3) feature alignment using BEV feature map motion trajectory calculated by ego-velocity, (4) multi-scale spatio-temporal features of the aligned BEV feature maps are extracted and aggregated.Real-world experimental results validate the feasibility of the proposed method and demonstrate its robustness in handling dynamic environments. Source codes are available.

arxiv情報

著者 Shouyi Lu,Guirong Zhuo,Haitao Wang,Quan Zhou,Huanyu Zhou,Renbo Huang,Minqing Huang,Lianqing Zheng,Qiang Shu
発行日 2025-04-07 14:10:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | TDFANet: Encoding Sequential 4D Radar Point Clouds Using Trajectory-Guided Deformable Feature Aggregation for Place Recognition はコメントを受け付けていません

Reducing the Communication of Distributed Model Predictive Control: Autoencoders and Formation Control

要約

コミュニケーションは、ワイヤレス通信の進歩にもかかわらず、現実的な設定における分散モデル予測制御(DMPC)の適用性を制限する重要な要因のままです。
DMPCスキームは、データの量が予測期間の長さに依存するため、エージェント間の圧倒的な量の情報交換を必要とする場合があります。この場合、一部のアプリケーションは公称の漸近安定性を正式に保証するためにかなりの長さを必要とします。
この作業は、エージェント間の通信データのサイズを削減することにより、DMPCの通信努力を減らすアプローチを提供することを目的としています。
自動エンコーダーを使用して、通信データは通信前に自動エンコーダーのエンコーダー部分によって削減され、DMPCスキームを構成する分散最適化アルゴリズム内で受信時にデコーダーパーツによって再構築されます。
学習ベースの削減方法の選択は、データに固有の構造によって動機付けられ、最適な制御問題のソリューションへのデータの接続に起因します。
このアプローチは、微分駆動ロボットの形成制御の例で実装およびテストされます。これは、ロボットの非ホロニック制約のために最適化ベースの制御に挑戦し、モバイルロボット工学の実際的な重要性のために興味深いものです。
提案されたアプローチの適用性は、最初に、結果として生じる制御性能が満足のいく精度をもたらすことを示すシミュレーション分析の形式で提示されます。
特に、提案されたアプローチは、予測地平線の長さを減らすことにより、コミュニケーションを減らすための標準的な素朴な方法よりも優れています。
さらに、埋め込み計算ハードウェアで実施された数値実験は、実際の分散計算とワイヤレス通信により、完全な通信が失敗した実際のシナリオでも通信を減らす提案された方法とうまく機能することが示されています。

要約(オリジナル)

Communication remains a key factor limiting the applicability of distributed model predictive control (DMPC) in realistic settings, despite advances in wireless communication. DMPC schemes can require an overwhelming amount of information exchange between agents as the amount of data depends on the length of the predication horizon, for which some applications require a significant length to formally guarantee nominal asymptotic stability. This work aims to provide an approach to reduce the communication effort of DMPC by reducing the size of the communicated data between agents. Using an autoencoder, the communicated data is reduced by the encoder part of the autoencoder prior to communication and reconstructed by the decoder part upon reception within the distributed optimization algorithm that constitutes the DMPC scheme. The choice of a learning-based reduction method is motivated by structure inherent to the data, which results from the data’s connection to solutions of optimal control problems. The approach is implemented and tested at the example of formation control of differential-drive robots, which is challenging for optimization-based control due to the robots’ nonholonomic constraints, and which is interesting due to the practical importance of mobile robotics. The applicability of the proposed approach is presented first in form of a simulative analysis showing that the resulting control performance yields a satisfactory accuracy. In particular, the proposed approach outperforms the canonical naive way to reduce communication by reducing the length of the prediction horizon. Moreover, it is shown that numerical experiments conducted on embedded computation hardware, with real distributed computation and wireless communication, work well with the proposed way of reducing communication even in practical scenarios in which full communication fails.

arxiv情報

著者 Torben Schiz,Henrik Ebel
発行日 2025-04-07 16:10:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.DC, cs.RO, cs.SY, eess.SY | Reducing the Communication of Distributed Model Predictive Control: Autoencoders and Formation Control はコメントを受け付けていません

Vision-Language Model Predictive Control for Manipulation Planning and Trajectory Generation

要約

モデル予測制御(MPC)は、予測モデルを活用して将来のシステム状態を推定し、それに応じて制御入力を最適化する広く採用された制御パラダイムです。
ただし、MPCは計画と制御に優れていますが、環境認識の能力が欠けており、複雑で構造化されていないシナリオの失敗につながります。
この制限に対処するために、Vision-Language Model Predictive Control(VLMPC)を紹介します。これは、MPCと視覚言語モデル(VLMS)の知覚力を統合するロボット操作計画フレームワークです。
VLMPCは、目標画像または言語命令を入力として取得し、VLMを活用して候補アクションシーケンスを生成する条件付きアクションサンプリングモジュールを使用します。
これらの候補者は、アクションに基づいて将来のフレームをシミュレートするビデオ予測モデルに供給されます。
さらに、拡張されたバリアントであるTraj-VLMPCを提案します。これにより、動画予測をモーション軌道の生成に置き換えて、精度を維持しながら計算の複雑さを減らします。
TRAJ-VLMPCは、候補アクションに条件付けられたモーションダイナミクスを推定し、長老タスクとリアルタイムアプリケーションのより効率的な代替品を提供します。
VLMPCとTRAJ-VLMPCの両方が、現在の観測とタスク入力の間のピクセルレベルと知識レベルの一貫性の両方をキャプチャするVLMベースの階層コスト関数を使用して、最適アクションシーケンスを選択します。
どちらのアプローチがパブリックベンチマークで既存の最先端の方法を上回り、さまざまな現実世界のロボット操作タスクで優れたパフォーマンスを達成することを実証します。
コードはhttps://github.com/ppjmchen/vlmpcで入手できます。

要約(オリジナル)

Model Predictive Control (MPC) is a widely adopted control paradigm that leverages predictive models to estimate future system states and optimize control inputs accordingly. However, while MPC excels in planning and control, it lacks the capability for environmental perception, leading to failures in complex and unstructured scenarios. To address this limitation, we introduce Vision-Language Model Predictive Control (VLMPC), a robotic manipulation planning framework that integrates the perception power of vision-language models (VLMs) with MPC. VLMPC utilizes a conditional action sampling module that takes a goal image or language instruction as input and leverages VLM to generate candidate action sequences. These candidates are fed into a video prediction model that simulates future frames based on the actions. In addition, we propose an enhanced variant, Traj-VLMPC, which replaces video prediction with motion trajectory generation to reduce computational complexity while maintaining accuracy. Traj-VLMPC estimates motion dynamics conditioned on the candidate actions, offering a more efficient alternative for long-horizon tasks and real-time applications. Both VLMPC and Traj-VLMPC select the optimal action sequence using a VLM-based hierarchical cost function that captures both pixel-level and knowledge-level consistency between the current observation and the task input. We demonstrate that both approaches outperform existing state-of-the-art methods on public benchmarks and achieve excellent performance in various real-world robotic manipulation tasks. Code is available at https://github.com/PPjmchen/VLMPC.

arxiv情報

著者 Jiaming Chen,Wentao Zhao,Ziyu Meng,Donghui Mao,Ran Song,Wei Pan,Wei Zhang
発行日 2025-04-07 16:13:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Vision-Language Model Predictive Control for Manipulation Planning and Trajectory Generation はコメントを受け付けていません

RobustDexGrasp: Robust Dexterous Grasping of General Objects from Single-view Perception

要約

単一ビューの知覚からのさまざまなオブジェクトの堅牢な把握は、器用なロボットの基本です。
以前の作品は、多くの場合、完全に観察可能なオブジェクト、専門家のデモ、または静的な把握ポーズに依存しています。
このペーパーでは、外部の障害に適応的な動きを実行しながら、単一ビューの知覚から幅広い目に見えないオブジェクトのゼロショットの動的な器用な把握を可能にする強化学習ベースのフレームワークを紹介します。
相互作用に関連する局所形状を強調する形状特徴抽出のための手中心のオブジェクト表現を利用し、堅牢性を高めて形状の分散と不確実性を高めます。
限られた観察結果の妨害への効果的な手の適応を可能にするために、最初に特権的なリアルタイムの視覚触覚フィードバックで訓練されたポリシーを蒸留するために模倣学習を利用し、観察のノイズと動的なランダム化によって引き起こされる障害の下での適応運動の学習を徐々に転送するために模倣学習を利用することを提案します。
私たちの実験は、ランダムなポーズで目に見えないオブジェクトを把握する際の強力な一般化を示し、247,786のシミュレートされたオブジェクトで97.0%、512の実際のオブジェクトで94.6%の成功率を達成します。
また、定量的評価と定性的評価の両方を通じて、観察されていないオブジェクトの動きや外力を含むさまざまな妨害に対する方法の堅牢性を示します。
プロジェクトページ:https://zdchan.github.io/robust_dexgrasp/

要約(オリジナル)

Robust grasping of various objects from single-view perception is fundamental for dexterous robots. Previous works often rely on fully observable objects, expert demonstrations, or static grasping poses, which restrict their generalization ability and adaptability to external disturbances. In this paper, we present a reinforcement-learning-based framework that enables zero-shot dynamic dexterous grasping of a wide range of unseen objects from single-view perception, while performing adaptive motions to external disturbances. We utilize a hand-centric object representation for shape feature extraction that emphasizes interaction-relevant local shapes, enhancing robustness to shape variance and uncertainty. To enable effective hand adaptation to disturbances with limited observations, we propose a mixed curriculum learning strategy, which first utilizes imitation learning to distill a policy trained with privileged real-time visual-tactile feedback, and gradually transfers to reinforcement learning to learn adaptive motions under disturbances caused by observation noises and dynamic randomization. Our experiments demonstrate strong generalization in grasping unseen objects with random poses, achieving success rates of 97.0% across 247,786 simulated objects and 94.6% across 512 real objects. We also demonstrate the robustness of our method to various disturbances, including unobserved object movement and external forces, through both quantitative and qualitative evaluations. Project Page: https://zdchan.github.io/Robust_DexGrasp/

arxiv情報

著者 Hui Zhang,Zijian Wu,Linyi Huang,Sammy Christen,Jie Song
発行日 2025-04-07 17:38:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | RobustDexGrasp: Robust Dexterous Grasping of General Objects from Single-view Perception はコメントを受け付けていません

Using Physiological Measures, Gaze, and Facial Expressions to Model Human Trust in a Robot Partner

要約

さまざまなドメインでロボットがますます一般的になっているため、人間との相互作用のより大きな流encyさを達成するためのツールを装備することが重要になっています。
さらなる調査のための有望な分野の1つは、人間の信頼にあります。
人間の信頼のリアルタイムで客観的なモデルを使用して、生産性を最大化し、安全性を維持し、故障を緩和できます。
この作業では、生理学的手段、視線、表情を使用して、ロボットパートナーの人間の信頼をモデル化しようとします。
私たちは、専用の信頼データセットを作成するために、対面で人間のロボット監督の相互作用研究を設計した最初の人です。
このデータセットを使用して、機械学習アルゴリズムをトレーニングして、ロボットパートナーへの信頼を最も示す客観的測定を特定し、人間とロボットの相互作用における信頼予測を進めます。
私たちの調査結果は、センサーのモダリティ(血液量パルス、電極活動、皮膚温度、視線)の組み合わせにより、ロボットパートナーの人間の信頼を検出する精度を高めることができることを示しています。
さらに、余分な木、ランダムフォレスト、および決定ツリー分類子は、ロボットパートナーに対する人の信頼を測定する際に一貫してパフォーマンスを示します。
これらの結果は、人間とロボットの間のより効率的な相互作用を促進する可能性のある人間とロボットの相互作用のためのリアルタイムトラストモデルを構築するための基礎を築きます。

要約(オリジナル)

With robots becoming increasingly prevalent in various domains, it has become crucial to equip them with tools to achieve greater fluency in interactions with humans. One of the promising areas for further exploration lies in human trust. A real-time, objective model of human trust could be used to maximize productivity, preserve safety, and mitigate failure. In this work, we attempt to use physiological measures, gaze, and facial expressions to model human trust in a robot partner. We are the first to design an in-person, human-robot supervisory interaction study to create a dedicated trust dataset. Using this dataset, we train machine learning algorithms to identify the objective measures that are most indicative of trust in a robot partner, advancing trust prediction in human-robot interactions. Our findings indicate that a combination of sensor modalities (blood volume pulse, electrodermal activity, skin temperature, and gaze) can enhance the accuracy of detecting human trust in a robot partner. Furthermore, the Extra Trees, Random Forest, and Decision Trees classifiers exhibit consistently better performance in measuring the person’s trust in the robot partner. These results lay the groundwork for constructing a real-time trust model for human-robot interaction, which could foster more efficient interactions between humans and robots.

arxiv情報

著者 Haley N. Green,Tariq Iqbal
発行日 2025-04-07 17:45:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Using Physiological Measures, Gaze, and Facial Expressions to Model Human Trust in a Robot Partner はコメントを受け付けていません

The Transient Cost of Learning in Queueing Systems

要約

キューイングシステムは、通信ネットワーク、ヘルスケア、サービスシステムなどのユースケースを備えた広く適用可能な確率モデルです。最適な制御は広く研究されていますが、ほとんどの既存のアプローチはシステムパラメーターの完全な知識を想定しています。
この仮定は、パラメーターの不確実性がある実際にはめったに保持されないため、キューイングシステムのBandit Learningに関する最近の作業ラインが動機付けられています。
この初期の研究の流れは、提案されたアルゴリズムの漸近パフォーマンスに焦点を当てていますが、学習プロセスの初期段階での一時的なパフォーマンスに関する洞察を提供しません。
この論文では、パラメーターの不確実性によって引き起こされる時間平均キュー長の最大増加を定量化する新しいメトリックであるキューイング(TCLQ)の一時的な学習コストを提案します。
シングルキューマルチサーバーシステムのTCLQを特徴付けてから、これらの結果をマルチキューマルチサーバーシステムとキューのネットワークに拡張します。
結果を確立する際に、LyapunovとBandit分析を橋渡しし、幅広いアルゴリズムの保証を提供し、独立した関心がある可能性があるTCLQの統一分析フレームワークを提案します。

要約(オリジナル)

Queueing systems are widely applicable stochastic models with use cases in communication networks, healthcare, service systems, etc. Although their optimal control has been extensively studied, most existing approaches assume perfect knowledge of the system parameters. This assumption rarely holds in practice where there is parameter uncertainty, thus motivating a recent line of work on bandit learning for queueing systems. This nascent stream of research focuses on the asymptotic performance of the proposed algorithms but does not provide insight on the transient performance in the early stages of the learning process. In this paper, we propose the Transient Cost of Learning in Queueing (TCLQ), a new metric that quantifies the maximum increase in time-averaged queue length caused by parameter uncertainty. We characterize the TCLQ of a single-queue multi-server system, and then extend these results to multi-queue multi-server systems and networks of queues. In establishing our results, we propose a unified analysis framework for TCLQ that bridges Lyapunov and bandit analysis, provides guarantees for a wide range of algorithms, and could be of independent interest.

arxiv情報

著者 Daniel Freund,Thodoris Lykouris,Wentao Weng
発行日 2025-04-07 14:22:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.DS, cs.LG, cs.PF, math.PR | The Transient Cost of Learning in Queueing Systems はコメントを受け付けていません