Design Optimization of Musculoskeletal Humanoids with Maximization of Redundancy to Compensate for Muscle Rupture

要約

筋骨格のヒューマノイドにはさまざまな生体模倣の利点があり、可変剛性制御を可能にする冗長筋の配置が最も重要なものの1つです。
この研究では、冗長性の1つの特徴に焦点を当てます。これにより、筋肉の1つが壊れてもヒューマノイドが動き続けることができます。これは、多くの研究では対処されていない利点です。
この利点を最大限に活用するために、筋肉の配置の設計は、1つの筋肉が壊れたときに発揮できる最小利用可能なトルクの最大化を考慮することにより最適化されます。
この方法は、シミュレーションを備えた筋骨格系ヒューマノイドムサシの肘に適用され、設計ポリシーは最適化結果から抽出され、その有効性は実際のロボットで確認されます。

要約(オリジナル)

Musculoskeletal humanoids have various biomimetic advantages, and the redundant muscle arrangement allowing for variable stiffness control is one of the most important. In this study, we focus on one feature of the redundancy, which enables the humanoid to keep moving even if one of its muscles breaks, an advantage that has not been dealt with in many studies. In order to make the most of this advantage, the design of muscle arrangement is optimized by considering the maximization of minimum available torque that can be exerted when one muscle breaks. This method is applied to the elbow of a musculoskeletal humanoid Musashi with simulations, the design policy is extracted from the optimization results, and its effectiveness is confirmed with the actual robot.

arxiv情報

著者 Kento Kawaharazuka,Yasunori Toshimitsu,Manabu Nishiura,Yuya Koga,Yusuke Omura,Yuki Asano,Kei Okada,Koji Kawasaki,Masayuki Inaba
発行日 2025-02-18 12:06:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Design Optimization of Musculoskeletal Humanoids with Maximization of Redundancy to Compensate for Muscle Rupture はコメントを受け付けていません

Exceeding the Maximum Speed Limit of the Joint Angle for the Redundant Tendon-driven Structures of Musculoskeletal Humanoids

要約

筋骨格のヒューマノイドにはさまざまな生体模倣の利点があり、冗長筋の配置はその最も重要な特性の1つです。
この冗長性は、フェイルセーフ冗長な作動と可変剛性制御を実現できます。
ただし、最大関節角速度が冗長筋の中で最も遅い筋肉によって制限されるという問題があります。
この研究では、限られた最大関節角速度を超えて、実際のロボット実験で有効性を検証できる2つの方法を提案します。

要約(オリジナル)

The musculoskeletal humanoid has various biomimetic benefits, and the redundant muscle arrangement is one of its most important characteristics. This redundancy can achieve fail-safe redundant actuation and variable stiffness control. However, there is a problem that the maximum joint angle velocity is limited by the slowest muscle among the redundant muscles. In this study, we propose two methods that can exceed the limited maximum joint angle velocity, and verify the effectiveness with actual robot experiments.

arxiv情報

著者 Kento Kawaharazuka,Yuya Koga,Kei Tsuzuki,Moritaka Onitsuka,Yuki Asano,Kei Okada,Koji Kawasaki,Masayuki Inaba
発行日 2025-02-18 12:12:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Exceeding the Maximum Speed Limit of the Joint Angle for the Redundant Tendon-driven Structures of Musculoskeletal Humanoids はコメントを受け付けていません

Applications of Stretch Reflex for the Upper Limb of Musculoskeletal Humanoids: Protective Behavior, Postural Stability, and Active Induction

要約

筋骨格のヒューマノイドにはさまざまな生体模倣の利点があり、実際のロボットに人間の反射を埋め込んで評価できることが重要です。
ストレッチ反射は筋骨格のヒューマノイドの下肢に実装されていますが、それを上肢に適用して、その有用な用途を発見します。
実際のロボットにおけるストレッチ反射の実装、そのアクティブ/パッシブアプリケーション、およびパラメーターの違いによる動作の変化を考慮します。

要約(オリジナル)

The musculoskeletal humanoid has various biomimetic benefits, and it is important that we can embed and evaluate human reflexes in the actual robot. Although stretch reflex has been implemented in lower limbs of musculoskeletal humanoids, we apply it to the upper limb to discover its useful applications. We consider the implementation of stretch reflex in the actual robot, its active/passive applications, and the change in behavior according to the difference of parameters.

arxiv情報

著者 Kento Kawaharazuka,Yuya Koga,Kei Tsuzuki,Moritaka Onitsuka,Yuki Asano,Kei Okada,Koji Kawasaki,Masayuki Inaba
発行日 2025-02-18 12:15:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Applications of Stretch Reflex for the Upper Limb of Musculoskeletal Humanoids: Protective Behavior, Postural Stability, and Active Induction はコメントを受け付けていません

Toward a Dialogue System Using a Large Language Model to Recognize User Emotions with a Camera

要約

Chatgpt \ Copyright {}およびその他のLLMSのパフォーマンスは大幅に改善されており、オンライン環境では、Webページのチャットボット、音声インタラクションを使用したコールセンター操作、対話など、さまざまな状況でますます使用される可能性が高まっています。
エージェントを使用した関数。
オフライン環境では、ロボットにマウントされたLLMSの形でタブレットターミナルとダイアログシステムを使用して、人工知能エージェント(AIエージェント)によるガイダンスなど、マルチモーダルダイアログ機能も実現されています。
このマルチモーダルの対話では、AIとユーザーの間の相互感情認識が重要になります。
これまでのところ、AIエージェントの部分で感情を表現する方法や、ユーザーの発話のテキスト情報または音声情報を使用してそれらを認識する方法がありましたが、AIエージェントがユーザーの表情から感情を認識する方法は研究されていません。
この研究では、LLMベースのAIエージェントがカメラとの対話でユーザーをキャプチャし、表情からの感情を認識し、そのような感情情報をプロンプトに追加することにより、ユーザーと感情的な状態に応じてユーザーと対話できるかどうかを調べました。
結果は、AIエージェントが、幸せや怒りなどの比較的高いスコアを持つ感情状態の感情状態に応じて会話をすることができることを確認しました。

要約(オリジナル)

The performance of ChatGPT\copyright{} and other LLMs has improved tremendously, and in online environments, they are increasingly likely to be used in a wide variety of situations, such as ChatBot on web pages, call center operations using voice interaction, and dialogue functions using agents. In the offline environment, multimodal dialogue functions are also being realized, such as guidance by Artificial Intelligence agents (AI agents) using tablet terminals and dialogue systems in the form of LLMs mounted on robots. In this multimodal dialogue, mutual emotion recognition between the AI and the user will become important. So far, there have been methods for expressing emotions on the part of the AI agent or for recognizing them using textual or voice information of the user’s utterances, but methods for AI agents to recognize emotions from the user’s facial expressions have not been studied. In this study, we examined whether or not LLM-based AI agents can interact with users according to their emotional states by capturing the user in dialogue with a camera, recognizing emotions from facial expressions, and adding such emotion information to prompts. The results confirmed that AI agents can have conversations according to the emotional state for emotional states with relatively high scores, such as Happy and Angry.

arxiv情報

著者 Hiroki Tanioka,Tetsushi Ueta,Masahiko Sano
発行日 2025-02-18 12:48:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T40, cs.AI, cs.HC, cs.RO, I.2.10 | Toward a Dialogue System Using a Large Language Model to Recognize User Emotions with a Camera はコメントを受け付けていません

Continual Learning from Simulated Interactions via Multitask Prospective Rehearsal for Bionic Limb Behavior Modeling

要約

下肢切断と神経筋の障害は、可動性を厳しく制限し、従来の義肢を超えた進歩を必要とします。
電動化されたバイオニック肢は有望ですが、それらの有効性は、多様な環境にわたる人間の動きの動的な調整を複製することに依存します。
この論文では、バイオニックプロテーゼコントロールの文脈で人間の行動のモデルを紹介します。
私たちのアプローチは、人間の移動デモンストレーションを活用して、下肢の相乗的な結合を学習し、歩行、登山、階段、階段などのタスク中に欠けている手足の運動学的挙動の予測を可能にします。
時間の経過とともに動きを予測および改良するマルチタスクの継続的な適応モデルを提案します。
私たちの方法の中核には、MultiTaskの前向きリハーサルと呼ばれる手法があります。これは、以前の予測に基づいて将来の動きを予測および統合し、その後の予測のための修正メカニズムを採用しています。
進化するアーキテクチャは、共有バックボーン上に軽量のタスク固有のモジュールをマージし、特異性とスケーラビリティの両方を確保します。
幅広い運動タスクにわたる、鎖角切断者を含む現実世界の人間の歩行データセットに関する実験を通じてモデルを検証します。
結果は、私たちのアプローチが、特に分布シフト、敵対的な摂動、騒音を備えたシナリオで、ベースラインモデルよりも一貫して優れていることを示しています。

要約(オリジナル)

Lower limb amputations and neuromuscular impairments severely restrict mobility, necessitating advancements beyond conventional prosthetics. While motorized bionic limbs show promise, their effectiveness depends on replicating the dynamic coordination of human movement across diverse environments. In this paper, we introduce a model for human behavior in the context of bionic prosthesis control. Our approach leverages human locomotion demonstrations to learn the synergistic coupling of the lower limbs, enabling the prediction of the kinematic behavior of a missing limb during tasks such as walking, climbing inclines, and stairs. We propose a multitasking, continually adaptive model that anticipates and refines movements over time. At the core of our method is a technique called multitask prospective rehearsal, that anticipates and synthesizes future movements based on the previous prediction and employs a corrective mechanism for subsequent predictions. Our evolving architecture merges lightweight, task-specific modules on a shared backbone, ensuring both specificity and scalability. We validate our model through experiments on real-world human gait datasets, including transtibial amputees, across a wide range of locomotion tasks. Results demonstrate that our approach consistently outperforms baseline models, particularly in scenarios with distributional shifts, adversarial perturbations, and noise.

arxiv情報

著者 Sharmita Dey,Benjamin Paassen,Sarath Ravindran Nair,Sabri Boughorbel,Arndt F. Schilling
発行日 2025-02-18 13:00:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | Continual Learning from Simulated Interactions via Multitask Prospective Rehearsal for Bionic Limb Behavior Modeling はコメントを受け付けていません

Equivariant IMU Preintegration with Biases: a Galilean Group Approach

要約

この手紙は、異なる最適化ベースの慣性ナビゲーションシステム(INS)のローカリゼーションソリューションで活用できる基本的な構成要素である慣性測定ユニット(IMU)前統合の新しいアプローチを提案しています。
偏ったINSSに適用された最近の等衛生理論の進歩に触発されて、$ {\ mathbf {gal}(3)\ ltimes \ mathfrak {gal}(3)} $の$ {\ mathbf {gal}(3)\ ltimes \ mathfrak {gal}(3)の離散時間の定式化を導き出します。
ガリラエングループの接線グループの些細なこと$ \ mathbf {gal}(3)$。
ナビゲーション状態とバイアスを幾何学的に結びつける新しい統合エラーと、より低い線形化誤差につながる新しい積分エラーを定義します。
私たちの方法は、IMUバイアスを別の状態空間として扱う既存の前統合アプローチと比較して、一貫性が向上します。
シミュレーションと実際のIMUデータ、Lie ++ライブラリでの実装、およびオープンソースコードの両方で、最先端の方法に対する広範な検証が提供されます。

要約(オリジナル)

This letter proposes a new approach for Inertial Measurement Unit (IMU) preintegration, a fundamental building block that can be leveraged in different optimization-based Inertial Navigation System (INS) localization solutions. Inspired by recent advances in equivariant theory applied to biased INSs, we derive a discrete-time formulation of the IMU preintegration on ${\mathbf{Gal}(3) \ltimes \mathfrak{gal}(3)}$, the left-trivialization of the tangent group of the Galilean group $\mathbf{Gal}(3)$. We define a novel preintegration error that geometrically couples the navigation states and the bias leading to lower linearization error. Our method improves in consistency compared to existing preintegration approaches which treat IMU biases as a separate state-space. Extensive validation against state-of-the-art methods, both in simulation and with real-world IMU data, implementation in the Lie++ library, and open-source code are provided.

arxiv情報

著者 Giulio Delama,Alessandro Fornasier,Robert Mahony,Stephan Weiss
発行日 2025-02-18 13:30:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Equivariant IMU Preintegration with Biases: a Galilean Group Approach はコメントを受け付けていません

Dynamic Open-Vocabulary 3D Scene Graphs for Long-term Language-Guided Mobile Manipulation

要約

モバイルロボットが動的な現実世界環境で長期的なタスクを実行できるようにすることは、特に人間とロボットの相互作用やロボット自身の行動により環境が頻繁に変化する場合、恐るべき課題です。
従来の方法は通常、静的なシーンを想定しており、これにより、継続的に変化する現実世界での適用性が制限されます。
これらの制限を克服するために、動的なオープンボキャブラリー3Dシーングラフを活用する新しいモバイル操作フレームワークであるDOVSGと、長期タスク実行のための言語誘導タスク計画モジュールを提示します。
DOVSGはRGB-Dシーケンスを入力として取り、オブジェクト検出にVision-Language Models(VLMS)を利用して、高レベルのオブジェクトセマンティック機能を取得します。
セグメント化されたオブジェクトに基づいて、低レベルの空間関係のために構造化された3Dシーングラフが生成されます。
さらに、シーングラフをローカルに更新するための効率的なメカニズムにより、ロボットはフルシーンの再構成を必要とせずに、相互作用中にグラフの部分を動的に調整できます。
このメカニズムは、動的環境で特に価値があり、ロボットがシーンの変更に継続的に適応し、長期的なタスクの実行を効果的にサポートできるようになります。
私たちは、さまざまな程度の手動修正で現実世界の環境でシステムを検証し、その有効性と長期的なタスクにおける優れたパフォーマンスを実証しました。
プロジェクトページは、https://bjhyzj.github.io/dovsg-webで入手できます。

要約(オリジナル)

Enabling mobile robots to perform long-term tasks in dynamic real-world environments is a formidable challenge, especially when the environment changes frequently due to human-robot interactions or the robot’s own actions. Traditional methods typically assume static scenes, which limits their applicability in the continuously changing real world. To overcome these limitations, we present DovSG, a novel mobile manipulation framework that leverages dynamic open-vocabulary 3D scene graphs and a language-guided task planning module for long-term task execution. DovSG takes RGB-D sequences as input and utilizes vision-language models (VLMs) for object detection to obtain high-level object semantic features. Based on the segmented objects, a structured 3D scene graph is generated for low-level spatial relationships. Furthermore, an efficient mechanism for locally updating the scene graph, allows the robot to adjust parts of the graph dynamically during interactions without the need for full scene reconstruction. This mechanism is particularly valuable in dynamic environments, enabling the robot to continually adapt to scene changes and effectively support the execution of long-term tasks. We validated our system in real-world environments with varying degrees of manual modifications, demonstrating its effectiveness and superior performance in long-term tasks. Our project page is available at: https://bjhyzj.github.io/dovsg-web.

arxiv情報

著者 Zhijie Yan,Shufei Li,Zuoxu Wang,Lixiu Wu,Han Wang,Jun Zhu,Lijiang Chen,Jihong Liu
発行日 2025-02-18 13:48:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Dynamic Open-Vocabulary 3D Scene Graphs for Long-term Language-Guided Mobile Manipulation はコメントを受け付けていません

InstructRobot: A Model-Free Framework for Mapping Natural Language Instructions into Robot Motion

要約

自然言語を使用してロボットと通信する能力は、人間とロボットの相互作用において大きな前進です。
ただし、口頭でのコマンドを物理的な行動に正確に翻訳することは有望ですが、それでも課題を提示します。
現在のアプローチでは、モデルをトレーニングするために大きなデータセットが必要であり、最大6度の自由度を持つロボットに限定されています。
これらの問題に対処するために、ロボットの運動学モデルの大規模なデータセットの構築や事前知識を必要とせずに、自然言語の指示をロボットモーションにマッピングするInstructrobotというフレームワークを提案します。
Instructrobotは、言語表現と逆運動モデルの共同学習を可能にする強化学習アルゴリズムを採用し、学習プロセス全体を簡素化します。
提案されたフレームワークは、オブジェクト操作タスクに26の反転ジョイントを備えた複雑なロボットを使用して検証され、現実的な環境での堅牢性と適応性を示しています。
このフレームワークは、データセットを作成が困難である任意のタスクまたはドメインに適用でき、言語通信を使用してロボットをトレーニングするという課題に対する直感的でアクセス可能なソリューションになります。
Instructrobotフレームワークと実験用のオープンソースコードは、https://github.com/icleveston/instructrobotでアクセスできます。

要約(オリジナル)

The ability to communicate with robots using natural language is a significant step forward in human-robot interaction. However, accurately translating verbal commands into physical actions is promising, but still presents challenges. Current approaches require large datasets to train the models and are limited to robots with a maximum of 6 degrees of freedom. To address these issues, we propose a framework called InstructRobot that maps natural language instructions into robot motion without requiring the construction of large datasets or prior knowledge of the robot’s kinematics model. InstructRobot employs a reinforcement learning algorithm that enables joint learning of language representations and inverse kinematics model, simplifying the entire learning process. The proposed framework is validated using a complex robot with 26 revolute joints in object manipulation tasks, demonstrating its robustness and adaptability in realistic environments. The framework can be applied to any task or domain where datasets are scarce and difficult to create, making it an intuitive and accessible solution to the challenges of training robots using linguistic communication. Open source code for the InstructRobot framework and experiments can be accessed at https://github.com/icleveston/InstructRobot.

arxiv情報

著者 Iury Cleveston,Alana C. Santana,Paula D. P. Costa,Ricardo R. Gudwin,Alexandre S. Simões,Esther L. Colombini
発行日 2025-02-18 13:48:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | InstructRobot: A Model-Free Framework for Mapping Natural Language Instructions into Robot Motion はコメントを受け付けていません

RobotIQ: Empowering Mobile Robots with Human-Level Planning for Real-World Execution

要約

このペーパーでは、Robotiqを紹介します。これは、人間レベルの計画機能を備えたモバイルロボットを強化し、大規模な言語モデルを介して自然言語の指示を介してシームレスなコミュニケーションを可能にするフレームワークです。
提案されたフレームワークはROSアーキテクチャで設計されており、人間とロボットの間のギャップを埋めることを目的としており、ロボットがユーザーが発表したテキストまたは音声コマンドを理解して実行できるようにします。
私たちの研究には、ナビゲーション、操作、オブジェクトのローカリゼーションなどのドメインで知識を転送するための基本的な論理、数学、学習の推論から、シミュレートされた環境から実際の操作への学習行動の適用を可能にする幅広いロボットタスクが含まれています。
すべてはすべて、APIワイズコントロール機能のモジュール式作成されたロボットライブラリスイートにカプセル化されており、RobotiQは、研究者が特定のアプリケーションとロボット構成に合わせた独自のロボットアクションを設計および開発できるようにする完全に機能するAI-ROSベースのツールセットを提供します。
提案されたシステムの有効性は、高齢者向けに設計された支援アプリケーションを含むホームサービスシナリオに焦点を当てたシミュレーションおよび実世界の実験の両方でテストおよび検証されました。
任意のロボット用のオープンソースで使いやすく、適応性のあるロボットライブラリスイートを備えたRobotiqは、https://github.com/emmarapt/robotiqにあります。

要約(オリジナル)

This paper introduces RobotIQ, a framework that empowers mobile robots with human-level planning capabilities, enabling seamless communication via natural language instructions through any Large Language Model. The proposed framework is designed in the ROS architecture and aims to bridge the gap between humans and robots, enabling robots to comprehend and execute user-expressed text or voice commands. Our research encompasses a wide spectrum of robotic tasks, ranging from fundamental logical, mathematical, and learning reasoning for transferring knowledge in domains like navigation, manipulation, and object localization, enabling the application of learned behaviors from simulated environments to real-world operations. All encapsulated within a modular crafted robot library suite of API-wise control functions, RobotIQ offers a fully functional AI-ROS-based toolset that allows researchers to design and develop their own robotic actions tailored to specific applications and robot configurations. The effectiveness of the proposed system was tested and validated both in simulated and real-world experiments focusing on a home service scenario that included an assistive application designed for elderly people. RobotIQ with an open-source, easy-to-use, and adaptable robotic library suite for any robot can be found at https://github.com/emmarapt/RobotIQ.

arxiv情報

著者 Emmanuel K. Raptis,Athanasios Ch. Kapoutsis,Elias B. Kosmatopoulos
発行日 2025-02-18 13:49:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | RobotIQ: Empowering Mobile Robots with Human-Level Planning for Real-World Execution はコメントを受け付けていません

Adaptive Compressive Tactile Subsampling: Enabling High Spatiotemporal Resolution in Scalable Robotic Skin

要約

ロボットは、人間と同様に、構造化されていない環境で安全かつ効果的に動作するために、全身の高解像度の触覚センシングを必要とし、反射的な応答と閉ループ制御を可能にします。
ただし、高触覚アレイの密集した大規模なカバレッジが100 Hz未満の読み出しレートを制限するために必要な高いピクセルカウントは、高速タスクでの使用を妨げます。
適応性のある圧縮触覚サブサンプリング(ACTS)を導入します。これは、まばらな回復と学習した触覚辞書を活用することにより、従来の触覚マトリックスの性能を劇的に向上させるスケーラブルでデータ駆動型の方法です。
1024ピクセルの触覚センサーアレイ(32×32)でテストされ、Actsは最大1,000 Hzまでのフレームレートを達成し、従来のラスタースキャンよりも18倍改善され、再構成エラーを最小限に抑えます。
ACTSは、高速結果を提供できるウェアラブル、大型エリア、高密度触覚センシングシステムを初めて可能にします。
触覚およびロボット工学アプリケーションで、接触、高速発射体検出、リコチェット角の推定、およびソフト変形追跡から20ミリ秒以内の迅速なオブジェクト分類を示します。これらはすべて、柔軟で高密度の触覚アレイを使用しています。
これらには、高解像度の触覚手袋、圧力インソール、およびロボットアームと人間サイズのマネキンを覆う全身構成が含まれます。
Actsは、標準、低コスト、および堅牢な触覚センサーを高速システムに変換し、オブジェクト操作から人間とロボットの相互作用に合わせてアプリケーションをサポートします。
ロボットとウェアラブルの包括的でスケーラブルで効率的な触覚カバレッジを可能にすることにより、ACTSは動的環境でのリアルで応答性のある適応可能な操作に向けてロボット工学を進めます。

要約(オリジナル)

Robots, like humans, require full-body, high-resolution tactile sensing to operate safely and effectively in unstructured environments, enabling reflexive responses and closed-loop control. However, the high pixel counts necessary for dense, large-area coverage limit readout rates of most tactile arrays to below 100 Hz, hindering their use in high-speed tasks. We introduce Adaptive Compressive Tactile Subsampling (ACTS), a scalable and data-driven method that dramatically enhances the performance of traditional tactile matrices by leveraging sparse recovery and a learned tactile dictionary. Tested on a 1024-pixel tactile sensor array (32X32), ACTS achieved frame rates up to 1,000 Hz, an 18X improvement over conventional raster scanning, with minimal reconstruction error. For the first time, ACTS enables wearable, large-area, high-density tactile sensing systems that can deliver high-speed results. We demonstrate rapid object classification within 20 ms of contact, high-speed projectile detection, ricochet angle estimation, and soft deformation tracking, in tactile and robotics applications, all using flexible, high-density tactile arrays. These include high-resolution tactile gloves, pressure insoles, and full-body configurations covering robotic arms and human-sized mannequins. ACTS transforms standard, low-cost, and robust tactile sensors into high-speed systems, supporting applications from object manipulation to human-robot interaction. By enabling comprehensive, scalable, and efficient tactile coverage for robots and wearables, ACTS advances robotics toward lifelike, responsive, and adaptable operation in dynamic environments.

arxiv情報

著者 Ariel Slepyan,Dian Li,Aidan Aug,Sriramana Sankar,Trac Tran,Nitish Thakor
発行日 2025-02-18 15:36:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | Adaptive Compressive Tactile Subsampling: Enabling High Spatiotemporal Resolution in Scalable Robotic Skin はコメントを受け付けていません