Contact-based Grasp Control and Inverse Kinematics for a Five-fingered Robotic Hand

要約

このホワイトペーパーでは、接触ベースのコントロールと逆運動学ソリューションを組み合わせた5本指のロボット把持システムの実装と分析を紹介します。
Pybulletシミュレーション環境とDexhand V2モデルを使用して、強制閉鎖検証で接触点最適化を通じて安定した把握を達成するための包括的なアプローチを実証します。
私たちの方法は、非親指の指で0.966-0.996、親指で0.879の間の移動効率評価を達成し、親指桁では0.0267-0.0283m以内、親指で0.0519m以内の位置精度を維持します。
このシステムは、240Hzシミュレーション周波数での迅速な位置安定化を実証し、把握実行全体で安定した接触構成を維持します。
実験結果は、私たちのアプローチの有効性を検証すると同時に、親指の反対の動きと水平面制御の将来の強化の領域を特定します。

要約(オリジナル)

This paper presents an implementation and analysis of a five-fingered robotic grasping system that combines contact-based control with inverse kinematics solutions. Using the PyBullet simulation environment and the DexHand v2 model, we demonstrate a comprehensive approach to achieving stable grasps through contact point optimization with force closure validation. Our method achieves movement efficiency ratings between 0.966-0.996 for non-thumb fingers and 0.879 for the thumb, while maintaining positional accuracy within 0.0267-0.0283m for non-thumb digits and 0.0519m for the thumb. The system demonstrates rapid position stabilization at 240Hz simulation frequency and maintains stable contact configurations throughout the grasp execution. Experimental results validate the effectiveness of our approach, while also identifying areas for future enhancement in thumb opposition movements and horizontal plane control.

arxiv情報

著者 Robinson Umeike
発行日 2025-03-24 21:50:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, I.2.9 | Contact-based Grasp Control and Inverse Kinematics for a Five-fingered Robotic Hand はコメントを受け付けていません

Optimal Modified Feedback Strategies in LQ Games under Control Imperfections

要約

ゲーム理論的アプローチとナッシュ平衡は、さまざまなエンジニアリングドメインに広く適用されています。
ただし、外乱、遅延、アクチュエータの制限などの実際的な課題は、NASH平衡戦略の正確な実行を妨げる可能性があります。
この作業では、2つのプレイヤー線形二次(LQ)非ゼロサムゲームのコンテキスト内で、ゲームの軌跡とプレイヤーのコストに対するこのような実装の欠陥の影響を調査します。
具体的には、あるプレイヤーによる小さな逸脱が、他のプレイヤーの状態とコスト機能にどのように影響するかを分析します。
これらの逸脱に対処するために、有害作用を最適に軽減するだけでなく、逸脱を活用してパフォーマンスを向上させることができる調整済み制御ポリシーを提案します。
厳密な数学的分析と証明が提示され、提案されたポリシーの変更が、未調整のフィードバックポリシーと比較して最大61ドルの改善を達成し、フィードバックNASH戦略と比較して最大$ 0.59 \%$を達成することを示しています。

要約(オリジナル)

Game-theoretic approaches and Nash equilibrium have been widely applied across various engineering domains. However, practical challenges such as disturbances, delays, and actuator limitations can hinder the precise execution of Nash equilibrium strategies. This work explores the impact of such implementation imperfections on game trajectories and players’ costs within the context of a two-player linear quadratic (LQ) nonzero-sum game. Specifically, we analyze how small deviations by one player affect the state and cost function of the other player. To address these deviations, we propose an adjusted control policy that not only mitigates adverse effects optimally but can also exploit the deviations to enhance performance. Rigorous mathematical analysis and proofs are presented, demonstrating through a representative example that the proposed policy modification achieves up to $61\%$ improvement compared to the unadjusted feedback policy and up to $0.59\%$ compared to the feedback Nash strategy.

arxiv情報

著者 Mahdis Rabbani,Navid Mojahed,Shima Nazari
発行日 2025-03-24 22:56:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.GT, cs.MA, cs.RO, cs.SY, eess.SY, math.OC | Optimal Modified Feedback Strategies in LQ Games under Control Imperfections はコメントを受け付けていません

MVCTrack: Boosting 3D Point Cloud Tracking via Multimodal-Guided Virtual Cues

要約

3Dシングルオブジェクトトラッキングは、自律運転とロボット工学に不可欠です。
既存の方法は、多くの場合、まばらで不完全なポイントクラウドシナリオに苦しんでいます。
これらの制限に対処するために、スパースポイントクラウドを濃縮する仮想キューを生成するマルチモーダル誘導仮想キュープロジェクション(MVCP)スキームを提案します。
さらに、生成された仮想キューに基づいて、強化されたトラッカーMVCTrackを導入します。
具体的には、MVCPスキームはRGBセンサーをLIDARベースのシステムにシームレスに統合し、一連の2D検出を活用して、ポイントクラウドのスパース性を大幅に改善する密な3D仮想キューを作成します。
これらの仮想キューは、既存のLIDARベースの3Dトラッカーと自然に統合でき、実質的なパフォーマンスの向上をもたらします。
広範な実験は、我々の方法がヌスセンデータセットで競争力のあるパフォーマンスを達成することを示しています。

要約(オリジナル)

3D single object tracking is essential in autonomous driving and robotics. Existing methods often struggle with sparse and incomplete point cloud scenarios. To address these limitations, we propose a Multimodal-guided Virtual Cues Projection (MVCP) scheme that generates virtual cues to enrich sparse point clouds. Additionally, we introduce an enhanced tracker MVCTrack based on the generated virtual cues. Specifically, the MVCP scheme seamlessly integrates RGB sensors into LiDAR-based systems, leveraging a set of 2D detections to create dense 3D virtual cues that significantly improve the sparsity of point clouds. These virtual cues can naturally integrate with existing LiDAR-based 3D trackers, yielding substantial performance gains. Extensive experiments demonstrate that our method achieves competitive performance on the NuScenes dataset.

arxiv情報

著者 Zhaofeng Hu,Sifan Zhou,Shibo Zhao,Zhihang Yuan,Ci-Jyun Liang
発行日 2025-03-24 23:48:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | MVCTrack: Boosting 3D Point Cloud Tracking via Multimodal-Guided Virtual Cues はコメントを受け付けていません

CoinFT: A Coin-Sized, Capacitive 6-Axis Force Torque Sensor for Robotic Applications

要約

コンパクト、軽量、低コスト、および堅牢性のある容量性6軸力/トルク(F/T)センサーであるCoinftを導入します。
Coinftは、シリコンゴムの柱の配列で接続された櫛型の電極を備えた2つの剛性PCBのスタックです。
マイクロコントローラーは、6軸F/Tを測定するための感度を高めるために、異なるサブセットの電極を尋問します。
Coinftの望ましい機能の組み合わせにより、ドローン、ロボットエンド効果、ウェアラブルの触覚デバイスなど、さまざまな実施形態ドメインにわたるスケールでのさまざまな接触豊富なロボット相互作用が可能になります。
態度ベースの力制御を実行して、慎重な接触力変調を必要とするタスクを実行することにより、ドローン上のCoinftの有用性を実証します。
Coinftの設計、製造、およびファームウェアは、https://hojung-choi.github.io/coinft.github.io/でオープンソーリングされています。

要約(オリジナル)

We introduce CoinFT, a capacitive 6-axis force/torque (F/T) sensor that is compact, light, low-cost, and robust with an average mean-squared error of 0.11N for force and 0.84mNm for moment when the input ranges from 0~10N and 0~4N in normal and shear directions, respectively. CoinFT is a stack of two rigid PCBs with comb-shaped electrodes connected by an array of silicone rubber pillars. The microcontroller interrogates the electrodes in different subsets in order to enhance sensitivity for measuring 6-axis F/T. The combination of desirable features of CoinFT enables various contact-rich robot interactions at a scale, across different embodiment domains including drones, robot end-effectors, and wearable haptic devices. We demonstrate the utility of CoinFT on drones by performing an attitude-based force control to perform tasks that require careful contact force modulation. The design, fabrication, and firmware of CoinFT are open-sourced at https://hojung-choi.github.io/coinft.github.io/.

arxiv情報

著者 Hojung Choi,Jun En Low,Tae Myung Huh,Gabriela A. Uribe,Seongheon Hong,Kenneth A. W. Hoffman,Julia Di,Tony G. Chen,Andrew A. Stanley,Mark R. Cutkosky
発行日 2025-03-25 00:12:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.HC, cs.RO | CoinFT: A Coin-Sized, Capacitive 6-Axis Force Torque Sensor for Robotic Applications はコメントを受け付けていません

CubeRobot: Grounding Language in Rubik’s Cube Manipulation via Vision-Language Model

要約

高レベルでルービックのキューブ定理を証明することは、人間レベルの空間的想像力と論理的思考と推論における顕著なマイルストーンを表しています。
複雑なビジョンシステムと固定アルゴリズムに依存している伝統的なルービックのキューブロボットは、しばしば複雑で動的なシナリオに適応するのに苦労しています。
この制限を克服するために、3×3 Rubikのキューブを解くために調整された新しいビジョン言語モデル(VLM)であるCuberobotを紹介し、具体化されたエージェントにマルチモーダルの理解と実行機能を強化します。
人間はさまざまなキューブ状態を網羅している複数レベルのタスク(合計43のサブタスク)を含む複数レベルのタスク(合計43のサブタスク)を含むCubecot画像データセットを使用しました。
VLM生成された計画クエリからタスク関連の機能を抽出するためのパラダイムであるデュアルループビジョンコットアーキテクチャとメモリストリームを組み込み、したがって、Cuberobotが独立した計画、意思決定、反映、および高レベルのRubikのキューブタスクの高レベルのルービックタスクの高度と個別の管理を可能にします。
さらに、低レベルのRubikのキューブ修復タスクでは、Cuberobotは中レベルのタスクで100%に似た100%の高精度を達成し、高レベルのタスクで80%の精度を達成しました。

要約(オリジナル)

Proving Rubik’s Cube theorems at the high level represents a notable milestone in human-level spatial imagination and logic thinking and reasoning. Traditional Rubik’s Cube robots, relying on complex vision systems and fixed algorithms, often struggle to adapt to complex and dynamic scenarios. To overcome this limitation, we introduce CubeRobot, a novel vision-language model (VLM) tailored for solving 3×3 Rubik’s Cubes, empowering embodied agents with multimodal understanding and execution capabilities. We used the CubeCoT image dataset, which contains multiple-level tasks (43 subtasks in total) that humans are unable to handle, encompassing various cube states. We incorporate a dual-loop VisionCoT architecture and Memory Stream, a paradigm for extracting task-related features from VLM-generated planning queries, thus enabling CubeRobot to independent planning, decision-making, reflection and separate management of high- and low-level Rubik’s Cube tasks. Furthermore, in low-level Rubik’s Cube restoration tasks, CubeRobot achieved a high accuracy rate of 100%, similar to 100% in medium-level tasks, and achieved an accuracy rate of 80% in high-level tasks.

arxiv情報

著者 Feiyang Wang,Xiaomin Yu,Wangyu Wu
発行日 2025-03-25 02:23:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | CubeRobot: Grounding Language in Rubik’s Cube Manipulation via Vision-Language Model はコメントを受け付けていません

A Novel Underwater Vehicle With Orientation Adjustable Thrusters: Design and Adaptive Tracking Control

要約

自律的な水中車両(AUV)は、海洋探査と研究に不可欠です。
ただし、従来のデザインは、複雑で動的な水中環境での制限された操縦性としばしば苦労しています。
このペーパーでは、革新的なオリエンテーション調整可能なスラスタAUV(Oatauv)を紹介します。
不確実なモデルパラメーターと環境障害に関連する課題を克服するために、リアルタイムの状態フィードバックを適応パラメーターの更新と統合する堅牢な軌道追跡を確保するために、新しいフィードフォワード適応モデル予測コントローラー(FFAMPC)が提案されています。
実験室プールでの閉ループ追跡や複合モーションテストを含む広範な実験は、オート麦のパフォーマンスの強化を検証します。
結果は、OAT-AUVの冗長ベクトルスラスター構成により、一般的な車両に比べて23.8%のコスト削減が可能になり、FF-AMPCコントローラーはPIDコントローラーと比較して68.6%の軌跡追跡改善を達成することを示しています。
ユニークなことに、このシステムは、同様の車両によって達成できない複合らせん/スパイラル軌道を実行します。

要約(オリジナル)

Autonomous underwater vehicles (AUVs) are essential for marine exploration and research. However, conventional designs often struggle with limited maneuverability in complex, dynamic underwater environments. This paper introduces an innovative orientation-adjustable thruster AUV (OATAUV), equipped with a redundant vector thruster configuration that enables full six-degree-of-freedom (6-DOF) motion and composite maneuvers. To overcome challenges associated with uncertain model parameters and environmental disturbances, a novel feedforward adaptive model predictive controller (FFAMPC) is proposed to ensure robust trajectory tracking, which integrates real-time state feedback with adaptive parameter updates. Extensive experiments, including closed-loop tracking and composite motion tests in a laboratory pool, validate the enhanced performance of the OAT-AUV. The results demonstrate that the OAT-AUV’s redundant vector thruster configuration enables 23.8% cost reduction relative to common vehicles, while the FF-AMPC controller achieves 68.6% trajectory tracking improvement compared to PID controllers. Uniquely, the system executes composite helical/spiral trajectories unattainable by similar vehicles.

arxiv情報

著者 Yifei Wang,Shihan Kong,Zhanhua Xin,Kaiwei Zhu,Dongyue Li,Junzhi Yu
発行日 2025-03-25 02:37:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | A Novel Underwater Vehicle With Orientation Adjustable Thrusters: Design and Adaptive Tracking Control はコメントを受け付けていません

Observation Adaptation via Annealed Importance Resampling for Partially Observable Markov Decision Processes

要約

部分的に観察可能なマルコフ決定プロセス(POMDP)は、状態の不確実性の下で確率的環境での連続的な意思決定のための一般的な数学モデルです。
POMDPはしばしば\ textit {オンライン}を解決します。これにより、アルゴリズムはリアルタイムで新しい情報に適応できます。
オンラインソルバーは通常、信念分布を更新するための重要性の再サンプリングに基づいて、ブートストラップ粒子フィルターを使用します。
最新の観測と以前の状態が実行不可能であることを考慮して、理想的な状態分布から直接サンプリングするため、粒子フィルターは、予測と再サンプリングのステップを通じて、状態を伝播し、重みを調整することにより、後方の信念分布に近似します。
ただし、実際には、特に受信した観察が非常に有益である場合、状態遷移モデルが後部の信念分布と不十分に整合している場合、再サンプリング技術の重要性は粒子の変性とサンプルの貧困につながります。
私たちは、オンラインPOMDPソルバーでの騒々しい観測をより適切に収容するために、反復的なモンテカルロステップを介して、状態移動と最適な分布の間に一連の橋分布を構築するアプローチを提案します。
私たちのアルゴリズムは、複数の挑戦的なPOMDPドメインで評価された場合、最先端の方法と比較して、有意に優れたパフォーマンスを実証します。

要約(オリジナル)

Partially observable Markov decision processes (POMDPs) are a general mathematical model for sequential decision-making in stochastic environments under state uncertainty. POMDPs are often solved \textit{online}, which enables the algorithm to adapt to new information in real time. Online solvers typically use bootstrap particle filters based on importance resampling for updating the belief distribution. Since directly sampling from the ideal state distribution given the latest observation and previous state is infeasible, particle filters approximate the posterior belief distribution by propagating states and adjusting weights through prediction and resampling steps. However, in practice, the importance resampling technique often leads to particle degeneracy and sample impoverishment when the state transition model poorly aligns with the posterior belief distribution, especially when the received observation is highly informative. We propose an approach that constructs a sequence of bridge distributions between the state-transition and optimal distributions through iterative Monte Carlo steps, better accommodating noisy observations in online POMDP solvers. Our algorithm demonstrates significantly superior performance compared to state-of-the-art methods when evaluated across multiple challenging POMDP domains.

arxiv情報

著者 Yunuo Zhang,Baiting Luo,Ayan Mukhopadhyay,Abhishek Dubey
発行日 2025-03-25 03:05:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO | Observation Adaptation via Annealed Importance Resampling for Partially Observable Markov Decision Processes はコメントを受け付けていません

Towards Uncertainty Unification: A Case Study for Preference Learning

要約

人間の好みを学ぶことは、人間とロボットの相互作用に不可欠です。ロボットは、人間の期待と目標に合わせて行動を適応させることができるためです。
ただし、人間の行動とロボットシステムの両方に固有の不確実性により、好みは挑戦的なタスクを学習します。
確率論的ロボットアルゴリズムは不確実性の定量化を提供しますが、人間の好みの不確実性の統合は露出度の低いままです。
このギャップを埋めるために、不確実性の統一を導入し、新しいフレームワーク、不確実性栄養学習(UUPL)を提案します。
具体的には、UUPLには、GP後方平均推定を改善する人間の好みの不確実性モデルと、GP予測分散精度を高める不確実性加重ガウス混合モデル(GMM)が含まれます。
さらに、ユーザー固有のキャリブレーションプロセスを設計して、ユーザー間の不確実性表現を調整し、モデルパフォーマンスの一貫性と信頼性を確保します。
包括的な実験とユーザー研究は、UUPLが予測精度とユーザー評価の両方で最先端のパフォーマンスを達成することを示しています。
アブレーション研究は、UUPLの人間の不確実性モデルと不確実性加重GMMの有効性をさらに検証します。

要約(オリジナル)

Learning human preferences is essential for human-robot interaction, as it enables robots to adapt their behaviors to align with human expectations and goals. However, the inherent uncertainties in both human behavior and robotic systems make preference learning a challenging task. While probabilistic robotics algorithms offer uncertainty quantification, the integration of human preference uncertainty remains underexplored. To bridge this gap, we introduce uncertainty unification and propose a novel framework, uncertainty-unified preference learning (UUPL), which enhances Gaussian Process (GP)-based preference learning by unifying human and robot uncertainties. Specifically, UUPL includes a human preference uncertainty model that improves GP posterior mean estimation, and an uncertainty-weighted Gaussian Mixture Model (GMM) that enhances GP predictive variance accuracy. Additionally, we design a user-specific calibration process to align uncertainty representations across users, ensuring consistency and reliability in the model performance. Comprehensive experiments and user studies demonstrate that UUPL achieves state-of-the-art performance in both prediction accuracy and user rating. An ablation study further validates the effectiveness of human uncertainty model and uncertainty-weighted GMM of UUPL.

arxiv情報

著者 Shaoting Peng,Haonan Chen,Katherine Driggs-Campbell
発行日 2025-03-25 03:25:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Towards Uncertainty Unification: A Case Study for Preference Learning はコメントを受け付けていません

MATT-GS: Masked Attention-based 3DGS for Robot Perception and Object Detection

要約

このペーパーでは、産業およびスマートファクトリー環境でのロボット認識とオブジェクトの検出を強化するための、新しいマスクされた注意ベースの3Dガウススプラッティング(3DGS)アプローチを紹介します。
U2-NETは、バックグラウンド除去に使用され、生の画像からターゲットオブジェクトを分離し、それにより混乱を最小限に抑え、モデルが関連データのみを処理するようにします。
さらに、SOBELフィルターベースの注意メカニズムが3DGSフレームワークに統合され、詳細を強化します。これは、高精度タスクに不可欠なネジ、ワイヤー、複雑なテクスチャなどの重要な機能をキャプチャします。
L1損失、SSIM、PSNRを含む定量的メトリックを使用して、グラウンドトゥルース画像と元の3DGSトレーニングベースラインとのバックグラウンドリモ型および注意を組み込んだ3DGSモデルのパフォーマンスを比較して、アプローチを検証します。
結果は、視覚的な忠実度と詳細な保存の大幅な改善を示しており、複雑な産業環境でのオブジェクト認識と操作のためのロボットビジョンを強化する際の方法の有効性を強調しています。

要約(オリジナル)

This paper presents a novel masked attention-based 3D Gaussian Splatting (3DGS) approach to enhance robotic perception and object detection in industrial and smart factory environments. U2-Net is employed for background removal to isolate target objects from raw images, thereby minimizing clutter and ensuring that the model processes only relevant data. Additionally, a Sobel filter-based attention mechanism is integrated into the 3DGS framework to enhance fine details – capturing critical features such as screws, wires, and intricate textures essential for high-precision tasks. We validate our approach using quantitative metrics, including L1 loss, SSIM, PSNR, comparing the performance of the background-removed and attention-incorporated 3DGS model against the ground truth images and the original 3DGS training baseline. The results demonstrate significant improves in visual fidelity and detail preservation, highlighting the effectiveness of our method in enhancing robotic vision for object recognition and manipulation in complex industrial settings.

arxiv情報

著者 Jee Won Lee,Hansol Lim,SooYeun Yang,Jongseong Brad Choi
発行日 2025-03-25 03:45:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.GR, cs.RO | MATT-GS: Masked Attention-based 3DGS for Robot Perception and Object Detection はコメントを受け付けていません

SyncDiff: Synchronized Motion Diffusion for Multi-Body Human-Object Interaction Synthesis

要約

現実的な人間とオブジェクトの相互作用の動きを統合することは、VR/ARと人間のアニメーションの重要な問題です。
1つのオブジェクトと相互作用する単一の人間または手を含む一般的に調査されたシナリオとは異なり、任意の数の人間、手、およびオブジェクトを備えたより一般的なマルチボディ設定に対処します。
この複雑さは、身体間の高い相関と相互の影響により、同期する動きに大きな課題をもたらします。
これらの課題に対処するために、同期された運動拡散戦略を使用して、マルチボディ相互作用合成の新しい方法であるSyncdiffを紹介します。
SyncDiffは、単一の拡散モデルを採用して、多体運動の共同分布をキャプチャします。
モーションフィデリティを強化するために、周波数ドメインモーション分解スキームを提案します。
さらに、さまざまな身体運動の同期を強調するために、新しい一連のアライメントスコアを導入します。
Syncdiffは、明示的な同期戦略を通じて、データサンプルの尤度と整列尤度の両方を共同で最適化します。
さまざまなマルチボディ構成を備えた4つのデータセットにわたる広範な実験は、既存の最先端のモーション合成方法よりも同期の優位性を示しています。

要約(オリジナル)

Synthesizing realistic human-object interaction motions is a critical problem in VR/AR and human animation. Unlike the commonly studied scenarios involving a single human or hand interacting with one object, we address a more generic multi-body setting with arbitrary numbers of humans, hands, and objects. This complexity introduces significant challenges in synchronizing motions due to the high correlations and mutual influences among bodies. To address these challenges, we introduce SyncDiff, a novel method for multi-body interaction synthesis using a synchronized motion diffusion strategy. SyncDiff employs a single diffusion model to capture the joint distribution of multi-body motions. To enhance motion fidelity, we propose a frequency-domain motion decomposition scheme. Additionally, we introduce a new set of alignment scores to emphasize the synchronization of different body motions. SyncDiff jointly optimizes both data sample likelihood and alignment likelihood through an explicit synchronization strategy. Extensive experiments across four datasets with various multi-body configurations demonstrate the superiority of SyncDiff over existing state-of-the-art motion synthesis methods.

arxiv情報

著者 Wenkun He,Yun Liu,Ruitao Liu,Li Yi
発行日 2025-03-25 04:15:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.RO | SyncDiff: Synchronized Motion Diffusion for Multi-Body Human-Object Interaction Synthesis はコメントを受け付けていません