E2H: A Two-Stage Non-Invasive Neural Signal Driven Humanoid Robotic Whole-Body Control Framework

要約

階層的強化学習に基づく制御の統合やLLMプランニングの活用など、近年のヒューマノイドロボットの進歩は、ロボットが複雑なタスクを実行する能力を著しく向上させている。高度に発達したヒューマノイドロボットとは対照的に、人間が関与する要素は比較的未解明なままである。人型ロボットを脳で直接制御することは、パシフィック・リムやガンダムなどの多くのSF小説にすでに登場している。この研究では、E2H(EEG-to-Humanoid)という革新的なフレームワークを提示し、高周波の非侵襲的神経信号を用いたヒューマノイドロボットの制御を開拓する。非侵襲的な信号の質は、正確な空間的軌跡を解読する上で依然として低いため、我々はE2Hフレームワークを革新的な2段階構成に分解する:1)神経信号(EEG)を意味的な運動キーワードにデコードし、2)正確な運動模倣制御方針を持つLLM促進運動生成を利用して、ヒューマノイド・ロボットの制御を実現する。脳波コマンドでロボットを直接駆動する方法は、特に言語障害、宇宙探査、水中探査のような言語コマンドが実用的でない状況において、人間と機械の協働に新しいアプローチを提供し、大きな可能性を解き放つ。E2Hは、人間とコンピュータの相互作用に計り知れない可能性を秘めた、エキサイティングな未来を垣間見せてくれる。

要約(オリジナル)

Recent advancements in humanoid robotics, including the integration of hierarchical reinforcement learning-based control and the utilization of LLM planning, have significantly enhanced the ability of robots to perform complex tasks. In contrast to the highly developed humanoid robots, the human factors involved remain relatively unexplored. Directly controlling humanoid robots with the brain has already appeared in many science fiction novels, such as Pacific Rim and Gundam. In this work, we present E2H (EEG-to-Humanoid), an innovative framework that pioneers the control of humanoid robots using high-frequency non-invasive neural signals. As the none-invasive signal quality remains low in decoding precise spatial trajectory, we decompose the E2H framework in an innovative two-stage formation: 1) decoding neural signals (EEG) into semantic motion keywords, 2) utilizing LLM facilitated motion generation with a precise motion imitation control policy to realize humanoid robotics control. The method of directly driving robots with brainwave commands offers a novel approach to human-machine collaboration, especially in situations where verbal commands are impractical, such as in cases of speech impairments, space exploration, or underwater exploration, unlocking significant potential. E2H offers an exciting glimpse into the future, holding immense potential for human-computer interaction.

arxiv情報

著者 Yiqun Duan,Jinzhao Zhou,Xiaowei Jiang,Qiang Zhang,Jingkai Sun,Jiahang Cao,Jiaxu Wang,Yiqian Yang,Wen Zhao,Gang Han,Yijie Guo,Chin-Teng Lin
発行日 2024-10-03 01:58:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.HC, cs.RO | コメントする

Reducing Warning Errors in Driver Support with Personalized Risk Maps

要約

人間に焦点を当てたドライバー支援の問題を考える。最新のパーソナライゼーション概念では、車両制御システムやドライバーモデルのパラメータを推定することができる。しかし、パーソナライズされたモデルを使用し、一般的なリスク警告の形で有効性を評価するアプローチは、現在のところほとんど提案されていない。そこで本論文では、ドライバーの行動に基づいて、指定されたドライバーのパーソナライズされた危険因子を推定する警告システムを提案する。このシステムはその後、パーソナライズされたリスクマップを用いて警告信号を適応させることができる。実験では、縦断追従と交差点シナリオの例を示すが、この新しい警告システムは、パーソナライズされたドライバーへの配慮を使用しないベースラインアプローチと比較して、偽陰性エラーと偽陽性エラーを効果的に減らすことができる。これは、リスク警告とドライバー支援における警告エラーを減らすためのパーソナライゼーションの可能性を強調するものである。

要約(オリジナル)

We consider the problem of human-focused driver support. State-of-the-art personalization concepts allow to estimate parameters for vehicle control systems or driver models. However, there are currently few approaches proposed that use personalized models and evaluate the effectiveness in the form of general risk warning. In this paper, we therefore propose a warning system that estimates a personalized risk factor for the given driver based on the driver’s behavior. The system afterwards is able to adapt the warning signal with personalized Risk Maps. In experiments, we show examples for longitudinal following and intersection scenarios in which the novel warning system can effectively reduce false negative errors and false positive errors compared to a baseline approach which does not use personalized driver considerations. This underlines the potential of personalization for reducing warning errors in risk warning and driver support.

arxiv情報

著者 Tim Puphal,Ryohei Hirano,Takayuki Kawabuchi,Akihito Kimata,Julian Eggert
発行日 2024-10-03 02:13:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, cs.RO | コメントする

NeRFoot: Robot-Footprint Estimation for Image-Based Visual Servoing

要約

本論文では、静止CCTVカメラによる画像ベースビジュアルサーボ(IBVS)によって制御される移動ロボットの動作領域を拡張するためのニューラル放射輝度場(NeRF)モデルの有用性を検討する。NeRFを3D表現として用いることで、ロボットの足跡を幾何学的に推定し、CNNベースのネットワークを学習させて、ロボットの外観のみから足跡をオンラインで抽出することができる。結果として得られるフットプリントは、ロボット全体のバウンディングボックスよりもタイトな境界となり、ロボットのコントローラがより最適な軌道を規定し、安全な動作フロア領域を拡大することを可能にする。

要約(オリジナル)

This paper investigates the utility of Neural Radiance Fields (NeRF) models in extending the regions of operation of a mobile robot, controlled by Image-Based Visual Servoing (IBVS) via static CCTV cameras. Using NeRF as a 3D-representation prior, the robot’s footprint may be extrapolated geometrically and used to train a CNN-based network to extract it online from the robot’s appearance alone. The resulting footprint results in a tighter bound than a robot-wide bounding box, allowing the robot’s controller to prescribe more optimal trajectories and expand its safe operational floor area.

arxiv情報

著者 Daoxin Zhong,Luke Robinson,Daniele De Martini
発行日 2024-10-03 02:46:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO | コメントする

Guiding Long-Horizon Task and Motion Planning with Vision Language Models

要約

視覚言語モデル(VLM)は、ゴール、コンテキスト、シーンの画像、および任意のプランニング制約があれば、もっともらしい高レベルのプランを生成することができる。しかし、予測された動作が、特定のロボットの実施形態に対して幾何学的および運動学的に実行可能であるという保証はありません。その結果、物体にアクセスするために引き出しを開けるなど、多くの前提ステップが計画で省略されることが多い。ロボットのタスクプランナーやモーションプランナーは、動作の幾何学的な実現可能性を尊重し、物理的に必要な動作を挿入する動作軌道を生成することができるが、常識的な知識を必要とし、多くの変数で構成される大きな状態空間を含む日常的な問題には拡張できない。我々はVLM-TAMPを提案する。VLM-TAMPはVLMを活用し、タスクプランナーとモーションプランナーを導く、意味的に意味のある、地平線を縮小する中間サブゴールを生成する階層的プランニングアルゴリズムである。サブゴールやアクションが改良できない場合は、VLMに再度問い合わせ、再計画を行う。VLM-TAMPをキッチンタスクで評価したところ、ロボットは30~50のアクションを連続して実行し、最大21のオブジェクトと相互作用する必要がある調理目標を達成しなければならなかった。その結果、VLM-TAMPは、VLMが生成した行動シーケンスを硬直的かつ独立に実行するベースラインを、成功率(50~100%対0%)および平均タスク完了率(72~100%対15~45%)の両面で大幅に上回った。詳細はプロジェクトサイトhttps://zt-yang.github.io/vlm-tamp-robot/。

要約(オリジナル)

Vision-Language Models (VLM) can generate plausible high-level plans when prompted with a goal, the context, an image of the scene, and any planning constraints. However, there is no guarantee that the predicted actions are geometrically and kinematically feasible for a particular robot embodiment. As a result, many prerequisite steps such as opening drawers to access objects are often omitted in their plans. Robot task and motion planners can generate motion trajectories that respect the geometric feasibility of actions and insert physically necessary actions, but do not scale to everyday problems that require common-sense knowledge and involve large state spaces comprised of many variables. We propose VLM-TAMP, a hierarchical planning algorithm that leverages a VLM to generate goth semantically-meaningful and horizon-reducing intermediate subgoals that guide a task and motion planner. When a subgoal or action cannot be refined, the VLM is queried again for replanning. We evaluate VLM- TAMP on kitchen tasks where a robot must accomplish cooking goals that require performing 30-50 actions in sequence and interacting with up to 21 objects. VLM-TAMP substantially outperforms baselines that rigidly and independently execute VLM-generated action sequences, both in terms of success rates (50 to 100% versus 0%) and average task completion percentage (72 to 100% versus 15 to 45%). See project site https://zt-yang.github.io/vlm-tamp-robot/ for more information.

arxiv情報

著者 Zhutian Yang,Caelan Garrett,Dieter Fox,Tomás Lozano-Pérez,Leslie Pack Kaelbling
発行日 2024-10-03 04:14:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO | コメントする

Capturing complex hand movements and object interactions using machine learning-powered stretchable smart textile gloves

要約

器用な手の動きとインタラクションの正確なリアルタイムトラッキングは、ヒューマンコンピュータインタラクション、メタバース、ロボット工学、遠隔医療などにおいて多くの応用がある。現実的な手の動きのキャプチャは、関節や自由度が多いため困難です。ここでは、ヘリカルセンサーヤーンと慣性計測ユニットを組み込んだ、伸縮可能で洗濯可能なスマート手袋を用いた、関節を持つ手と指の動きの正確で動的なトラッキングについて報告する。このセンサー糸は、0.005%から155%のひずみに反応する高いダイナミックレンジを持ち、長時間の使用や洗濯サイクルにおいても安定性を示す。多段階機械学習を使用し、被験者内および被験者間のクロスバリデーションにおける平均関節角度推定二乗平均誤差はそれぞれ1.21度および1.45度であり、オクルージョンや視野制限のない高価なモーションキャプチャカメラの精度に匹敵する。ノイズやセンサーのばらつきに対するロバスト性を高めるデータ補強技術を報告する。オブジェクトとのインタラクション中の器用な手の動きの正確な追跡を実証し、模擬紙キーボードへの正確なタイピング、アメリカ手話に適応した複雑な動的・静的ジェスチャの認識、オブジェクト識別などの新しい応用の道を開く。

要約(オリジナル)

Accurate real-time tracking of dexterous hand movements and interactions has numerous applications in human-computer interaction, metaverse, robotics, and tele-health. Capturing realistic hand movements is challenging because of the large number of articulations and degrees of freedom. Here, we report accurate and dynamic tracking of articulated hand and finger movements using stretchable, washable smart gloves with embedded helical sensor yarns and inertial measurement units. The sensor yarns have a high dynamic range, responding to low 0.005 % to high 155 % strains, and show stability during extensive use and washing cycles. We use multi-stage machine learning to report average joint angle estimation root mean square errors of 1.21 and 1.45 degrees for intra- and inter-subjects cross-validation, respectively, matching accuracy of costly motion capture cameras without occlusion or field of view limitations. We report a data augmentation technique that enhances robustness to noise and variations of sensors. We demonstrate accurate tracking of dexterous hand movements during object interactions, opening new avenues of applications including accurate typing on a mock paper keyboard, recognition of complex dynamic and static gestures adapted from American Sign Language and object identification.

arxiv情報

著者 Arvin Tashakori,Zenan Jiang,Amir Servati,Saeid Soltanian,Harishkumar Narayana,Katherine Le,Caroline Nakayama,Chieh-ling Yang,Z. Jane Wang,Janice J. Eng,Peyman Servati
発行日 2024-10-03 05:32:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.HC, cs.LG, cs.RO, eess.SP | コメントする

Reinforcement Learning with Foundation Priors: Let the Embodied Agent Efficiently Learn on Its Own

要約

強化学習(RL)は、ロボットの操作タスクを解決するための有望なアプローチである。しかし、RLアルゴリズムを実世界で直接適用するのは難しい。ひとつには、RLはデータ集約的であり、通常、数百万回の環境との相互作用を必要とするため、現実のシナリオでは非現実的である。また、報酬関数を手動で設計するためには、多大な工学的努力が必要である。これらの問題に対処するため、本稿では基礎モデルを活用する。我々は、政策、価値、成功報酬の基礎モデルからのガイダンスとフィードバックを利用するために、基礎プリアによる強化学習(Reinforcement Learning with Foundation Priors: RLFP)を提案する。このフレームワークの中で、我々は、自動的な報酬関数を用いて、より効率的に探索することを可能にする、ファンデーションガイド付きアクタークリティック(Foundation-guided Actor-Critic:FAC)アルゴリズムを導入する。私たちのフレームワークの利点は3つあります:(1)⑷テキストの効率化、(2)⑸最小かつ効果的な報酬工学、(3)⑸基礎モデルの形式にとらわれない、ノイズの多い事前分布に頑健。我々の手法は、実ロボットとシミュレーションの両方で、様々な操作タスクにおいて顕著な性能を達成した。実ロボットでの5つの器用なタスクにおいて、FACは1時間のリアルタイム学習で平均86%の成功率を達成した。シミュレーションされたメタワールドの8つのタスクにおいて、FACは100kフレーム未満(約1時間の学習)で7/8のタスクで100%の成功率を達成し、1Mフレームで手動で報酬を設計したベースライン手法を凌駕した。我々は、RLFPフレームワークにより、将来ロボットが物理世界でより多くのタスクを自律的に探索・学習できるようになると考えている。

要約(オリジナル)

Reinforcement learning (RL) is a promising approach for solving robotic manipulation tasks. However, it is challenging to apply the RL algorithms directly in the real world. For one thing, RL is data-intensive and typically requires millions of interactions with environments, which are impractical in real scenarios. For another, it is necessary to make heavy engineering efforts to design reward functions manually. To address these issues, we leverage foundation models in this paper. We propose Reinforcement Learning with Foundation Priors (RLFP) to utilize guidance and feedback from policy, value, and success-reward foundation models. Within this framework, we introduce the Foundation-guided Actor-Critic (FAC) algorithm, which enables embodied agents to explore more efficiently with automatic reward functions. The benefits of our framework are threefold: (1) \textit{sample efficient}; (2) \textit{minimal and effective reward engineering}; (3) \textit{agnostic to foundation model forms and robust to noisy priors}. Our method achieves remarkable performances in various manipulation tasks on both real robots and in simulation. Across 5 dexterous tasks with real robots, FAC achieves an average success rate of 86\% after one hour of real-time learning. Across 8 tasks in the simulated Meta-world, FAC achieves 100\% success rates in 7/8 tasks under less than 100k frames (about 1-hour training), outperforming baseline methods with manual-designed rewards in 1M frames. We believe the RLFP framework can enable future robots to explore and learn autonomously in the physical world for more tasks.

arxiv情報

著者 Weirui Ye,Yunsheng Zhang,Haoyang Weng,Xianfan Gu,Shengjie Wang,Tong Zhang,Mengchen Wang,Pieter Abbeel,Yang Gao
発行日 2024-10-03 05:57:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG, cs.RO | コメントする

End-to-end Driving in High-Interaction Traffic Scenarios with Reinforcement Learning

要約

ダイナミックでインタラクティブな交通シナリオは、自律走行システムにとって大きな課題となる。強化学習(RL)は、特に複雑な環境において、事前に収集されたデータセットや事前に定義された条件の制約を超えた運転ポリシーの探索を可能にすることで、有望なアプローチを提供する。しかし、高次元のマルチモーダルな観測データから空間的・時間的特徴を効果的に抽出し、かつ経時的な誤差の蓄積を最小化することが重要な課題である。さらに、大規模なRLモデルを効率的に導き、学習過程で頻繁に失敗することなく最適な運転方針に収束させることは、依然として困難である。 我々はこれらの問題に対処するために、Rambleと名付けられたエンドツーエンドのモデルベースRLアルゴリズムを提案する。Rambleは、マルチビューのRGB画像とLiDAR点群を低次元の潜在特徴に処理し、各時間ステップにおける交通シナリオのコンテキストを捉える。次に、時間依存関係をモデル化し、将来の状態を予測するために、変換器ベースのアーキテクチャが採用される。環境の力学モデルを学習することにより、Rambleは今後の交通事象を予測し、より多くの情報に基づいた戦略的な意思決定を行うことができる。我々の実装は、特徴抽出と意思決定における事前の経験が、最適な運転ポリシーに向けたRLモデルの収束を加速する上で極めて重要な役割を果たすことを実証している。Rambleは、CARLA Leaderboard 2.0において、ルート完走率と運転スコアに関して最先端の性能を達成し、複雑で動的な交通状況を管理する上で有効であることを示している。

要約(オリジナル)

Dynamic and interactive traffic scenarios pose significant challenges for autonomous driving systems. Reinforcement learning (RL) offers a promising approach by enabling the exploration of driving policies beyond the constraints of pre-collected datasets and predefined conditions, particularly in complex environments. However, a critical challenge lies in effectively extracting spatial and temporal features from sequences of high-dimensional, multi-modal observations while minimizing the accumulation of errors over time. Additionally, efficiently guiding large-scale RL models to converge on optimal driving policies without frequent failures during the training process remains tricky. We propose an end-to-end model-based RL algorithm named Ramble to address these issues. Ramble processes multi-view RGB images and LiDAR point clouds into low-dimensional latent features to capture the context of traffic scenarios at each time step. A transformer-based architecture is then employed to model temporal dependencies and predict future states. By learning a dynamics model of the environment, Ramble can foresee upcoming traffic events and make more informed, strategic decisions. Our implementation demonstrates that prior experience in feature extraction and decision-making plays a pivotal role in accelerating the convergence of RL models toward optimal driving policies. Ramble achieves state-of-the-art performance regarding route completion rate and driving score on the CARLA Leaderboard 2.0, showcasing its effectiveness in managing complex and dynamic traffic situations.

arxiv情報

著者 Yueyuan Li,Mingyang Jiang,Songan Zhang,Wei Yuan,Chunxiang Wang,Ming Yang
発行日 2024-10-03 06:45:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG, cs.RO | コメントする

Semantic Communication and Control Co-Design for Multi-Objective Correlated Dynamics

要約

本論文では、異なる制御ルールとダイナミクスを持つ相関システムの意味的ダイナミクスを学習する機械学習アプローチを紹介する。オートエンコーダ(AE)フレームワークにおけるクープマン演算子を活用することで、動的セマンティッククープマン(DSK)モデルを用いてシステムの状態変化を潜在空間において線形化し、ベースラインのセマンティックダイナミクスを捉える。信号時間論理(STL)は論理セマンティッククープマン(LSK)モデルを通して組み込まれ、システム固有の制御ルールを符号化する。これらのモデルは、状態予測精度と制御性能を向上させながら通信コストを削減する論理クープマンAEフレームワークを形成し、通信サンプルの91.65%削減とシミュレーションでの大幅な性能向上を示す。

要約(オリジナル)

This letter introduces a machine-learning approach to learning the semantic dynamics of correlated systems with different control rules and dynamics. By leveraging the Koopman operator in an autoencoder (AE) framework, the system’s state evolution is linearized in the latent space using a dynamic semantic Koopman (DSK) model, capturing the baseline semantic dynamics. Signal temporal logic (STL) is incorporated through a logical semantic Koopman (LSK) model to encode system-specific control rules. These models form the proposed logical Koopman AE framework that reduces communication costs while improving state prediction accuracy and control performance, showing a 91.65% reduction in communication samples and significant performance gains in simulation.

arxiv情報

著者 Abanoub M. Girgis,Hyowoon Seo,Mehdi Bennis
発行日 2024-10-03 08:38:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, cs.RO, cs.SY, eess.SY | コメントする

QDGset: A Large Scale Grasping Dataset Generated with Quality-Diversity

要約

近年のAIの進歩により、ロボットの学習において大きな成果が得られているが、把持のような技能はまだ部分的にしか解決されていない。最近の多くの研究は、未知の物体を把持することを学習するために、合成把持データセットを利用している。しかし、これらのデータセットは、事前分布を用いた単純な把持サンプリング法を用いて生成されたものである。近年、Quality-Diversity(QD)アルゴリズムにより、把持サンプリングが大幅に効率化されることが証明されている。本研究では、物体中心の把持を生成するためのQDフレームワークであるQDG-6DoFを拡張し、合成把持データセットの生成をスケールアップする。我々は、物体メッシュの変換と過去の把持レパートリーからの転移学習を組み合わせたデータ増強法を提案する。実験の結果、この手法により、発見されたロバスト把持1つあたりに必要な評価回数を最大20%削減できることがわかった。我々はこの手法を使って、6DoFの把持ポーズのデータセットであるQDGsetを生成した。QDGsetには、従来の最先端技術と比較して、それぞれ約3.5倍と4.5倍の把持ポーズと物体が含まれている。本手法により、誰でも簡単にデータを生成することができ、最終的には大規模な合成把持の協調データセットに貢献することができる。

要約(オリジナル)

Recent advances in AI have led to significant results in robotic learning, but skills like grasping remain partially solved. Many recent works exploit synthetic grasping datasets to learn to grasp unknown objects. However, those datasets were generated using simple grasp sampling methods using priors. Recently, Quality-Diversity (QD) algorithms have been proven to make grasp sampling significantly more efficient. In this work, we extend QDG-6DoF, a QD framework for generating object-centric grasps, to scale up the production of synthetic grasping datasets. We propose a data augmentation method that combines the transformation of object meshes with transfer learning from previous grasping repertoires. The conducted experiments show that this approach reduces the number of required evaluations per discovered robust grasp by up to 20%. We used this approach to generate QDGset, a dataset of 6DoF grasp poses that contains about 3.5 and 4.5 times more grasps and objects, respectively, than the previous state-of-the-art. Our method allows anyone to easily generate data, eventually contributing to a large-scale collaborative dataset of synthetic grasps.

arxiv情報

著者 Johann Huber,François Hélénon,Mathilde Kappel,Ignacio de Loyola Páez-Ubieta,Santiago T. Puente,Pablo Gil,Faïz Ben Amar,Stéphane Doncieux
発行日 2024-10-03 08:56:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, cs.RO | コメントする

Data Optimisation of Machine Learning Models for Smart Irrigation in Urban Parks

要約

都市環境は、猛暑、干ばつ、水不足など、気候変動による大きな課題に直面しており、これらは公衆衛生、地域社会の福祉、地域経済に影響を与えている。特に、オーストラリア最大級の灌漑システムに依存しているシドニー・オリンピック・パークのような地域では、これらの問題を効果的に管理することが極めて重要である。2021年に開始された「公園とクールタウンのためのスマート灌漑管理(SIMPaCT)」プロジェクトでは、先進技術と機械学習モデルを活用して灌漑を最適化し、物理的な冷却を誘導する。本稿では、SIMPaCTシステムの広範なセンサーネットワークと応用機械学習モデルの効率を高めるための2つの新しい手法を紹介する。最初の方法は、K-shapeとK-meansアルゴリズムを用いてセンサーの時系列データをクラスタリングし、欠測センサーの測定値を推定することで、連続的で信頼性の高いデータを確保するものである。この手法により、異常を検出し、データソースを修正し、冗長なセンサーを特定して除去し、メンテナンスコストを削減することができる。2つ目の方法は、ロボットシステムを使用して異なるセンサー位置から逐次データを収集するもので、多数の固定センサーの必要性を大幅に削減する。これらの方法を組み合わせることで、センサーの配置を最適化し、メンテナンスコストを削減しながら、正確な土壌水分予測を維持し、スマート灌漑システムの効率と効果を高めることを目的としている。我々の評価では、土壌水分モニタリングネットワークの効率と費用対効果が大幅に改善されたことが実証された。クラスターに基づく欠落センサーの交換により、平均誤差が最大5.4%減少する。ロボットによるエミュレーションとしてセンサデータを逐次収集すると、円形経路と直線経路の平均誤差がそれぞれ17.2%と2.1%減少する。

要約(オリジナル)

Urban environments face significant challenges due to climate change, including extreme heat, drought, and water scarcity, which impact public health, community well-being, and local economies. Effective management of these issues is crucial, particularly in areas like Sydney Olympic Park, which relies on one of Australia’s largest irrigation systems. The Smart Irrigation Management for Parks and Cool Towns (SIMPaCT) project, initiated in 2021, leverages advanced technologies and machine learning models to optimize irrigation and induce physical cooling. This paper introduces two novel methods to enhance the efficiency of the SIMPaCT system’s extensive sensor network and applied machine learning models. The first method employs clustering of sensor time series data using K-shape and K-means algorithms to estimate readings from missing sensors, ensuring continuous and reliable data. This approach can detect anomalies, correct data sources, and identify and remove redundant sensors to reduce maintenance costs. The second method involves sequential data collection from different sensor locations using robotic systems, significantly reducing the need for high numbers of stationary sensors. Together, these methods aim to maintain accurate soil moisture predictions while optimizing sensor deployment and reducing maintenance costs, thereby enhancing the efficiency and effectiveness of the smart irrigation system. Our evaluations demonstrate significant improvements in the efficiency and cost-effectiveness of soil moisture monitoring networks. The cluster-based replacement of missing sensors provides up to 5.4% decrease in average error. The sequential sensor data collection as a robotic emulation shows 17.2% and 2.1% decrease in average error for circular and linear paths respectively.

arxiv情報

著者 Nasser Ghadiri,Bahman Javadi,Oliver Obst,Sebastian Pfautsch
発行日 2024-10-03 09:42:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: 68T40, cs.LG, cs.RO, I.2.9 | コメントする