VET: A Visual-Electronic Tactile System for Immersive Human-Machine Interaction

要約

ヒューマンマシン相互作用に深い没入感を追求するために、単一のインターフェイスでより次元的な触覚入力と出力を達成することが重要な研究焦点になりました。
この研究では、視覚エレクトロニック触覚(VET)システムを紹介します。これは、視覚ベースの触覚センサー(VBT)に基づいており、電気刺激フィードバックを統合して双方向の触覚コミュニケーションを可能にします。
画面印刷準備プロセスを使用して、電気刺激フィルムをVBTとシームレスに統合し、従来の方法からの干渉を排除するシステムフレームワークを提案および実装します。
VBTSはvisuotactileシグナルを介して多次元入力をキャプチャしますが、電気刺激フィードバックは神経経路を直接刺激し、視覚型情報の干渉を防ぎます。
VETシステムの可能性は、指の電気刺激感度ゾーンの実験、およびインタラクティブなゲームおよびロボットアームの操作のアプリケーションを通じて実証されています。
このシステムは、双方向の触覚相互作用とその幅広いアプリケーションの新しい進歩への道を開きます。

要約(オリジナル)

In the pursuit of deeper immersion in human-machine interaction, achieving higher-dimensional tactile input and output on a single interface has become a key research focus. This study introduces the Visual-Electronic Tactile (VET) System, which builds upon vision-based tactile sensors (VBTS) and integrates electrical stimulation feedback to enable bidirectional tactile communication. We propose and implement a system framework that seamlessly integrates an electrical stimulation film with VBTS using a screen-printing preparation process, eliminating interference from traditional methods. While VBTS captures multi-dimensional input through visuotactile signals, electrical stimulation feedback directly stimulates neural pathways, preventing interference with visuotactile information. The potential of the VET system is demonstrated through experiments on finger electrical stimulation sensitivity zones, as well as applications in interactive gaming and robotic arm teleoperation. This system paves the way for new advancements in bidirectional tactile interaction and its broader applications.

arxiv情報

著者 Cong Zhang,Yisheng Yang,Shilong Mu,Chuqiao Lyu,Shoujie Li,Xinyue Chai,Wenbo Ding
発行日 2025-04-01 06:58:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | VET: A Visual-Electronic Tactile System for Immersive Human-Machine Interaction はコメントを受け付けていません

Did ChatGPT or Copilot use alter the style of internet news headlines? A time series regression analysis

要約

ChatGptやCopilotなどの高度な大手言語モデル(LLM)のリリースは、テキストの作成方法を変更し、Webで見つけたコンテンツに影響を与える可能性があります。
この研究では、これら2つの人気のあるLLMSのリリースが、世界中のニュースWebサイトの見出しとリンクのライティングスタイルの変更と一致したかどうかを調査しました。
4億5100万人の見出し/リンクのデータセットで、各テキストに対して175のNLP機能が取得されました。
175のNLP機能のそれぞれに中断された時系列分析が適用され、ChatGPTおよび/またはCopilotのリリース日後に統計的に有意な持続的な変化があったかどうかを評価しました。
ChatGpt/Copilotのリリース後、合計44の機能が持続的な変化を持たないように見えました。
合計91のその他の機能は、ChatGPTおよび/またはCopilotで大きな変化を示しましたが、以前のコントロールLLMリリース日(GPT-1/2/3、Gopher)での重要性は考慮からそれらを削除しました。
この最初の分析は、これらの言語モデルが、いくつかのNLP測定のみに関して、個々のニュースヘッドライン/リンクのスタイルに限られた影響を与えた可能性があることを示唆しています。

要約(オリジナル)

The release of advanced Large Language Models (LLMs) such as ChatGPT and Copilot is changing the way text is created and may influence the content that we find on the web. This study investigated whether the release of these two popular LLMs coincided with a change in writing style in headlines and links on worldwide news websites. 175 NLP features were obtained for each text in a dataset of 451 million headlines/links. An interrupted time series analysis was applied for each of the 175 NLP features to evaluate whether there were any statistically significant sustained changes after the release dates of ChatGPT and/or Copilot. There were a total of 44 features that did not appear to have any significant sustained change after the release of ChatGPT/Copilot. A total of 91 other features did show significant change with ChatGPT and/or Copilot although significance with earlier control LLM release dates (GPT-1/2/3, Gopher) removed them from consideration. This initial analysis suggests these language models may have had a limited impact on the style of individual news headlines/links, with respect to only some NLP measures.

arxiv情報

著者 Chris Brogly,Connor McElroy
発行日 2025-04-01 06:56:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.SI | Did ChatGPT or Copilot use alter the style of internet news headlines? A time series regression analysis はコメントを受け付けていません

You Cannot Feed Two Birds with One Score: the Accuracy-Naturalness Tradeoff in Translation

要約

翻訳の目標は、人間であろうと機械によるものであろうと、ソース言語でいくつかのテキストが与えられ、同時にターゲット言語でテキストを作成します。
ただし、機械翻訳コミュニティの研究者は通常、セマンティックの精度と出力の自然性を同時にキャプチャすることを目的とした単一スコアを使用して、翻訳を評価します。
この論文では、情報理論の最近の進歩に基づいて、このようなシングルスコアの要約がシステムの真のパフォーマンスの完全な画像を提供しないことを示すことを数学的に証明し、経験的に実証します。
具体的には、正確性と自然性の間にトレードオフが存在することを証明し、WMT24共有タスクへの提出を評価することによりそれを実証します。
私たちの調査結果は、特定の精度メトリック(BLEUなど)の翻訳システムを最適化することでシステムの自然さを改善する一方で、メトリックに「過剰適合」するという観察など、よく知られている経験的現象を説明するのに役立ちます。
したがって、翻訳の評価方法の変更を提唱します。単一の数値を使用してシステムを比較するのではなく、精度の自然性平面で比較する必要があります。

要約(オリジナル)

The goal of translation, be it by human or by machine, is, given some text in a source language, to produce text in a target language that simultaneously 1) preserves the meaning of the source text and 2) achieves natural expression in the target language. However, researchers in the machine translation community usually assess translations using a single score intended to capture semantic accuracy and the naturalness of the output simultaneously. In this paper, we build on recent advances in information theory to mathematically prove and empirically demonstrate that such single-score summaries do not and cannot give the complete picture of a system’s true performance. Concretely, we prove that a tradeoff exists between accuracy and naturalness and demonstrate it by evaluating the submissions to the WMT24 shared task. Our findings help explain well-known empirical phenomena, such as the observation that optimizing translation systems for a specific accuracy metric (like BLEU) initially improves the system’s naturalness, while “overfitting” the system to the metric can significantly degrade its naturalness. Thus, we advocate for a change in how translations are evaluated: rather than comparing systems using a single number, they should be compared on an accuracy-naturalness plane.

arxiv情報

著者 Gergely Flamich,David Vilar,Jan-Thorsten Peter,Markus Freitag
発行日 2025-04-01 08:31:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | You Cannot Feed Two Birds with One Score: the Accuracy-Naturalness Tradeoff in Translation はコメントを受け付けていません

Evaluating machine learning models for predicting pesticides toxicity to honey bees

要約

小分子は、生物医学、環境、および農薬のドメインで重要な役割を果たし、それぞれに異なる物理化学的要件と成功基準を備えています。
生物医学的研究は、広範なデータセットと確立されたベンチマークから利益を得ていますが、特に種固有の毒性に関しては、農薬データが依然として不足しています。
この研究は、生態学的に重要な花粉媒介者であるミツバチ(Apis mellifera)に対する実験的に検証された化学毒性の最も包括的なデータセットであるApistoxに焦点を当てています。
分子指紋、グラフカーネル、グラフニューラルネットワーク、および前提条件モデルなど、多様な機械学習アプローチを使用してApistoxを評価します。
Moleculenetベンチマークからの薬用データセットとの比較分析は、Apistoxが異なる化学空間を表していることを明らかにしています。
Apistoxなどの非医学的データセットのパフォーマンス劣化は、生物医学データのみで訓練されている現在の最先端のアルゴリズムの一般化が限られていることを示しています。
私たちの研究は、より多様なデータセットと農薬の領域に向けられたターゲットモデル開発の必要性を強調しています。

要約(オリジナル)

Small molecules play a critical role in the biomedical, environmental, and agrochemical domains, each with distinct physicochemical requirements and success criteria. Although biomedical research benefits from extensive datasets and established benchmarks, agrochemical data remain scarce, particularly with respect to species-specific toxicity. This work focuses on ApisTox, the most comprehensive dataset of experimentally validated chemical toxicity to the honey bee (Apis mellifera), an ecologically vital pollinator. We evaluate ApisTox using a diverse suite of machine learning approaches, including molecular fingerprints, graph kernels, and graph neural networks, as well as pretrained models. Comparative analysis with medicinal datasets from the MoleculeNet benchmark reveals that ApisTox represents a distinct chemical space. Performance degradation on non-medicinal datasets, such as ApisTox, demonstrates their limited generalizability of current state-of-the-art algorithms trained solely on biomedical data. Our study highlights the need for more diverse datasets and for targeted model development geared toward the agrochemical domain.

arxiv情報

著者 Jakub Adamczyk,Jakub Poziemski,Pawel Siedlecki
発行日 2025-04-01 07:57:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | Evaluating machine learning models for predicting pesticides toxicity to honey bees はコメントを受け付けていません

Visual Acoustic Fields

要約

オブジェクトはヒットすると異なる音を生成し、人間はその外観と材料特性に基づいてオブジェクトがどのように鳴るかを直感的に推測できます。
この直感に触発されて、3Dガウスのスプラッティング(3DG)を使用して3Dスペース内で音と視覚的な信号を打つ橋渡しするフレームワークである視覚的なアコースティックフィールドを提案します。
私たちのアプローチには、2つの重要なモジュールがあります。サウンド生成とサウンドローカリゼーションです。
サウンド生成モジュールは、条件付き拡散モデルを活用します。これにより、特徴の高級3DGからレンダリングされたマルチスケール機能が現実的なヒット音を生成します。
一方、サウンドローカリゼーションモジュールは、機能編成された3DGSで表される3Dシーンをクエリすることで、サウンドソースに基づいてヒット位置をローカライズできます。
このフレームワークをサポートするために、シーンレベルのビジュアルサウンドサンプルペアを収集し、キャプチャされた画像、インパクトロケーション、対応するサウンド間のアライメントを実現するための新しいパイプラインを紹介します。
私たちの知る限り、これは3Dコンテキストで視覚と音響信号を接続する最初のデータセットです。
データセットでの広範な実験は、もっともらしい衝撃音を生成し、衝撃ソースを正確にローカライズする際の視覚音響場の有効性を示しています。
プロジェクトページはhttps://yuelei0428.github.io/projects/visual-acoustic-fields/にあります。

要約(オリジナル)

Objects produce different sounds when hit, and humans can intuitively infer how an object might sound based on its appearance and material properties. Inspired by this intuition, we propose Visual Acoustic Fields, a framework that bridges hitting sounds and visual signals within a 3D space using 3D Gaussian Splatting (3DGS). Our approach features two key modules: sound generation and sound localization. The sound generation module leverages a conditional diffusion model, which takes multiscale features rendered from a feature-augmented 3DGS to generate realistic hitting sounds. Meanwhile, the sound localization module enables querying the 3D scene, represented by the feature-augmented 3DGS, to localize hitting positions based on the sound sources. To support this framework, we introduce a novel pipeline for collecting scene-level visual-sound sample pairs, achieving alignment between captured images, impact locations, and corresponding sounds. To the best of our knowledge, this is the first dataset to connect visual and acoustic signals in a 3D context. Extensive experiments on our dataset demonstrate the effectiveness of Visual Acoustic Fields in generating plausible impact sounds and accurately localizing impact sources. Our project page is at https://yuelei0428.github.io/projects/Visual-Acoustic-Fields/.

arxiv情報

著者 Yuelei Li,Hyunjin Kim,Fangneng Zhan,Ri-Zhao Qiu,Mazeyu Ji,Xiaojun Shan,Xueyan Zou,Paul Liang,Hanspeter Pfister,Xiaolong Wang
発行日 2025-04-01 03:16:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV | Visual Acoustic Fields はコメントを受け付けていません

Meta-Ori: monolithic meta-origami for nonlinear inflatable soft actuators

要約

柔らかい材料と細長い構造の非線形の機械的応答は、シーケンス、増幅された応答、ファスエネルギー放出など、ソフトロボットアクチュエーターの設計によるプログラム機能を意図的に活用しています。ただし、非線形アクチュエーターの典型的な設計 – 例えば
風船、逆膜、スプリング – 設計パラメーターのスペースと複雑な製造プロセスが限られており、より精巧な機能の達成を妨げます。
一方、機械的メタマテリアルには、非常に大きな設計パラメータースペースがあり、非線形動作の微調整を可能にします。
この作業では、メタマテリアルと折り紙(メタオリ)に基づいた非線形インフレータブルを、熱可塑性ポリウレタン(TPU)市販のファイルメントを使用して融合堆積モデリング(FDM)を介して完全に印刷できるモノリシック部分として製造するための新しいアプローチを提示します。
私たちのデザインは、円筒形のトポロジと非線形の機械的応答を備えたメタマテリアルシェルと、空気圧送信機として機能するKERSLING折り紙膨張可能なインフレータブルと組み合わせたもので構成されています。
視覚的なプログラミング言語Grasshopperで設計ツールを開発およびリリースして、メタオリをインタラクティブに設計しています。
メタシェルと折り紙の機械的応答、およびメタオリの膨張能力の非線形圧力容積曲線を特徴づけ、最後に、バイセグメントモノリシックメタオリソフトアクチュエータの作動シーケンスを実証します。

要約(オリジナル)

The nonlinear mechanical response of soft materials and slender structures is purposefully harnessed to program functions by design in soft robotic actuators, such as sequencing, amplified response, fast energy release, etc. However, typical designs of nonlinear actuators – e.g. balloons, inverted membranes, springs – have limited design parameters space and complex fabrication processes, hindering the achievement of more elaborated functions. Mechanical metamaterials, on the other hand, have very large design parameter spaces, which allow fine-tuning of nonlinear behaviours. In this work, we present a novel approach to fabricate nonlinear inflatables based on metamaterials and origami (Meta-Ori) as monolithic parts that can be fully 3D printed via Fused Deposition Modeling (FDM) using thermoplastic polyurethane (TPU) commercial filaments. Our design consists of a metamaterial shell with cylindrical topology and nonlinear mechanical response combined with a Kresling origami inflatable acting as a pneumatic transmitter. We develop and release a design tool in the visual programming language Grasshopper to interactively design our Meta-Ori. We characterize the mechanical response of the metashell and the origami, and the nonlinear pressure-volume curve of the Meta-Ori inflatable and, lastly, we demonstrate the actuation sequencing of a bi-segment monolithic Meta-Ori soft actuator.

arxiv情報

著者 Hugo de Souza Oliveira,Xin Li,Johannes Frey,Edoardo Milana
発行日 2025-03-30 09:24:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cond-mat.soft, cs.RO | Meta-Ori: monolithic meta-origami for nonlinear inflatable soft actuators はコメントを受け付けていません

Proprioceptive multistable mechanical metamaterial via soft capacitive sensors

要約

ソフトマシンからソフトロボットへの技術的移行は、必然的にソフトエレクトロニクスとセンサーの統合を通過します。
これにより、ロボットの具体化の柔らかさを維持しながら、フィードバック制御システムの確立が可能になります。
多数の機能を達成するために非線形応答を設計によって調整できるため、多数の機械的メタマテリアルはソフトマシンの優れたビルディングブロックです。
この作業では、状態の変化の固有受容センシングを可能にするために、多数の機械的メタマテリアルにソフト容量容量センサーの統合を提示します。
メタマテリアルは、4つの双安定ユニットセルの周期的な配置です。
各ユニットセルには、統合された容量性センサーがあります。
メタストラクチャとセンサーの両方は、柔らかい材料(TPU)で作られており、3D印刷されています。
予備的な結果は、非線形変形をキャプチャすることにより、センサーの静電容量変動がメタマテリアルの状態遷移にリンクできることを示しています。

要約(オリジナル)

The technological transition from soft machines to soft robots necessarily passes through the integration of soft electronics and sensors. This allows for the establishment of feedback control systems while preserving the softness of the robot embodiment. Multistable mechanical metamaterials are excellent building blocks of soft machines, as their nonlinear response can be tuned by design to accomplish several functions. In this work, we present the integration of soft capacitive sensors in a multistable mechanical metamaterial, to enable proprioceptive sensing of state changes. The metamaterial is a periodic arrangement of 4 bistable unit cells. Each unit cell has an integrated capacitive sensor. Both the metastructure and the sensors are made of soft materials (TPU) and are 3D printed. Our preliminary results show that the capacitance variation of the sensors can be linked to state transitions of the metamaterial, by capturing the nonlinear deformation.

arxiv情報

著者 Hugo de Souza Oliveira,Niloofar Saeedzadeh Khaanghah,Martijn Oetelmans,Niko Münzenrieder,Edoardo Milana
発行日 2025-03-30 10:38:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cond-mat.soft, cs.RO | Proprioceptive multistable mechanical metamaterial via soft capacitive sensors はコメントを受け付けていません

A Visual-Inertial Motion Prior SLAM for Dynamic Environments

要約

ほとんどが静的な仮定に基づいた視覚的inertial同時ローカリゼーションとマッピング(VI-SLAM)アルゴリズムは、ロボット工学、UAV、VR、自律運転などのフィールドで広く使用されています。
ほとんどのVISLAMシステムの動的ランドマークによって引き起こされるローカリゼーションリスクを克服するために、このペーパーでは、動的環境の前の慣性運動を使用してダイナミックランドマークを効果的に処理する堅牢な視覚慣性運動以前のスラムシステムが、程度の変化する慣性運動を効果的に処理することが提案されています。
具体的には、潜在的な動的ランドマークは、慣性運動前およびエピポーラの制約から得られるランドマークの最小投影エラーの確率モデルによって、特徴追跡段階で前処理されます。
その後、動的候補ランドマークの前の最小投影誤差を考慮して、バンドル調整(BA)残差が提案されます。
この残差は、カメラのポーズ、IMU状態、およびランドマークの位置を推定するために、スライディングウィンドウベースの非線形最適化プロセスに統合され、事前の動きから逸脱する動的候補ランドマークの影響を最小限に抑えます。
最後に、実験結果は、私たちの提案されたシステムが、動的ランドマークの影響を強く軽減することにより、ローカリゼーションの精度と時間コストの観点から最先端の方法よりも優れていることを示しています。

要約(オリジナル)

The Visual-Inertial Simultaneous Localization and Mapping (VI-SLAM) algorithms which are mostly based on static assumption are widely used in fields such as robotics, UAVs, VR, and autonomous driving. To overcome the localization risks caused by dynamic landmarks in most VI-SLAM systems, a robust visual-inertial motion prior SLAM system, named (IDY-VINS), is proposed in this paper which effectively handles dynamic landmarks using inertial motion prior for dynamic environments to varying degrees. Specifically, potential dynamic landmarks are preprocessed during the feature tracking phase by the probabilistic model of landmarks’ minimum projection errors which are obtained from inertial motion prior and epipolar constraint. Subsequently, a bundle adjustment (BA) residual is proposed considering the minimum projection error prior for dynamic candidate landmarks. This residual is integrated into a sliding window based nonlinear optimization process to estimate camera poses, IMU states and landmark positions while minimizing the impact of dynamic candidate landmarks that deviate from the motion prior. Finally, experimental results demonstrate that our proposed system outperforms state-of-the-art methods in terms of localization accuracy and time cost by robustly mitigating the influence of dynamic landmarks.

arxiv情報

著者 Weilong Sun,Yumin Zhang,Boren Wei
発行日 2025-03-30 13:18:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | A Visual-Inertial Motion Prior SLAM for Dynamic Environments はコメントを受け付けていません

VET: A Visual-Electronic Tactile System for Immersive Human-Machine Interaction

要約

ヒューマンマシン相互作用に深い没入感を追求するために、単一のインターフェイスでより次元的な触覚入力と出力を達成することが重要な研究焦点になりました。
この研究では、視覚エレクトロニック触覚(VET)システムを紹介します。これは、視覚ベースの触覚センサー(VBT)に基づいており、電気刺激フィードバックを統合して双方向の触覚コミュニケーションを可能にします。
画面印刷準備プロセスを使用して、電気刺激フィルムをVBTとシームレスに統合し、従来の方法からの干渉を排除するシステムフレームワークを提案および実装します。
VBTSはvisuotactileシグナルを介して多次元入力をキャプチャしますが、電気刺激フィードバックは神経経路を直接刺激し、視覚型情報の干渉を防ぎます。
VETシステムの可能性は、指の電気刺激感度ゾーンの実験、およびインタラクティブなゲームおよびロボットアームの操作のアプリケーションを通じて実証されています。
このシステムは、双方向の触覚相互作用とその幅広いアプリケーションの新しい進歩への道を開きます。

要約(オリジナル)

In the pursuit of deeper immersion in human-machine interaction, achieving higher-dimensional tactile input and output on a single interface has become a key research focus. This study introduces the Visual-Electronic Tactile (VET) System, which builds upon vision-based tactile sensors (VBTS) and integrates electrical stimulation feedback to enable bidirectional tactile communication. We propose and implement a system framework that seamlessly integrates an electrical stimulation film with VBTS using a screen-printing preparation process, eliminating interference from traditional methods. While VBTS captures multi-dimensional input through visuotactile signals, electrical stimulation feedback directly stimulates neural pathways, preventing interference with visuotactile information. The potential of the VET system is demonstrated through experiments on finger electrical stimulation sensitivity zones, as well as applications in interactive gaming and robotic arm teleoperation. This system paves the way for new advancements in bidirectional tactile interaction and its broader applications.

arxiv情報

著者 Cong Zhang,Yisheng Yangm,Shilong Mu,Chuqiao Lyu,Shoujie Li,Xinyue Chai,Wenbo Ding
発行日 2025-03-30 13:41:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | VET: A Visual-Electronic Tactile System for Immersive Human-Machine Interaction はコメントを受け付けていません

Design and Experimental Validation of an Autonomous USV for Sensor Fusion-Based Navigation in GNSS-Denied Environments

要約

このホワイトペーパーでは、GNSS環境でのセンサー融合ベースのナビゲーションアルゴリズムの実世界のテストのために構築された自律的な無人の表面車両であるMarvelの設計、開発、および実験的検証を紹介します。
Marvelは、高周波データ収集と実験学習のためのモジュール式でアクセス可能なプラットフォームを作成することを目的として、費用効率、携帯性、および海w性性の厳格な制約の下で開発されました。
電磁ログ、ドップラー速度ログ、慣性センサー、リアルタイムの運動学的GNSの位置決めを統合します。
Marvelは、冗長で同期されたセンサーを使用して、高度なナビゲーションとAI駆動型アルゴリズムのリアルタイムのin-situ検証を可能にします。
野外実験は、挑戦的な海の状態におけるシステムの安定性、操縦性、および適応性を示しています。
このプラットフォームは、実世界の海上制約の下でセンサー融合技術を評価するための手頃な価格のオープンエンドのツールを求める研究者に、新しいスケーラブルなアプローチを提供します。

要約(オリジナル)

This paper presents the design, development, and experimental validation of MARVEL, an autonomous unmanned surface vehicle built for real-world testing of sensor fusion-based navigation algorithms in GNSS-denied environments. MARVEL was developed under strict constraints of cost-efficiency, portability, and seaworthiness, with the goal of creating a modular, accessible platform for high-frequency data acquisition and experimental learning. It integrates electromagnetic logs, Doppler velocity logs, inertial sensors, and real-time kinematic GNSS positioning. MARVEL enables real-time, in-situ validation of advanced navigation and AI-driven algorithms using redundant, synchronized sensors. Field experiments demonstrate the system’s stability, maneuverability, and adaptability in challenging sea conditions. The platform offers a novel, scalable approach for researchers seeking affordable, open-ended tools to evaluate sensor fusion techniques under real-world maritime constraints.

arxiv情報

著者 Samuel Cohen-Salmon,Itzik Klein
発行日 2025-03-30 13:50:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.IR, cs.RO | Design and Experimental Validation of an Autonomous USV for Sensor Fusion-Based Navigation in GNSS-Denied Environments はコメントを受け付けていません