Underwater Robotic Simulators Review for Autonomous System Development

要約

水中ロボットシステムの複雑さの増加により、海洋環境での知覚、計画、および制御タスクをサポートするように設計されたシミュレーションプラットフォームの急増が生じました。
ただし、最も適切な水中ロボットシミュレーター(URS)を選択することは、忠実度、拡張性、およびタスクの適合性の大きなばらつきがあるため、依然として課題です。
このペーパーでは、5つの最先端のROS互換性のあるオープンソースURSS:Stonefish、Dave、Holooocean、Marus、およびUnav-Simの包括的なレビューと比較分析を提示します。
各シミュレーターは、センサーの忠実度、環境リアリズム、SIMからリアルの能力、研究への影響など、複数の基準で評価されます。
建築設計、センサーと物理のモデリング、タスク機能、研究への影響を越えてそれらを評価します。
さらに、SIMからリアルへの転送における継続的な課題について説明し、フィールドでの標準化とベンチマークの必要性を強調します。
私たちの調査結果は、実務家を効果的なシミュレーション環境を選択する際に導き、より堅牢で移転可能なURSSの将来の開発を通知することを目的としています。

要約(オリジナル)

The increasing complexity of underwater robotic systems has led to a surge in simulation platforms designed to support perception, planning, and control tasks in marine environments. However, selecting the most appropriate underwater robotic simulator (URS) remains a challenge due to wide variations in fidelity, extensibility, and task suitability. This paper presents a comprehensive review and comparative analysis of five state-of-the-art, ROS-compatible, open-source URSs: Stonefish, DAVE, HoloOcean, MARUS, and UNav-Sim. Each simulator is evaluated across multiple criteria including sensor fidelity, environmental realism, sim-to-real capabilities, and research impact. We evaluate them across architectural design, sensor and physics modeling, task capabilities, and research impact. Additionally, we discuss ongoing challenges in sim-to-real transfer and highlight the need for standardization and benchmarking in the field. Our findings aim to guide practitioners in selecting effective simulation environments and inform future development of more robust and transferable URSs.

arxiv情報

著者 Sara Aldhaheri,Yang Hu,Yongchang Xie,Peng Wu,Dimitrios Kanoulas,Yuanchang Liu
発行日 2025-04-08 17:43:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Underwater Robotic Simulators Review for Autonomous System Development はコメントを受け付けていません

The Art of Beating the Odds with Predictor-Guided Random Design Space Exploration

要約

この研究では、MIGベースの合成におけるランダム探査を通じて、組み合わせのデジタル回路を改善するための革新的な方法を紹介します。
高品質のサーキットは、パフォーマンス、パワー、コストに不可欠であり、これを積極的な研究の重要な分野にしています。
私たちのアプローチには、次の状態の予測と反復選択が組み込まれ、合成プロセスが大幅に加速します。
この新しい方法は、最大の合成スピードアップと最大20.94%のMIG最小化を実現し、最先端の技術と比較してEPFL組み合わせベンチマークスイートで最小化します。
さらに、さまざまな予測モデルを調査し、予測精度の向上が結果やスピードアップの合成品質の同等の増加を保証しないことを示し、ランダム性が望ましい要因であることを観察します。

要約(オリジナル)

This work introduces an innovative method for improving combinational digital circuits through random exploration in MIG-based synthesis. High-quality circuits are crucial for performance, power, and cost, making this a critical area of active research. Our approach incorporates next-state prediction and iterative selection, significantly accelerating the synthesis process. This novel method achieves up to 14x synthesis speedup and up to 20.94% better MIG minimization on the EPFL Combinational Benchmark Suite compared to state-of-the-art techniques. We further explore various predictor models and show that increased prediction accuracy does not guarantee an equivalent increase in synthesis quality of results or speedup, observing that randomness remains a desirable factor.

arxiv情報

著者 Felix Arnold,Maxence Bouvier,Ryan Amaudruz,Renzo Andri,Lukas Cavigelli
発行日 2025-04-08 14:52:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AR, cs.LG | The Art of Beating the Odds with Predictor-Guided Random Design Space Exploration はコメントを受け付けていません

Leveraging Axis-Aligned Subspaces for High-Dimensional Bayesian Optimization with Group Testing

要約

Bayesian Optimization(BO)は、高価な断というブラックボックス関数を最適化するための効果的な方法です。
多数のパラメーターの選択肢とモデルに適合するために必要なデータポイントの潜在的に多くのデータポイントが多数あるため、高次元の問題は特に困難ですが、問題が仮定を単純化する場合、この制限に対処できます。
軸に合わせた部分空間アプローチは、目的に大きな影響を与えるディメンションがほとんどないため、高次元BOの動機付けのいくつかのアルゴリズムがあります。
ただし、この仮定の妥当性はめったに検証されず、その仮定がその完全な範囲で悪用されることはめったにありません。
これらのドメインでの効率的な最適化を促進するためのアクティブ変数を識別するためのグループテスト(GT)アプローチを提案します。
提案されたアルゴリズムであるベイジアン最適化(GTBO)のグループテストは、最初に、変数のグループが体系的に選択され、目的に影響を与えるかどうかについてテストされ、アクティブな寸法が特定されると終了するテストフェーズを実行します。
そのために、確立されたGT理論を連続ドメイン上の関数に拡張します。
第2フェーズでは、GTBOはアクティブな寸法をより重要にすることにより、最適化をガイドします。
軸に並べられた部分空間仮定を活用することにより、GTBOは、軸に合わせたサブスペースの仮定を満たすベンチマーク上の最先端のメソッドを上回り、解釈可能性を向上させます。

要約(オリジナル)

Bayesian optimization (BO ) is an effective method for optimizing expensive-to-evaluate black-box functions. While high-dimensional problems can be particularly challenging, due to the multitude of parameter choices and the potentially high number of data points required to fit the model, this limitation can be addressed if the problem satisfies simplifying assumptions. Axis-aligned subspace approaches, where few dimensions have a significant impact on the objective, motivated several algorithms for high-dimensional BO . However, the validity of this assumption is rarely verified, and the assumption is rarely exploited to its full extent. We propose a group testing ( GT) approach to identify active variables to facilitate efficient optimization in these domains. The proposed algorithm, Group Testing Bayesian Optimization (GTBO), first runs a testing phase where groups of variables are systematically selected and tested on whether they influence the objective, then terminates once active dimensions are identified. To that end, we extend the well-established GT theory to functions over continuous domains. In the second phase, GTBO guides optimization by placing more importance on the active dimensions. By leveraging the axis-aligned subspace assumption, GTBO outperforms state-of-the-art methods on benchmarks satisfying the assumption of axis-aligned subspaces, while offering improved interpretability.

arxiv情報

著者 Erik Hellsten,Carl Hvarfner,Leonard Papenmeier,Luigi Nardi
発行日 2025-04-08 15:00:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML | Leveraging Axis-Aligned Subspaces for High-Dimensional Bayesian Optimization with Group Testing はコメントを受け付けていません

When does compositional structure yield compositional generalization? A kernel theory

要約

構成一般化(おなじみのコンポーネントの新しい組み合わせに正しく対応する能力)は、インテリジェントな行動の礎石であると考えられています。
構造的に構造化された(例:disentangled)表現は、この能力をサポートしています。
ただし、組成一般化の出現に十分な条件は不明のままです。
このギャップに対処するために、固定された構造的に構造化された表現を持つカーネルモデルの組成一般化の理論を提示します。
これにより、一般化に対するデータ統計のトレーニングの影響を特徴付けるための扱いやすいフレームワークが提供されます。
これらのモデルは、トレーニング中に見られるコンポーネントの各組み合わせに値を割り当てる関数に限定されており、これらの値(「結合ごとの添加剤」)を要約することがわかります。
これは、構成的に構造化されたカーネルモデルのセットに基本的な制限を課します。
彼らが原則として学ぶことができる組成タスクでさえ、トレーニングデータのバイアスから生じる構成一般化(記憶漏れとショートカットバイアス)の新しい故障モードを特定します。
最後に、私たちの理論を経験的に検証し、同様に構造化されたデータを持つ一連の構成タスクで訓練された深いニューラルネットワーク(畳み込みネットワーク、残留ネットワーク、視覚変圧器)の動作をキャプチャすることを示します。
最終的に、この作業では、トレーニングデータの統計構造が構成の一般化にどのように影響するかを調べ、深い学習モデルの故障モードを特定して修正する方法に影響を与えます。

要約(オリジナル)

Compositional generalization (the ability to respond correctly to novel combinations of familiar components) is thought to be a cornerstone of intelligent behavior. Compositionally structured (e.g. disentangled) representations support this ability; however, the conditions under which they are sufficient for the emergence of compositional generalization remain unclear. To address this gap, we present a theory of compositional generalization in kernel models with fixed, compositionally structured representations. This provides a tractable framework for characterizing the impact of training data statistics on generalization. We find that these models are limited to functions that assign values to each combination of components seen during training, and then sum up these values (‘conjunction-wise additivity’). This imposes fundamental restrictions on the set of tasks compositionally structured kernel models can learn, in particular preventing them from transitively generalizing equivalence relations. Even for compositional tasks that they can learn in principle, we identify novel failure modes in compositional generalization (memorization leak and shortcut bias) that arise from biases in the training data. Finally, we empirically validate our theory, showing that it captures the behavior of deep neural networks (convolutional networks, residual networks, and Vision Transformers) trained on a set of compositional tasks with similarly structured data. Ultimately, this work examines how statistical structure in the training data can affect compositional generalization, with implications for how to identify and remedy failure modes in deep learning models.

arxiv情報

著者 Samuel Lippl,Kim Stachenfeld
発行日 2025-04-08 15:07:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, q-bio.NC | When does compositional structure yield compositional generalization? A kernel theory はコメントを受け付けていません

TabRep: a Simple and Effective Continuous Representation for Training Tabular Diffusion Models

要約

拡散モデルは、表形式データ生成の主要な生成モデルです。
ただし、統一されたデータ表現と統一されたデータ表現の下で、モデリングの難問に直面しています。
前者は、1つのモデルで表形式データのすべてのマルチモーダル分布を共同でモデル化するという課題に遭遇します。
後者は、すべての機能の単一の表現を学習することでこれを軽減しますが、現在、ヒューリスティックを除いてまばらな下位エンコードを活用し、追加の計算コストを必要とします。
この作業では、統一された連続表現で訓練された表形式の拡散アーキテクチャであるTabrepを提示することにより、後者に対処します。
表現の設計を動機付けるために、データマニホールドが拡散モデルにどのように影響するかについての幾何学的な洞察を提供します。
私たちの表現の重要な属性は、その密度、名目上の特徴に十分な分離性を提供する柔軟性、および固有の関係を維持する能力で構成されています。
最終的に、Tabrepは、連続データマニホールドの下で表形式拡散モデルをトレーニングするためのシンプルで効果的なアプローチを提供します。
私たちの結果は、Tabrepが幅広い評価スイートで優れたパフォーマンスを達成することを示しています。
プライバシーを維持し、計算上効率を残している間、元のデータセットの下流の品質を超える表形式データを合成する最初のものです。

要約(オリジナル)

Diffusion models have been the predominant generative model for tabular data generation. However, they face the conundrum of modeling under a separate versus a unified data representation. The former encounters the challenge of jointly modeling all multi-modal distributions of tabular data in one model. While the latter alleviates this by learning a single representation for all features, it currently leverages sparse suboptimal encoding heuristics and necessitates additional computation costs. In this work, we address the latter by presenting TabRep, a tabular diffusion architecture trained with a unified continuous representation. To motivate the design of our representation, we provide geometric insights into how the data manifold affects diffusion models. The key attributes of our representation are composed of its density, flexibility to provide ample separability for nominal features, and ability to preserve intrinsic relationships. Ultimately, TabRep provides a simple yet effective approach for training tabular diffusion models under a continuous data manifold. Our results showcase that TabRep achieves superior performance across a broad suite of evaluations. It is the first to synthesize tabular data that exceeds the downstream quality of the original datasets while preserving privacy and remaining computationally efficient.

arxiv情報

著者 Jacob Si,Zijing Ou,Mike Qu,Zhengrui Xiang,Yingzhen Li
発行日 2025-04-08 15:10:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | TabRep: a Simple and Effective Continuous Representation for Training Tabular Diffusion Models はコメントを受け付けていません

Robo-taxi Fleet Coordination at Scale via Reinforcement Learning

要約

一般的に自律的なモビリティオンデマンド(AMOD)システムとして知られているオンデマンド輸送サービスを提供するロボ税の艦隊は、汚染、エネルギー消費、都市の混雑の削減など、社会的利益に大きな約束を抱えています。
ただし、これらのシステムを大規模に調整することは重要な課題であり、既存の調整アルゴリズムがシステムの最大限の可能性を活用できないことが多いためです。
この作業では、数学的モデリングをデータ駆動型の手法と統合する新しい意思決定フレームワークを紹介します。
特に、強化学習のレンズを通じてAMOD調整の問題を提示し、グラフ表現学習、強化学習、および古典的な運用研究ツールの主な強みを活用するグラフネットワークベースのフレームワークを提案します。
多様なシミュレーションの忠実度とシナリオ全体の広範な評価は、アプローチの柔軟性を示しており、以前の方法と比較して優れたシステムパフォーマンス、計算効率、および一般化可能性を実現します。
最後に、この分野での研究努力を民主化する必要性に動機付けられ、アクセス可能なシミュレーションプラットフォームを提供し、方法論を比較するための標準化された検証プロセスを確立するように設計されたオープンソースコードベースとともに、ネットワークレベルの調整のための公開されたベンチマーク、データセット、およびシミュレーターをリリースします。
https://github.com/stanfordasl/rl4amodで利用可能なコード

要約(オリジナル)

Fleets of robo-taxis offering on-demand transportation services, commonly known as Autonomous Mobility-on-Demand (AMoD) systems, hold significant promise for societal benefits, such as reducing pollution, energy consumption, and urban congestion. However, orchestrating these systems at scale remains a critical challenge, with existing coordination algorithms often failing to exploit the systems’ full potential. This work introduces a novel decision-making framework that unites mathematical modeling with data-driven techniques. In particular, we present the AMoD coordination problem through the lens of reinforcement learning and propose a graph network-based framework that exploits the main strengths of graph representation learning, reinforcement learning, and classical operations research tools. Extensive evaluations across diverse simulation fidelities and scenarios demonstrate the flexibility of our approach, achieving superior system performance, computational efficiency, and generalizability compared to prior methods. Finally, motivated by the need to democratize research efforts in this area, we release publicly available benchmarks, datasets, and simulators for network-level coordination alongside an open-source codebase designed to provide accessible simulation platforms and establish a standardized validation process for comparing methodologies. Code available at: https://github.com/StanfordASL/RL4AMOD

arxiv情報

著者 Luigi Tresca,Carolin Schmidt,James Harrison,Filipe Rodrigues,Gioele Zardini,Daniele Gammelli,Marco Pavone
発行日 2025-04-08 15:19:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.SY, eess.SY | Robo-taxi Fleet Coordination at Scale via Reinforcement Learning はコメントを受け付けていません

Scalable Dynamic Mixture Model with Full Covariance for Probabilistic Traffic Forecasting

要約

ディープラーニングに基づく多変量および多段階のアヘッドトラフィック予測モデルは、通常、平均四角誤差(MSE)または平均絶対誤差(MAE)でシーケンスからシーケンスへの損失関数として訓練されており、単に誤差が独立した同一性ガウスまたはラプラキアの分布に従うことを仮定します。
ただし、このような仮定は、実際のトラフィック予測タスクに対して非現実的であることがよくあります。この場合、時空間予測の確率的分布は、センサーと予測視野の両方にわたって時間変化の方法で強い同時相関と非常に複雑です。
この論文では、ゼロ平均ガウス分布の動的混合物として、マトリックス変異エラープロセスの時変分布をモデル化します。
効率、柔軟性、およびスケーラビリティを実現するために、マトリックス正規分布を使用して各混合成分をパラメーター化し、混合重量を変化させ、時間の経過とともに予測可能にします。
提案された方法は、学習する追加のパラメーターのみを使用して、既存のディープラーニングフレームワークにシームレスに統合できます。
トラフィック速度予測タスクで提案された方法のパフォーマンスを評価し、この方法がモデルのパフォーマンスを改善するだけでなく、解釈可能な時空相関構造も提供することを発見します。

要約(オリジナル)

Deep learning-based multivariate and multistep-ahead traffic forecasting models are typically trained with the mean squared error (MSE) or mean absolute error (MAE) as the loss function in a sequence-to-sequence setting, simply assuming that the errors follow an independent and isotropic Gaussian or Laplacian distributions. However, such assumptions are often unrealistic for real-world traffic forecasting tasks, where the probabilistic distribution of spatiotemporal forecasting is very complex with strong concurrent correlations across both sensors and forecasting horizons in a time-varying manner. In this paper, we model the time-varying distribution for the matrix-variate error process as a dynamic mixture of zero-mean Gaussian distributions. To achieve efficiency, flexibility, and scalability, we parameterize each mixture component using a matrix normal distribution and allow the mixture weight to change and be predictable over time. The proposed method can be seamlessly integrated into existing deep-learning frameworks with only a few additional parameters to be learned. We evaluate the performance of the proposed method on a traffic speed forecasting task and find that our method not only improves model performance but also provides interpretable spatiotemporal correlation structures.

arxiv情報

著者 Seongjin Choi,Nicolas Saunier,Vincent Zhihao Zheng,Martin Trepanier,Lijun Sun
発行日 2025-04-08 15:19:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Scalable Dynamic Mixture Model with Full Covariance for Probabilistic Traffic Forecasting はコメントを受け付けていません

Accelerating Vehicle Routing via AI-Initialized Genetic Algorithms

要約

車両ルーティングの問題(VRP)は、旅行営業担当者の問題の延長であり、組み合わせの最適化における基本的なNPハードの課題です。
大規模にリアルタイムでVRPを解くことは、ラストマイル配信などの成長市場からインタラクティブロジスティクス計画などの新興使用ケースまで、多数のアプリケーションで重要になっています。
このようなアプリケーションには、同様の問題インスタンスを繰り返し解決しますが、現在の最新のソルバーは、以前の例を活用することなく、各インスタンスを独自に扱います。
以前のインスタンスで訓練された強化学習エージェントを使用して、初期ソリューションを迅速に生成する新しい最適化フレームワークを導入し、遺伝的アルゴリズムによってさらに最適化されます。
私たちのフレームワーク、補強学習初期化(EARLI)を備えた進化的アルゴリズムは、さまざまな時間スケールで現在の最先端のソルバーよりも一貫して優れています。
たとえば、Earliは、同じソリューション品質のために、現在のソルバーより10倍高速な500か所の車両ルーティングを処理し、リアルタイムやインタラクティブルーティングなどのアプリケーションを有効にします。
Earliは、以前に見えなかった都市の実際のeコマース配信データで実証されているように、新しいデータに一般化できます。
当社のハイブリッドフレームワークは、強化学習と遺伝的アルゴリズムを組み合わせた新しい方法を提示し、AIと最適化コミュニティの間の学際的なコラボレーションのために道を開き、多様なドメインのリアルタイムの最適化に向けています。

要約(オリジナル)

Vehicle Routing Problems (VRP) are an extension of the Traveling Salesperson Problem and are a fundamental NP-hard challenge in combinatorial optimization. Solving VRP in real-time at large scale has become critical in numerous applications, from growing markets like last-mile delivery to emerging use-cases like interactive logistics planning. Such applications involve solving similar problem instances repeatedly, yet current state-of-the-art solvers treat each instance on its own without leveraging previous examples. We introduce a novel optimization framework that uses a reinforcement learning agent – trained on prior instances – to quickly generate initial solutions, which are then further optimized by genetic algorithms. Our framework, Evolutionary Algorithm with Reinforcement Learning Initialization (EARLI), consistently outperforms current state-of-the-art solvers across various time scales. For example, EARLI handles vehicle routing with 500 locations within 1s, 10x faster than current solvers for the same solution quality, enabling applications like real-time and interactive routing. EARLI can generalize to new data, as demonstrated on real e-commerce delivery data of a previously unseen city. Our hybrid framework presents a new way to combine reinforcement learning and genetic algorithms, paving the road for closer interdisciplinary collaboration between AI and optimization communities towards real-time optimization in diverse domains.

arxiv情報

著者 Ido Greenberg,Piotr Sielski,Hugo Linsenmaier,Rajesh Gandham,Shie Mannor,Alex Fender,Gal Chechik,Eli Meirom
発行日 2025-04-08 15:21:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.NE | Accelerating Vehicle Routing via AI-Initialized Genetic Algorithms はコメントを受け付けていません

Avoiding Pitfalls for Privacy Accounting of Subsampled Mechanisms under Composition

要約

サブサンプリングされた差別的なプライベートメカニズムの構成のためのプライバシー保証を緊密に計算する問題を検討します。
最近のアルゴリズムは、プライバシーパラメーターを任意の精度に数値的に計算できますが、慎重に適用する必要があります。
私たちの主な貢献は、混乱の2つの一般的なポイントに対処することです。
第一に、一部のプライバシー会計士は、サブサンプリングされたメカニズムの構成のプライバシー保証が、非対応メカニズムのために最悪のデータセットを自己構成することによって決定されると想定しています。
これは一般的に真実ではないことを示します。
第二に、ポアソンサブサンプリングは、交換なしのサンプリングと比較して、同様のプライバシー保証があると想定されることがあります。
プライバシー保証は、実際には2つのサンプリングスキーム間で大きく異なる場合があることを示します。
特に、ポアソンサブサンプリングの場合は$ \ varepsilon \約1 $、$ \ varepsilon> 10 $を交換せずにサンプリングしても、ハイパーパラメーターの例を挙げます。
これは、DP-SGDに対して現実的に選択できるいくつかのパラメーターで発生します。

要約(オリジナル)

We consider the problem of computing tight privacy guarantees for the composition of subsampled differentially private mechanisms. Recent algorithms can numerically compute the privacy parameters to arbitrary precision but must be carefully applied. Our main contribution is to address two common points of confusion. First, some privacy accountants assume that the privacy guarantees for the composition of a subsampled mechanism are determined by self-composing the worst-case datasets for the uncomposed mechanism. We show that this is not true in general. Second, Poisson subsampling is sometimes assumed to have similar privacy guarantees compared to sampling without replacement. We show that the privacy guarantees may in fact differ significantly between the two sampling schemes. In particular, we give an example of hyperparameters that result in $\varepsilon \approx 1$ for Poisson subsampling and $\varepsilon > 10$ for sampling without replacement. This occurs for some parameters that could realistically be chosen for DP-SGD.

arxiv情報

著者 Christian Janos Lebeda,Matthew Regehr,Gautam Kamath,Thomas Steinke
発行日 2025-04-08 15:21:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.DS, cs.LG, stat.ML | Avoiding Pitfalls for Privacy Accounting of Subsampled Mechanisms under Composition はコメントを受け付けていません

Early Classification of Time Series: Taxonomy and Benchmark

要約

多くの状況では、研究された現象の測定値が連続的に提供され、そのクラスの予測は、時間が高すぎないが早すぎず、誤分類のコストを支払うリスクがないように、できるだけ早く早期に行う必要があります。
この問題は、時系列の場合に特に研究されており、時系列(ECTS)の早期分類として知られています。
それは増え続ける文学の主題でしたが、既存のさまざまな方法の相対的なメリットを比較するために、体系的で共有された評価プロトコルがまだ不足しています。
このドキュメントは、これらの方法を原則ベースの分類法に配置することから始まります。
評価を整理するための寸法を定義し、9つの最先端のARTSアルゴリズムを含むこれらの次元に沿った非常に広範な実験の結果を報告します。
さらに、これらおよびその他の実験は、既存のECTSアルゴリズムのほとんどが実装されているオープンソースライブラリを使用して実行できます(https://github.com/ml-edm/ml_edmを参照)。

要約(オリジナル)

In many situations, the measurements of a studied phenomenon are provided sequentially, and the prediction of its class needs to be made as early as possible so as not to incur too high a time penalty, but not too early and risk paying the cost of misclassification. This problem has been particularly studied in the case of time series, and is known as Early Classification of Time Series (ECTS). Although it has been the subject of a growing body of literature, there is still a lack of a systematic, shared evaluation protocol to compare the relative merits of the various existing methods. This document begins by situating these methods within a principle-based taxonomy. It defines dimensions for organizing their evaluation, and then reports the results of a very extensive set of experiments along these dimensions involving nine state-of-the art ECTS algorithms. In addition, these and other experiments can be carried out using an open-source library in which most of the existing ECTS algorithms have been implemented (see https://github.com/ML-EDM/ml_edm).

arxiv情報

著者 Aurélien Renault,Alexis Bondu,Antoine Cornuéjols,Vincent Lemaire
発行日 2025-04-08 15:37:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Early Classification of Time Series: Taxonomy and Benchmark はコメントを受け付けていません