Compact LED-Based Displacement Sensing for Robot Fingers

要約

このホワイトペーパーでは、ロボットフィンガーに統合するために設計されたセンサーを紹介します。そこでは、外部接触によって誘導される変位に関する情報を提供できます。
私たちのセンサーは、LEDを使用して、透明なエラストマーで接続された2つのプレート間の変位を感知します。
力が指に塗られると、エラストマーが変位し、LED信号が変化します。
両方の光エミッターとしてLEDを使用すると、このコンテキストでレシーバーが高い感度が得られ、そのようなエミッタと受信機のペアが非常に小さな変位を検出できることを示します。
監視された学習モデルが生の信号から完全な力とトルクデータを予測する能力をテストし、指に適用される3方向の力の3方向に0.05から0.07 Nの間の平均誤差を取得することにより、センサーのスタンドアロン性能を特徴付けます。
私たちの方法では、増幅エレクトロニクス、低コストの製造、完全な手への容易な統合、高い過負荷せん断力と曲げトルクを備えた指サイズのパッケージを可能にし、完全な操作タスクへの将来の適用性を示唆しています。

要約(オリジナル)

In this paper, we introduce a sensor designed for integration in robot fingers, where it can provide information on the displacements induced by external contact. Our sensor uses LEDs to sense the displacement between two plates connected by a transparent elastomer; when a force is applied to the finger, the elastomer displaces and the LED signals change. We show that using LEDs as both light emitters an receivers in this context provides high sensitivity, allowing such an emitter and receiver pairs to detect very small displacements. We characterize the standalone performance of the sensor by testing the ability of a supervised learning model to predict complete force and torque data from its raw signals, and obtain a mean error between 0.05 and 0.07 N across the three directions of force applied to the finger. Our method allows for finger-size packaging with no amplification electronics, low cost manufacturing, easy integration into a complete hand, and high overload shear forces and bending torques, suggesting future applicability to complete manipulation tasks.

arxiv情報

著者 Amr El-Azizi,Sharfin Islam,Pedro Piacenza,Kai Jiang,Ioannis Kymissis,Matei Ciocarlie
発行日 2025-03-06 18:21:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Compact LED-Based Displacement Sensing for Robot Fingers はコメントを受け付けていません

Differentiable Composite Neural Signed Distance Fields for Robot Navigation in Dynamic Indoor Environments

要約

ニューラル署名距離フィールド(SDFS)は、ロボットナビゲーションタスクの衝突チェックと明確に定義された勾配を容易に取得するために、微分可能な環境表現を提供します。
ただし、シーンの進化に応じてニューラルSDFSを更新するには、退屈で時間がかかり、非効率的であるため、再トレーニングが必要であるため、動的環境での視野が限られているロボットナビゲーションには適していません。
この目的に向けて、オンボードRGB-Dセンサーのみを使用して屋内環境でロボットナビゲーションを解決するための神経SDFの構成フレームワークを提案します。
私たちのフレームワークは、衝突コストと衝突回避勾配のモデリングの補完的な方法を使用して、さまざまなモードを使用して、軌道最適化のためのデュアルモード手順を具体化します。
プライマリステージは、ロボットボディのSDFを照会し、障害物ポイントクラウドでゴールへのルートに沿ってスイープし、軌道の迅速なローカル最適化を可能にします。
セカンダリステージは、構成要素のSDF表現を調整および構成することにより、可視シーンのSDFを推進し、軌道最適化のためのより良い情報に基づいたコストと勾配を提供します。
デュアルモードの手順は、両方の段階のベストを組み合わせて、98%の成功率を達成し、ベースラインよりも14.4%高くなり、Igibson 2.0で均等化された計画時間があります。
また、現実世界の屋内シナリオに適応する際のその効果を示しています。

要約(オリジナル)

Neural Signed Distance Fields (SDFs) provide a differentiable environment representation to readily obtain collision checks and well-defined gradients for robot navigation tasks. However, updating neural SDFs as the scene evolves entails re-training, which is tedious, time consuming, and inefficient, making it unsuitable for robot navigation with limited field-of-view in dynamic environments. Towards this objective, we propose a compositional framework of neural SDFs to solve robot navigation in indoor environments using only an onboard RGB-D sensor. Our framework embodies a dual mode procedure for trajectory optimization, with different modes using complementary methods of modeling collision costs and collision avoidance gradients. The primary stage queries the robot body’s SDF, swept along the route to goal, at the obstacle point cloud, enabling swift local optimization of trajectories. The secondary stage infers the visible scene’s SDF by aligning and composing the SDF representations of its constituents, providing better informed costs and gradients for trajectory optimization. The dual mode procedure combines the best of both stages, achieving a success rate of 98%, 14.4% higher than baseline with comparable amortized plan time on iGibson 2.0. We also demonstrate its effectiveness in adapting to real-world indoor scenarios.

arxiv情報

著者 S. Talha Bukhari,Daniel Lawson,Ahmed H. Qureshi
発行日 2025-03-06 18:31:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Differentiable Composite Neural Signed Distance Fields for Robot Navigation in Dynamic Indoor Environments はコメントを受け付けていません

An Analysis Framework for Understanding Deep Neural Networks Based on Network Dynamics

要約

人工知能を進めるには、深い学習の根底にあるメカニズムのより深い理解が必要です。
ここでは、学習モデルのダイナミクスに基づいて、簡単な分析フレームワークを提案します。
ニューロンは、変換関数が順序を維持するかどうかに基づいて、2つのモードに分類されます。
この分類により、深いニューラルネットワーク(DNNS)が、ディープレイヤー全体で異なるモードのニューロンの割合を合理的に割り当てることにより、情報抽出を最大化する方法を明らかにします。
さらに、DNNSの一般化能力を特徴付けるために、サンプルベクトル空間と重量ベクトル空間の両方にトレーニングサンプルのアトラクション盆地を紹介します。
このフレームワークにより、最適な深さと幅の構成を特定し、「フラットミニマー効果」、「グローキング」、二重降下現象などの基本的なDNN行動の統一された説明を提供できます。
分析は、最大100層の深さのネットワークに拡張されます。

要約(オリジナル)

Advancing artificial intelligence demands a deeper understanding of the mechanisms underlying deep learning. Here, we propose a straightforward analysis framework based on the dynamics of learning models. Neurons are categorized into two modes based on whether their transformation functions preserve order. This categorization reveals how deep neural networks (DNNs) maximize information extraction by rationally allocating the proportion of neurons in different modes across deep layers. We further introduce the attraction basins of the training samples in both the sample vector space and the weight vector space to characterize the generalization ability of DNNs. This framework allows us to identify optimal depth and width configurations, providing a unified explanation for fundamental DNN behaviors such as the ‘flat minima effect,’ ‘grokking,’ and double descent phenomena. Our analysis extends to networks with depths up to 100 layers.

arxiv情報

著者 Yuchen Lin,Yong Zhang,Sihan Feng,Hong Zhao
発行日 2025-03-06 15:49:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, nlin.CD, stat.ML | An Analysis Framework for Understanding Deep Neural Networks Based on Network Dynamics はコメントを受け付けていません

Golden Ratio Weighting Prevents Model Collapse

要約

最近の研究では、モデル崩壊として知られる再帰的生成モデルトレーニングにおける興味深い現象が特定されました。ここでは、以前のモデルによって生成されたデータで訓練されたモデルは、深刻なパフォーマンス分解を示します。
この問題に対処し、より効果的なトレーニング戦略を開発することは、生成モデルの研究における中心的な課題となっています。
このホワイトペーパーでは、この現象を理論的には、新たに収集した実際のデータと前のトレーニングステップから合成データの組み合わせで生成モデルが繰り返しトレーニングされている新しいフレームワーク内で調査します。
実際のデータと合成データを統合するための最適なトレーニング戦略を開発するために、ガウス分布の推定や線形回帰など、さまざまなシナリオで加重トレーニングスキームのパフォーマンスを評価します。
最終モデルのパフォーマンスに対する合成データの混合の割合と重み付けスキームの影響を理論的に特徴付けます。
私たちの重要な発見は、異なる設定で、合成データの異なる割合での最適な重み付けスキームが漸近的に統一された式に従うことであり、合成データの活用と生成モデルのパフォーマンスとの基本的なトレードオフを明らかにすることです。
特に、場合によっては、実際のデータに割り当てられた最適な重みは、ゴールデン比の相互に対応しています。
最後に、広範なシミュレートされたデータセットと実際の表形式データセットで理論的結果を検証します。

要約(オリジナル)

Recent studies identified an intriguing phenomenon in recursive generative model training known as model collapse, where models trained on data generated by previous models exhibit severe performance degradation. Addressing this issue and developing more effective training strategies have become central challenges in generative model research. In this paper, we investigate this phenomenon theoretically within a novel framework, where generative models are iteratively trained on a combination of newly collected real data and synthetic data from the previous training step. To develop an optimal training strategy for integrating real and synthetic data, we evaluate the performance of a weighted training scheme in various scenarios, including Gaussian distribution estimation and linear regression. We theoretically characterize the impact of the mixing proportion and weighting scheme of synthetic data on the final model’s performance. Our key finding is that, across different settings, the optimal weighting scheme under different proportions of synthetic data asymptotically follows a unified expression, revealing a fundamental trade-off between leveraging synthetic data and generative model performance. Notably, in some cases, the optimal weight assigned to real data corresponds to the reciprocal of the golden ratio. Finally, we validate our theoretical results on extensive simulated datasets and a real tabular dataset.

arxiv情報

著者 Hengzhi He,Shirong Xu,Guang Cheng
発行日 2025-03-06 16:03:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML | Golden Ratio Weighting Prevents Model Collapse はコメントを受け付けていません

Meta Learning not to Learn: Robustly Informing Meta-Learning under Nuisance-Varying Families

要約

スプリアス予測因子と因果予測因子の両方が利用可能な設定では、追加の帰納的バイアスがない経験的リスク最小化(ERM)の目的で訓練された標準的なニューラルネットワークは、偽の特徴に依存する傾向があります。
その結果、ネットワークを一般化可能な仮説に導くために、追加の誘導バイアスを統合する必要があります。
多くの場合、これらの偽の機能は、さまざまな病院からの画像スキャンからの疾患の予後を推定するなど、関連するタスク間で共有され、一般化の課題がより困難になります。
これらの設定では、方法が適切な帰納的バイアスを統合して、迷惑な家族とタスクファミリの両方で一般化することができることが重要です。
この設定に動機付けられて、私たちは、陽性と否定的な帰納的バイアスの両方(学習し、何を学ばないか)の両方の存在下でメタ学習の新しい方法であるRime(堅牢に情報に基づいたメタ学習)を提示します。
最初に、知識統合で既存のアプローチが分布的に堅牢な目標のパフォーマンスが悪化する理由を示す理論的因果フレームワークを開発します。
次に、Rimeが両方のバイアスを同時に統合できることを示し、迷惑な家族の下で情報に基づいたメタラーニング設定で分布的に堅牢な目標の下で最先端のパフォーマンスに到達することができます。

要約(オリジナル)

In settings where both spurious and causal predictors are available, standard neural networks trained under the objective of empirical risk minimization (ERM) with no additional inductive biases tend to have a dependence on a spurious feature. As a result, it is necessary to integrate additional inductive biases in order to guide the network toward generalizable hypotheses. Often these spurious features are shared across related tasks, such as estimating disease prognoses from image scans coming from different hospitals, making the challenge of generalization more difficult. In these settings, it is important that methods are able to integrate the proper inductive biases to generalize across both nuisance-varying families as well as task families. Motivated by this setting, we present RIME (Robustly Informed Meta lEarning), a new method for meta learning under the presence of both positive and negative inductive biases (what to learn and what not to learn). We first develop a theoretical causal framework showing why existing approaches at knowledge integration can lead to worse performance on distributionally robust objectives. We then show that RIME is able to simultaneously integrate both biases, reaching state of the art performance under distributionally robust objectives in informed meta-learning settings under nuisance-varying families.

arxiv情報

著者 Louis McConnell
発行日 2025-03-06 16:05:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Meta Learning not to Learn: Robustly Informing Meta-Learning under Nuisance-Varying Families はコメントを受け付けていません

Data-augmented Learning of Geodesic Distances in Irregular Domains through Soner Boundary Conditions

要約

測地線距離は、ドメインのグローバルな幾何情報を効率的にエンコードするため、ロボット工学で基本的な役割を果たします。
最近の方法では、神経ネットワークを使用して、物理学に基づいたアプローチを通じてエイコン方程式を解くことにより、測地線距離を近似しています。
効果的ですが、これらのアプローチは、複雑な環境でのトレーニング中に不安定な収束に苦しむことがよくあります。
Soner境界条件を使用して、不規則なドメインの測地線距離を学習するフレームワークを提案し、トレーニングの安定性とソリューションの精度に対するデータ損失の影響を体系的に評価します。
私たちの実験は、データ損失を組み込むことで収束の堅牢性が大幅に改善され、トレーニングの不安定性が低下し、初期化に対する感度が低下することを示しています。
これらの調査結果は、ハイブリッドデータフィジックスアプローチが、まばらなデータを使用して学習ベースの測地線距離ソルバーの信頼性を効果的に向上させることができることを示唆しています。

要約(オリジナル)

Geodesic distances play a fundamental role in robotics, as they efficiently encode global geometric information of the domain. Recent methods use neural networks to approximate geodesic distances by solving the Eikonal equation through physics-informed approaches. While effective, these approaches often suffer from unstable convergence during training in complex environments. We propose a framework to learn geodesic distances in irregular domains by using the Soner boundary condition, and systematically evaluate the impact of data losses on training stability and solution accuracy. Our experiments demonstrate that incorporating data losses significantly improves convergence robustness, reducing training instabilities and sensitivity to initialization. These findings suggest that hybrid data-physics approaches can effectively enhance the reliability of learning-based geodesic distance solvers with sparse data.

arxiv情報

著者 Rafael I. Cabral Muchacho,Florian T. Pokorny
発行日 2025-03-06 16:13:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | Data-augmented Learning of Geodesic Distances in Irregular Domains through Soner Boundary Conditions はコメントを受け付けていません

Streaming Private Continual Counting via Binning

要約

プライバシーの差では、$ \ textit {継続的観察} $は、一度に1つの要素が明らかにされるデータセットの関数を継続的にリリースする問題を指します。
課題は、すべてのタイムステップにわたって統合された出力を差別的にプライベートに保ちながら、適切な近似を維持することです。
$ \ textit {continual counting} $の特殊な場合、バイナリ入力要素の合計を近似しようとしています。
この問題は最近、差別的に私的な確率的勾配降下の実装に関連しているため、かなりの注目を集めています。
$ \ textit {因子化メカニズム} $は継続的なカウントへの主要なアプローチですが、入力のサイズに比例するスペースが必要なため、$ \ textit {streaming} $設定では、このような最良のメカニズムはうまく機能しません。
このホワイトペーパーでは、$ \ textit {binning} $を介して低空間で因数分解メカニズムを近似する簡単なアプローチを提示します。ここでは、同様の値を持つ隣接するマトリックスエントリが、マトリックスベクトル製品をサブリン空間で維持できるように同一に変更されます。
私たちのアプローチには、エントリが対角線から離れて単調に減少している下部三角形のマトリックスのクラスに対して、証明可能なサブリンスペース保証があります。
スペースの使用が非常に低い場合でも、漸近的に最適な因数分解メカニズムのパフォーマンスを密接に一致させ、時には上回ることができることを経験的に示します。
最近、そして私たちの仕事とは独立して、Dvijotham et al。
また、ストリーミング設定で因数分解メカニズムを実装するアプローチも提案しています。
彼らの仕事はいくつかの点で私たちのものとは異なります:それは$ \ textit {toeplitz} $行列への因数分解のみに対処し、$ \ textit {maximum} $エラーのみを考慮し、私たちのビニングアプローチよりも汎用性の低い合理的な関数近似に基づく異なる手法を使用します。

要約(オリジナル)

In differential privacy, $\textit{continual observation}$ refers to problems in which we wish to continuously release a function of a dataset that is revealed one element at a time. The challenge is to maintain a good approximation while keeping the combined output over all time steps differentially private. In the special case of $\textit{continual counting}$ we seek to approximate a sum of binary input elements. This problem has received considerable attention lately, in part due to its relevance in implementations of differentially private stochastic gradient descent. $\textit{Factorization mechanisms}$ are the leading approach to continual counting, but the best such mechanisms do not work well in $\textit{streaming}$ settings since they require space proportional to the size of the input. In this paper, we present a simple approach to approximating factorization mechanisms in low space via $\textit{binning}$, where adjacent matrix entries with similar values are changed to be identical in such a way that a matrix-vector product can be maintained in sublinear space. Our approach has provable sublinear space guarantees for a class of lower triangular matrices whose entries are monotonically decreasing away from the diagonal. We show empirically that even with very low space usage we are able to closely match, and sometimes surpass, the performance of asymptotically optimal factorization mechanisms. Recently, and independently of our work, Dvijotham et al. have also suggested an approach to implementing factorization mechanisms in a streaming setting. Their work differs from ours in several respects: It only addresses factorization into $\textit{Toeplitz}$ matrices, only considers $\textit{maximum}$ error, and uses a different technique based on rational function approximation that seems less versatile than our binning approach.

arxiv情報

著者 Joel Daniel Andersson,Rasmus Pagh
発行日 2025-03-06 16:14:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.DS, cs.LG | Streaming Private Continual Counting via Binning はコメントを受け付けていません

PSDNorm: Test-Time Temporal Normalization for Deep Learning on EEG Signals

要約

分布シフトは、機械学習、特にさまざまな被験者、機関、記録装置にわたって収集されたEEG信号などの生物医学的アプリケーションにおいて大きな課題をもたらします。
既存の正規化層、バッチノーム、レイヤールム、およびInstancenormは、分布のシフトに対処するのに役立ちますが、時間信号に固有の時間的依存関係をキャプチャできません。
このホワイトペーパーでは、PSDNORMを提案します。PSDNORMは、Mongeマッピングと時間的コンテキストを活用して、ディープラーニングモデルの機能マップを正規化するレイヤーを提案します。
特に、提案された方法は、テスト時間ドメイン適応手法として動作し、追加のトレーニングなしで分布シフトに対処します。
U-Timeモデルを使用した10の睡眠ステージングデータセットの評価は、PSDNORMがトレーニング中に見られないデータセットでテスト時に最先端のパフォーマンスを達成し、最高のベースラインよりも4倍のデータ効率であることを示しています。
さらに、PSDNORMは堅牢性を大幅に改善し、20%の最も硬い被験者のF1スコアが著しく高いことを達成します。

要約(オリジナル)

Distribution shift poses a significant challenge in machine learning, particularly in biomedical applications such as EEG signals collected across different subjects, institutions, and recording devices. While existing normalization layers, Batch-Norm, LayerNorm and InstanceNorm, help address distribution shifts, they fail to capture the temporal dependencies inherent in temporal signals. In this paper, we propose PSDNorm, a layer that leverages Monge mapping and temporal context to normalize feature maps in deep learning models. Notably, the proposed method operates as a test-time domain adaptation technique, addressing distribution shifts without additional training. Evaluations on 10 sleep staging datasets using the U-Time model demonstrate that PSDNorm achieves state-of-the-art performance at test time on datasets not seen during training while being 4x more data-efficient than the best baseline. Additionally, PSDNorm provides a significant improvement in robustness, achieving markedly higher F1 scores for the 20% hardest subjects.

arxiv情報

著者 Théo Gnassounou,Antoine Collas,Rémi Flamary,Alexandre Gramfort
発行日 2025-03-06 16:20:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | PSDNorm: Test-Time Temporal Normalization for Deep Learning on EEG Signals はコメントを受け付けていません

Advancing Solutions for the Three-Body Problem Through Physics-Informed Neural Networks

要約

Isaac Newton irが最初に彼の作品「Philosophiae Naturalis Principia Mathematica」で定式化したため、3体問題の概念は、地球sun-moonシステム内の3つの天体の動きの研究として提示されました。
一般化された定義では、ニュートンの普遍的な魅力の法則の下で自由に相互作用する3つのポイント質量で構成される孤立したシステムの動きを予測しようとしています。
これは、天体間の多数の相互作用に類似していることが証明されているため、問題は天体力学の研究内で適用可能性を見つけます。
過去3世紀にわたって有名な物理学者がそれを解決しようとする多くの試みにもかかわらず、ほとんどの初期条件では本質的に混oticとした性質のために、一般的な閉じた形式のソリューションには到達していません。
現在の最先端のソリューションは、数値高精度統合または機械学習ベースの2つのアプローチに基づいています。
ニューラルネットワークのブレークスルーにもかかわらず、これらは重要な制限を示しています。
したがって、この作業では、物理学に基づいたニューラルネットワーク(PINN)を利用する新しい方法を提案します。
これらの深いニューラルネットワークは、通常の微分方程式(ODE)として表現できる以前のシステム知識を、正規化エージェントとして学習プロセスに組み込むことができます。
私たちの調査結果は、Pinnsが同等の予測品質を備えた現在の最先端の機械学習方法を上回ることを示しています。
予測の質が向上しているにもかかわらず、数値インテグレーターの使いやすさは、計算コストが非常に高いために苦しんでいます。
これらの調査結果は、PINNが、古典的なメカニズムの広範な知識を活用する3体問題の効果的かつ時間効率の良いオープンフォームソルバーであることを確認しています。

要約(オリジナル)

First formulated by Sir Isaac Newton in his work ‘Philosophiae Naturalis Principia Mathematica’, the concept of the Three-Body Problem was put forth as a study of the motion of the three celestial bodies within the Earth-Sun-Moon system. In a generalized definition, it seeks to predict the motion for an isolated system composed of three point masses freely interacting under Newton’s law of universal attraction. This proves to be analogous to a multitude of interactions between celestial bodies, and thus, the problem finds applicability within the studies of celestial mechanics. Despite numerous attempts by renowned physicists to solve it throughout the last three centuries, no general closed-form solutions have been reached due to its inherently chaotic nature for most initial conditions. Current state-of-the-art solutions are based on two approaches, either numerical high-precision integration or machine learning-based. Notwithstanding the breakthroughs of neural networks, these present a significant limitation, which is their ignorance of any prior knowledge of the chaotic systems presented. Thus, in this work, we propose a novel method that utilizes Physics-Informed Neural Networks (PINNs). These deep neural networks are able to incorporate any prior system knowledge expressible as an Ordinary Differential Equation (ODE) into their learning processes as a regularizing agent. Our findings showcase that PINNs surpass current state-of-the-art machine learning methods with comparable prediction quality. Despite a better prediction quality, the usability of numerical integrators suffers due to their prohibitively high computational cost. These findings confirm that PINNs are both effective and time-efficient open-form solvers of the Three-Body Problem that capitalize on the extensive knowledge we hold of classical mechanics.

arxiv情報

著者 Manuel Santos Pereira,Luís Tripa,Nélson Lima,Francisco Caldas,Cláudia Soares
発行日 2025-03-06 16:22:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | Advancing Solutions for the Three-Body Problem Through Physics-Informed Neural Networks はコメントを受け付けていません

Fusion of Various Optimization Based Feature Smoothing Methods for Wearable and Non-invasive Blood Glucose Estimation

要約

最近、ウェアラブルおよび非侵襲的な血糖推定アプローチが提案されています。
ただし、取得デバイスの信頼性、ノイズの存在、取得環境の変動により、得られた特徴と参照血糖値は非常に信頼できません。
この問題に対処するために、このペーパーでは、得られた特徴または参照血糖値を滑らかにするための多項式フィッティングアプローチを提案します。
まず、血糖値は、個々の最適化アプローチに基づいて推定されます。
第二に、推定された血糖値と、各最適化アプローチに基づく実際の血糖値との間の絶対差値が計算されます。
第三に、各最適化アプローチのこれらの絶対差分値は、昇順でソートされます。
第4に、ソートされた血糖値ごとに、最小絶対差値に対応する最適化方法が選択されます。
第五に、選択した各最適化法の蓄積確率が計算されます。
ポイントで選択した最適化方法の蓄積確率がしきい値よりも大きい場合、その時点でのこれら3つの選択された最適化方法の蓄積確率はゼロにリセットされます。
ソートされた血糖値の範囲は、対応する境界点が以前のリセットポイントとこのリセットポイントであると定義されます。
したがって、検証セットのすべてのソートされた参照血糖値の上記の手順を実行した後、ソートされた参照血糖値の領域とこれらの領域の対応する最適化方法が決定されます。
コンピューターの数値シミュレーション結果は、提案された方法が0.0930で平均絶対相対偏差(MARD)と94.1176%のクラークエラーグリッドのゾーンAに落ちるテストデータの割合を生成することを示しています。

要約(オリジナル)

Recently, the wearable and non-invasive blood glucose estimation approach has been proposed. However, due to the unreliability of the acquisition device, the presence of the noise and the variations of the acquisition environments, the obtained features and the reference blood glucose values are highly unreliable. To address this issue, this paper proposes a polynomial fitting approach to smooth the obtained features or the reference blood glucose values. First, the blood glucose values are estimated based on the individual optimization approaches. Second, the absolute difference values between the estimated blood glucose values and the actual blood glucose values based on each optimization approach are computed. Third, these absolute difference values for each optimization approach are sorted in the ascending order. Fourth, for each sorted blood glucose value, the optimization method corresponding to the minimum absolute difference value is selected. Fifth, the accumulate probability of each selected optimization method is computed. If the accumulate probability of any selected optimization method at a point is greater than a threshold value, then the accumulate probabilities of these three selected optimization methods at that point are reset to zero. A range of the sorted blood glucose values are defined as that with the corresponding boundaries points being the previous reset point and this reset point. Hence, after performing the above procedures for all the sorted reference blood glucose values in the validation set, the regions of the sorted reference blood glucose values and the corresponding optimization methods in these regions are determined. The computer numerical simulation results show that our proposed method yields the mean absolute relative deviation (MARD) at 0.0930 and the percentage of the test data falling in the zone A of the Clarke error grid at 94.1176%.

arxiv情報

著者 Yiting Wei,Bingo Wing-Kuen Ling,Danni Chen,Yuheng Dai,Qing Liu
発行日 2025-03-06 16:42:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, physics.med-ph | Fusion of Various Optimization Based Feature Smoothing Methods for Wearable and Non-invasive Blood Glucose Estimation はコメントを受け付けていません