LLM-Driven Personalized Answer Generation and Evaluation

要約

オンライン学習は、柔軟性とアクセシビリティにより急速な成長を経験しています。
個々の学習者のニーズに合わせたパーソナライズは、特にオンライン設定で学習体験を向上させるために重要です。
パーソナライズの重要な側面は、学習者に特定の質問にカスタマイズされた回答を提供することです。
したがって、このホワイトペーパーでは、学習者の質問に対するパーソナライズされた回答を生成するための大規模な言語モデル(LLM)の可能性を調査し、それによりエンゲージメントを高め、教育者のワークロードを減らします。
このコンテキストでLLMSの有効性を評価するために、言語学習とプログラミングという2つの異なる分野でstackexchangeプラットフォームを使用して包括的な研究を実施しました。
自動的に生成されたパーソナライズされた回答を検証するためのフレームワークとデータセットを開発しました。
その後、0ショット、1ショット、少ないショットシナリオなど、さまざまな戦略を使用してパーソナライズされた回答を生成しました。
生成された回答は、3つの方法の3つの方法を使用して評価されました。1。BERTSCORE、2。LLM評価、および3つの人間の評価。
私たちの調査結果は、LLMSに望ましい回答の例(学習者または同様の学習者から)を提供することで、個々の学習者のニーズに合わせて応答を調整するLLMの能力を大幅に向上させることができることを示しています。

要約(オリジナル)

Online learning has experienced rapid growth due to its flexibility and accessibility. Personalization, adapted to the needs of individual learners, is crucial for enhancing the learning experience, particularly in online settings. A key aspect of personalization is providing learners with answers customized to their specific questions. This paper therefore explores the potential of Large Language Models (LLMs) to generate personalized answers to learners’ questions, thereby enhancing engagement and reducing the workload on educators. To evaluate the effectiveness of LLMs in this context, we conducted a comprehensive study using the StackExchange platform in two distinct areas: language learning and programming. We developed a framework and a dataset for validating automatically generated personalized answers. Subsequently, we generated personalized answers using different strategies, including 0-shot, 1-shot, and few-shot scenarios. The generated answers were evaluated using three methods: 1. BERTScore, 2. LLM evaluation, and 3. human evaluation. Our findings indicated that providing LLMs with examples of desired answers (from the learner or similar learners) can significantly enhance the LLMs’ ability to tailor responses to individual learners’ needs.

arxiv情報

著者 Mohammadreza Molavi,Mohammadreza Tavakoli,Mohammad Moein,Abdolali Faraji,Gábor Kismihók
発行日 2025-06-12 15:46:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY | LLM-Driven Personalized Answer Generation and Evaluation はコメントを受け付けていません

Efficiency Robustness of Dynamic Deep Learning Systems

要約

ディープラーニングシステム(DLSS)は、モバイルデバイスやIoTデバイスなどのResourceConstraended環境を含むリアルタイムアプリケーションでますます展開されています。
効率の課題に対処するために、動的ディープラーニングシステム(DDLS)は、入力の複雑さに基づいて推論計算を適応させ、頭上を減らします。
この動的な動作により効率が向上しますが、このような動作は新しい攻撃表面を導入します。
特に、効率性攻撃は、これらの動的メカニズムを活用して、システムのパフォーマンスを低下させます。
このペーパーでは、DDLSSの効率性の堅牢性を体系的に調査し、効率攻撃の最初の包括的な分類法を提示します。
これらの攻撃を3つの動的な動作に基づいて分類します。(i)推論ごとの動的計算に対する攻撃、(ii)動的推論の反復に対する攻撃、および(iii)下流タスクの動的出力生産に対する攻撃。
詳細な評価を通じて、DDLSS効率をターゲットにする敵対的な戦略を分析し、これらのシステムを確保する上で重要な課題を特定します。
さらに、既存の防御メカニズムを調査し、ますます人気のある効率攻撃に対する制限と、将来の適応DDLSを確保するための新しい緩和戦略の必要性を実証します。

要約(オリジナル)

Deep Learning Systems (DLSs) are increasingly deployed in real-time applications, including those in resourceconstrained environments such as mobile and IoT devices. To address efficiency challenges, Dynamic Deep Learning Systems (DDLSs) adapt inference computation based on input complexity, reducing overhead. While this dynamic behavior improves efficiency, such behavior introduces new attack surfaces. In particular, efficiency adversarial attacks exploit these dynamic mechanisms to degrade system performance. This paper systematically explores efficiency robustness of DDLSs, presenting the first comprehensive taxonomy of efficiency attacks. We categorize these attacks based on three dynamic behaviors: (i) attacks on dynamic computations per inference, (ii) attacks on dynamic inference iterations, and (iii) attacks on dynamic output production for downstream tasks. Through an in-depth evaluation, we analyze adversarial strategies that target DDLSs efficiency and identify key challenges in securing these systems. In addition, we investigate existing defense mechanisms, demonstrating their limitations against increasingly popular efficiency attacks and the necessity for novel mitigation strategies to secure future adaptive DDLSs.

arxiv情報

著者 Ravishka Rathnasuriya,Tingxi Li,Zexin Xu,Zihe Song,Mirazul Haque,Simin Chen,Wei Yang
発行日 2025-06-12 15:49:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | Efficiency Robustness of Dynamic Deep Learning Systems はコメントを受け付けていません

Accelerating Diffusion Large Language Models with SlowFast: The Three Golden Principles

要約

拡散ベースの言語モデル(DLLM)は、並列トークンの生成を有効にし、推論潜時を大幅に削減することにより、従来の自己回帰LLMの有望な代替として浮上しています。
ただし、信頼性や半自動性のデコードなどのDLLMの既存のサンプリング戦略は、しばしば静的な動作に悩まされ、最適ではない効率と柔軟性が限られています。
このホワイトペーパーでは、探索的デコード段階と加速デコード段階を適応的に交代する新しい動的サンプリング戦略であるSlowfastサンプリングを提案します。
私たちの方法は、3つの黄金の原則に導かれます。確実性の原則、収束原理、およびポジショナル原則は、いつ、どこでトークンを自信を持って効率的に解読できるかを支配します。
さらに、戦略をDLLM-Cacheと統合して、冗長計算を削減します。
ベンチマークとモデル全体の広範な実験では、スローファーストサンプリングが最小限の精度低下で最大15.63 $ \ Times $ speedupを達成し、キャッシュと組み合わせた場合は最大34.22 $ \ Times $を達成することが示されています。
特に、私たちのアプローチは、スループットのLLAMA3 8Bのような強力な自己回帰ベースラインよりも優れており、適切に設計されたサンプリングが高速および高品質の生成のDLLMの最大限の可能性を解き放つことができることを示しています。

要約(オリジナル)

Diffusion-based language models (dLLMs) have emerged as a promising alternative to traditional autoregressive LLMs by enabling parallel token generation and significantly reducing inference latency. However, existing sampling strategies for dLLMs, such as confidence-based or semi-autoregressive decoding, often suffer from static behavior, leading to suboptimal efficiency and limited flexibility. In this paper, we propose SlowFast Sampling, a novel dynamic sampling strategy that adaptively alternates between exploratory and accelerated decoding stages. Our method is guided by three golden principles: certainty principle, convergence principle, and positional principle, which govern when and where tokens can be confidently and efficiently decoded. We further integrate our strategy with dLLM-Cache to reduce redundant computation. Extensive experiments across benchmarks and models show that SlowFast Sampling achieves up to 15.63$\times$ speedup on LLaDA with minimal accuracy drop, and up to 34.22$\times$ when combined with caching. Notably, our approach outperforms strong autoregressive baselines like LLaMA3 8B in throughput, demonstrating that well-designed sampling can unlock the full potential of dLLMs for fast and high-quality generation.

arxiv情報

著者 Qingyan Wei,Yaojie Zhang,Zhiyuan Liu,Dongrui Liu,Linfeng Zhang
発行日 2025-06-12 16:08:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG | Accelerating Diffusion Large Language Models with SlowFast: The Three Golden Principles はコメントを受け付けていません

A Study on Individual Spatiotemporal Activity Generation Method Using MCP-Enhanced Chain-of-Thought Large Language Models

要約

人間の空間的行動シミュレーションは、都市計画の研究にとって重要ですが、従来のルールベースおよび統計的アプローチは、高い計算コスト、限られた一般化可能性、およびスケーラビリティの低さに苦しんでいます。
大規模な言語モデル(LLM)は「世界のシミュレーター」として有望であることを示していますが、限られた空間認知、身体的制約理解の欠如、グループの均質化傾向を含む空間的な推論で課題に直面しています。
このペーパーでは、モデルコンテキストプロトコル(MCP)を使用して、チェーンオブ考え(COT)の推論を統合するフレームワークを紹介し、検証データパターンに対応する空間的行動をシミュレートするLLMS機能を強化します。
この方法論は、5段階の認知フレームワークを通じて、時間管理、空間ナビゲーション、環境認識、個人記憶、ソーシャルコラボレーション、および経験評価の6つの専門的なMCPツールカテゴリを介して、5段階の認知フレームワークを通じて人間のような進歩的推論を組み合わせています。
上海のルジャズイ地区での実験では、1,000の生成されたサンプルにわたってフレームワークの有効性が検証されています。
結果は、実際のモバイルシグナル伝達データと高い類似性を示し、異なるベースモデルで7.86〜8.36の生成品質スコアを達成します。
並列処理実験により、効率の改善が示され、2から12のプロセスにスケーリングすると、生成時間がサンプルあたり1.30から0.17分に減少します。
この作業は、COTの推論を都市行動モデリングのためにMCPと統合し、都市コンピューティングにおけるLLMSアプリケーションを進め、合成モビリティデータ生成のための実用的なアプローチを提供することに貢献しています。
このフレームワークは、スマートシティの計画、輸送予測、参加型の都市設計アプリケーションの基盤を提供します。

要約(オリジナル)

Human spatiotemporal behavior simulation is critical for urban planning research, yet traditional rule-based and statistical approaches suffer from high computational costs, limited generalizability, and poor scalability. While large language models (LLMs) show promise as ‘world simulators,’ they face challenges in spatiotemporal reasoning including limited spatial cognition, lack of physical constraint understanding, and group homogenization tendencies. This paper introduces a framework integrating chain-of-thought (CoT) reasoning with Model Context Protocol (MCP) to enhance LLMs’ capability in simulating spatiotemporal behaviors that correspond with validation data patterns. The methodology combines human-like progressive reasoning through a five-stage cognitive framework with comprehensive data processing via six specialized MCP tool categories: temporal management, spatial navigation, environmental perception, personal memory, social collaboration, and experience evaluation. Experiments in Shanghai’s Lujiazui district validate the framework’s effectiveness across 1,000 generated samples. Results demonstrate high similarity with real mobile signaling data, achieving generation quality scores of 7.86 to 8.36 across different base models. Parallel processing experiments show efficiency improvements, with generation times decreasing from 1.30 to 0.17 minutes per sample when scaling from 2 to 12 processes. This work contributes to integrating CoT reasoning with MCP for urban behavior modeling, advancing LLMs applications in urban computing and providing a practical approach for synthetic mobility data generation. The framework offers a foundation for smart city planning, transportation forecasting, and participatory urban design applications.

arxiv情報

著者 Yu Zhang,Yang Hu,De Wang
発行日 2025-06-12 16:14:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY | A Study on Individual Spatiotemporal Activity Generation Method Using MCP-Enhanced Chain-of-Thought Large Language Models はコメントを受け付けていません

Precise Zero-Shot Pointwise Ranking with LLMs through Post-Aggregated Global Context Information

要約

最近の進歩により、ゼロショットドキュメントランキングの大規模な言語モデル(LLMS)の力がうまく活用され、さまざまなプロンプト戦略が調査されています。
ペアワイズやリストワイズなどの比較アプローチは、高い効果を達成しますが、計算的に集中しているため、大規模なアプリケーションでは実用的ではありません。
スコアリングベースのポイントワイズアプローチは、各候補ドキュメントの関連性スコアを独立して同時に生成することにより、優れた効率を示します。
ただし、この独立性は、ドキュメント間の重要な比較洞察を無視しているため、一貫性のないスコアリングと最適ではないパフォーマンスが発生します。
この論文では、2つの重要なイノベーションを通じて効率を維持しながら、ポイントワイズメソッドの有効性を向上させることを目指しています。(1)各候補とアンカードキュメント間のグローバルな参照比較を組み込んだ新しいグローバルな比較ポイントワイズランキング(GCCP)戦略を提案して、コントラストの関連性スコアを生成します。
アンカードキュメントを、ドキュメント比較のためにグローバルなコンテキストをキャプチャすることにより、効果的な基準点として機能する擬似関連候補のクエリ中心の要約として戦略的に設計します。
(2)これらの対照的な関連性スコアは、既存のポイントワイズメソッドと効率的に凝集し、トレーニングなしの方法で重要なグローバルコンテキスト情報をシームレスに統合することができます(PAGC)。
TREC DLおよびBeirベンチマークでの広範な実験は、私たちのアプローチが同等の効率を維持しながら、以前のポイントワイズメソッドを大幅に上回ることを示しています。
また、私たちの方法は、実質的により多くの計算リソースを必要とする比較方法に対して競争力のあるパフォーマンスを達成します。
より多くの分析により、アンカー構築戦略の有効性がさらに検証されます。

要約(オリジナル)

Recent advancements have successfully harnessed the power of Large Language Models (LLMs) for zero-shot document ranking, exploring a variety of prompting strategies. Comparative approaches like pairwise and listwise achieve high effectiveness but are computationally intensive and thus less practical for larger-scale applications. Scoring-based pointwise approaches exhibit superior efficiency by independently and simultaneously generating the relevance scores for each candidate document. However, this independence ignores critical comparative insights between documents, resulting in inconsistent scoring and suboptimal performance. In this paper, we aim to improve the effectiveness of pointwise methods while preserving their efficiency through two key innovations: (1) We propose a novel Global-Consistent Comparative Pointwise Ranking (GCCP) strategy that incorporates global reference comparisons between each candidate and an anchor document to generate contrastive relevance scores. We strategically design the anchor document as a query-focused summary of pseudo-relevant candidates, which serves as an effective reference point by capturing the global context for document comparison. (2) These contrastive relevance scores can be efficiently Post-Aggregated with existing pointwise methods, seamlessly integrating essential Global Context information in a training-free manner (PAGC). Extensive experiments on the TREC DL and BEIR benchmark demonstrate that our approach significantly outperforms previous pointwise methods while maintaining comparable efficiency. Our method also achieves competitive performance against comparative methods that require substantially more computational resources. More analyses further validate the efficacy of our anchor construction strategy.

arxiv情報

著者 Kehan Long,Shasha Li,Chen Xu,Jintao Tang,Ting Wang
発行日 2025-06-12 16:20:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.IR | Precise Zero-Shot Pointwise Ranking with LLMs through Post-Aggregated Global Context Information はコメントを受け付けていません

Sample Complexity and Representation Ability of Test-time Scaling Paradigms

要約

テスト時間スケーリングパラダイムは、複雑なタスク上の大規模な言語モデル(LLMS)の機能を大幅に進めています。
経験的な成功にもかかわらず、自己整合性、ベスト$ n $、自己修正など、さまざまなテスト時間戦略のサンプル効率の理論的理解は限られたままです。
この作業では、最初に2つの繰り返しサンプリング戦略の間に分離結果を確立します。自己整合性には$ \ theta(1/\ delta^2)$サンプルが正しい答えを生成しますが、ベスト$ n $は$ \ theta(1/\ delta)$のみを必要とします。
次に、検証剤フィードバックを使用して、自己修正アプローチの表現力の結果を提示します。これにより、トランスはテスト時に専門家のプールでオンライン学習をシミュレートできます。
したがって、単一の変圧器アーキテクチャは、ユーザークエリに関連する特定のタスクの事前知識なしに複数のタスクを証明し、トランスの表現理論をシングルタスクからマルチタスク設定に拡張します。
最後に、理論的な結果を経験的に検証し、自己修正方法の実際的な有効性を実証します。

要約(オリジナル)

Test-time scaling paradigms have significantly advanced the capabilities of large language models (LLMs) on complex tasks. Despite their empirical success, theoretical understanding of the sample efficiency of various test-time strategies — such as self-consistency, best-of-$n$, and self-correction — remains limited. In this work, we first establish a separation result between two repeated sampling strategies: self-consistency requires $\Theta(1/\Delta^2)$ samples to produce the correct answer, while best-of-$n$ only needs $\Theta(1/\Delta)$, where $\Delta < 1$ denotes the probability gap between the correct and second most likely answers. Next, we present an expressiveness result for the self-correction approach with verifier feedback: it enables Transformers to simulate online learning over a pool of experts at test time. Therefore, a single Transformer architecture can provably solve multiple tasks without prior knowledge of the specific task associated with a user query, extending the representation theory of Transformers from single-task to multi-task settings. Finally, we empirically validate our theoretical results, demonstrating the practical effectiveness of self-correction methods.

arxiv情報

著者 Baihe Huang,Shanda Li,Tianhao Wu,Yiming Yang,Ameet Talwalkar,Kannan Ramchandran,Michael I. Jordan,Jiantao Jiao
発行日 2025-06-12 16:25:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ML | Sample Complexity and Representation Ability of Test-time Scaling Paradigms はコメントを受け付けていません

Multi-group Uncertainty Quantification for Long-form Text Generation

要約

過去の作品は、不確実性の定量化を大規模な言語モデル(LLM)出力にどのように適用できるかを示していますが、結果として生じる不確実性の保証がデータのサブグループ内にまだ保証されているかどうかの問題はまだ開いています。
私たちの研究では、LLMによって生成された長い形式のテキストを考えると、出力内(キャリブレーションを介して)内に含まれる個々のクレームのレベルと、出力全体(コンフォーマル予測を介して)の両方で不確実性を研究します。
この研究のテストベッドとして伝記生成を使用して、各世代の(たとえば、あるテキストが男性であるか女性を説明するかどうかなど)一連の(人口統計学的)属性を導き出して、そのような「サブグループ」のデータを形成します。
両方のタイプの不確実性の定量化の標準的な方法は、データセット全体で測定するときにうまく機能するが、特定のサブグループを調べるときにそのような保証が壊れることがある。
この問題を確立した後、不確実性の定量化のためのグループ条件付き方法(多目的および多等のコンフォーマル予測)を呼び出し、さまざまなアプローチで、追加のサブグループ情報が一貫してサブグループ内の校正とコンフォーマル予測を改善することを発見します(一方、データセット全体で決定的に保証を保証します)。
キャリブレーション、コンフォーマル予測、およびそのマルチグループのカウンターパートの問題は、長期のテキスト生成のコンテキストで広範囲に調査されていないため、これらの結果はこの設定のベンチマークを形成すると考えています。

要約(オリジナル)

While past works have shown how uncertainty quantification can be applied to large language model (LLM) outputs, the question of whether resulting uncertainty guarantees still hold within sub-groupings of data remains open. In our work, given some long-form text generated by an LLM, we study uncertainty at both the level of individual claims contained within the output (via calibration) and across the entire output itself (via conformal prediction). Using biography generation as a testbed for this study, we derive a set of (demographic) attributes (e.g., whether some text describes a man or woman) for each generation to form such ‘subgroups’ of data. We find that although canonical methods for both types of uncertainty quantification perform well when measuring across the entire dataset, such guarantees break down when examining particular subgroups. Having established this issue, we invoke group-conditional methods for uncertainty quantification — multicalibration and multivalid conformal prediction — and find that across a variety of approaches, additional subgroup information consistently improves calibration and conformal prediction within subgroups (while crucially retaining guarantees across the entire dataset). As the problems of calibration, conformal prediction, and their multi-group counterparts have not been extensively explored in the context of long-form text generation, we consider these results to form a benchmark for this setting.

arxiv情報

著者 Terrance Liu,Zhiwei Steven Wu
発行日 2025-06-12 16:27:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG | Multi-group Uncertainty Quantification for Long-form Text Generation はコメントを受け付けていません

A multi-scale loss formulation for learning a probabilistic model with proper score optimisation

要約

確率的機械学習の天気予報モデルをトレーニングするためのマルチスケール損失定式化の影響を評価します。
マルチスケールの損失は、欧州中距離天気予報(ECMWF)で開発された機械学習の気象予測モデルであるAIFS-CRPSでテストされています。
AIFS-CRPSは、ほぼ公正な連続ランク付けされた確率スコア(AFCRPS)を直接最適化することによりトレーニングされます。
マルチスケールの損失は、予測スキルに悪影響を与えることなく、小規模の変動をより良く制約します。
これにより、スケールアウェアモデルトレーニングにおける将来の作業のための有望な方向性が開かれます。

要約(オリジナル)

We assess the impact of a multi-scale loss formulation for training probabilistic machine-learned weather forecasting models. The multi-scale loss is tested in AIFS-CRPS, a machine-learned weather forecasting model developed at the European Centre for Medium-Range Weather Forecasts (ECMWF). AIFS-CRPS is trained by directly optimising the almost fair continuous ranked probability score (afCRPS). The multi-scale loss better constrains small scale variability without negatively impacting forecast skill. This opens up promising directions for future work in scale-aware model training.

arxiv情報

著者 Simon Lang,Martin Leutbecher,Pedro Maciel
発行日 2025-06-12 16:30:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, physics.ao-ph | A multi-scale loss formulation for learning a probabilistic model with proper score optimisation はコメントを受け付けていません

Content ARCs: Decentralized Content Rights in the Age of Generative AI

要約

Generative AI(Genai)の台頭は、クリエイティブな右sholdersとAI開発者の関心のバランスをとることについて、重要な議論を引き起こしました。
Genaiモデルは、著作権で保護された資料を含む広大なデータセットで訓練されているため、公正な補償と適切な帰属に関する質問がますます緊急になっています。
これらの課題に対処するために、このペーパーでは、コンテンツアーク(信頼性、権利、補償)と呼ばれるフレームワークを提案します。
起源と動的ライセンスのオープン標準をデータの帰属と分散化されたテクノロジーと組み合わせることにより、コンテンツアークは、AIトレーニングで作業を使用するために権利を管理し、作成者を補償するためのメカニズムを作成します。
コンテンツアーク内のAIデータライセンス分野でいくつかの初期の作品を特徴付け、エンドツーエンドフレームワークを完全に実装するための課題がどこに残っているかを特定します。

要約(オリジナル)

The rise of Generative AI (GenAI) has sparked significant debate over balancing the interests of creative rightsholders and AI developers. As GenAI models are trained on vast datasets that often include copyrighted material, questions around fair compensation and proper attribution have become increasingly urgent. To address these challenges, this paper proposes a framework called Content ARCs (Authenticity, Rights, Compensation). By combining open standards for provenance and dynamic licensing with data attribution, and decentralized technologies, Content ARCs create a mechanism for managing rights and compensating creators for using their work in AI training. We characterize several nascent works in the AI data licensing space within Content ARCs and identify where challenges remain to fully implement the end-to-end framework.

arxiv情報

著者 Kar Balan,Andrew Gilbert,John Collomosse
発行日 2025-06-12 16:32:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.DL, eess.IV | Content ARCs: Decentralized Content Rights in the Age of Generative AI はコメントを受け付けていません

Data-Driven Prediction of Dynamic Interactions Between Robot Appendage and Granular Material

要約

特定の長さのスケールでの粒状地形とのロボット運動相互作用に関する基本的な洞察を得るために、代替のデータ駆動型モデリングアプローチが提案され、採用されています。
このアプローチは、寸法削減(連続的に切り捨てられた高次の特異値分解)、代理モデリング(ガウスプロセス)、およびデータ同化手法(縮小粒子フィルター)の統合に基づいています。
このアプローチはオンラインで使用でき、高忠実度シミュレーションデータのオフラインコレクションと一連のスパース実験データのオフラインコレクションから取得されるオフラインデータに基づいています。
結果は、物理学ベースの高忠実度シミュレーションと比較して、提案されたデータ駆動型モデリングアプローチから計算時間の数桁短縮が得られることを示しています。
入力としてのシミュレーションデータのみを使用すると、データ駆動型の予測手法は、シミュレーションと同等の精度を持つ予測を生成できます。
シミュレーションデータとスパースの物理的実験測定の両方を入力として、その組み込みデータ同化手法を備えたデータ駆動型アプローチは、長期予測の高忠実度シミュレーションのみを上回る可能性があります。
さらに、データ駆動型モデリングアプローチは、物理学ベースのシミュレーションによって回復したスケーリング関係を最大の抵抗力のために再現できることも実証されています。
結果は、オンラインとオフラインの両方のフェーズで、未知の複雑な地形でのロボットナビゲーションと探索に役立つと予想されます。

要約(オリジナル)

An alternative data-driven modeling approach has been proposed and employed to gain fundamental insights into robot motion interaction with granular terrain at certain length scales. The approach is based on an integration of dimension reduction (Sequentially Truncated Higher-Order Singular Value Decomposition), surrogate modeling (Gaussian Process), and data assimilation techniques (Reduced Order Particle Filter). This approach can be used online and is based on offline data, obtained from the offline collection of high-fidelity simulation data and a set of sparse experimental data. The results have shown that orders of magnitude reduction in computational time can be obtained from the proposed data-driven modeling approach compared with physics-based high-fidelity simulations. With only simulation data as input, the data-driven prediction technique can generate predictions that have comparable accuracy as simulations. With both simulation data and sparse physical experimental measurement as input, the data-driven approach with its embedded data assimilation techniques has the potential in outperforming only high-fidelity simulations for the long-horizon predictions. In addition, it is demonstrated that the data-driven modeling approach can also reproduce the scaling relationship recovered by physics-based simulations for maximum resistive forces, which may indicate its general predictability beyond a case-by-case basis. The results are expected to help robot navigation and exploration in unknown and complex terrains during both online and offline phases.

arxiv情報

著者 Guanjin Wang,Xiangxue Zhao,Shapour Azarm,Balakumar Balachandran
発行日 2025-06-12 16:43:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.NA, cs.RO, math.NA | Data-Driven Prediction of Dynamic Interactions Between Robot Appendage and Granular Material はコメントを受け付けていません