VidStyleODE: Disentangled Video Editing via StyleGAN and NeuralODEs

要約

$ \ textbf {vidstyleode} $を提案します。
生成敵のネットワーク(GAN)によって学んだ潜在空間の効果的なトラバーサルは、画像編集における最近のブレークスルーの基礎となっています。
ただし、ビデオドメインへのこのような進歩の適用性は、GANSの潜在的な空間でビデオを表現および制御することの難しさによって妨げられています。
特に、ビデオはコンテンツ(つまり、外観)と、解き放たれて制御するために特別なメカニズムを必要とする複雑なモーションコンポーネントで構成されています。
これを達成するために、Vidstyleodeは、事前に訓練されたStylegan $ \ Mathcal {w} _+$スペースでビデオコンテンツをエンコードし、潜在的なODEコンポーネントから利益を得て、入力ビデオの時空ダイナミクスを要約します。
その後、私たちの小説の連続ビデオ生成プロセスは、2つを組み合わせて、さまざまなフレームレートで高品質で時間的に一貫したビデオを生成します。
提案された方法では、テキストガイド付きの外観操作、モーション操作、画像アニメーション、ビデオ補間と外挿などのさまざまなアプリケーションが実際のビデオでさまざまなアプリケーションを可能にすることを示しています。
プロジェクトWebサイト:https://cyberiada.github.io/vidstyleode

要約(オリジナル)

We propose $\textbf{VidStyleODE}$, a spatiotemporally continuous disentangled $\textbf{Vid}$eo representation based upon $\textbf{Style}$GAN and Neural-$\textbf{ODE}$s. Effective traversal of the latent space learned by Generative Adversarial Networks (GANs) has been the basis for recent breakthroughs in image editing. However, the applicability of such advancements to the video domain has been hindered by the difficulty of representing and controlling videos in the latent space of GANs. In particular, videos are composed of content (i.e., appearance) and complex motion components that require a special mechanism to disentangle and control. To achieve this, VidStyleODE encodes the video content in a pre-trained StyleGAN $\mathcal{W}_+$ space and benefits from a latent ODE component to summarize the spatiotemporal dynamics of the input video. Our novel continuous video generation process then combines the two to generate high-quality and temporally consistent videos with varying frame rates. We show that our proposed method enables a variety of applications on real videos: text-guided appearance manipulation, motion manipulation, image animation, and video interpolation and extrapolation. Project website: https://cyberiada.github.io/VidStyleODE

arxiv情報

著者 Moayed Haji Ali,Andrew Bond,Tolga Birdal,Duygu Ceylan,Levent Karacan,Erkut Erdem,Aykut Erdem
発行日 2025-02-20 18:56:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV | VidStyleODE: Disentangled Video Editing via StyleGAN and NeuralODEs はコメントを受け付けていません

Benchmarking Multimodal RAG through a Chart-based Document Question-Answering Generation Framework

要約

マルチモーダル検索の高等世代(MRAG)は、外部の知識を統合することにより、推論機能を強化します。
ただし、既存のベンチマークは、主に単純な画像テキストインタラクションに焦点を当てており、実際のアプリケーションで一般的なチャートなどの複雑な視覚形式を見落としています。
この作業では、この制限に対処するために、新しいタスクであるチャートベースのMRAGを紹介します。
高品質の評価サンプルを半自動的に生成するために、構造化されたキーポイント抽出、クロスモーダル検証、およびキーポイントベースの世代を通じて評価データを生成するフレームワークであるチャートベースのドキュメント質問質問生成(電荷)を提案します。
充電と専門家の検証を組み合わせることにより、チャートベースのMRAG評価の包括的なベンチマークであるチャートMRAGベンチを構築します。
私たちの評価は、現在のアプローチにおける3つの重要な制限を明らかにしています:(1)チャートベースのシナリオでの統一マルチモーダル埋め込み検索方法の闘争(2)地面の回復、最先端のMLLMは58.19%の正確性と73.87を達成します
%カバレッジスコア、および(3)MLLMSは、チャートベースのMRAG推論中に一貫したテキストオーバーモダリティバイアスを示しています。
充電とチャートMRAGベンチは、https://github.com/nomothings/chary.gitでリリースされます。

要約(オリジナル)

Multimodal Retrieval-Augmented Generation (MRAG) enhances reasoning capabilities by integrating external knowledge. However, existing benchmarks primarily focus on simple image-text interactions, overlooking complex visual formats like charts that are prevalent in real-world applications. In this work, we introduce a novel task, Chart-based MRAG, to address this limitation. To semi-automatically generate high-quality evaluation samples, we propose CHARt-based document question-answering GEneration (CHARGE), a framework that produces evaluation data through structured keypoint extraction, crossmodal verification, and keypoint-based generation. By combining CHARGE with expert validation, we construct Chart-MRAG Bench, a comprehensive benchmark for chart-based MRAG evaluation, featuring 4,738 question-answering pairs across 8 domains from real-world documents. Our evaluation reveals three critical limitations in current approaches: (1) unified multimodal embedding retrieval methods struggles in chart-based scenarios, (2) even with ground-truth retrieval, state-of-the-art MLLMs achieve only 58.19% Correctness and 73.87% Coverage scores, and (3) MLLMs demonstrate consistent text-over-visual modality bias during Chart-based MRAG reasoning. The CHARGE and Chart-MRAG Bench are released at https://github.com/Nomothings/CHARGE.git.

arxiv情報

著者 Yuming Yang,Jiang Zhong,Li Jin,Jingwang Huang,Jingpeng Gao,Qing Liu,Yang Bai,Jingyuan Zhang,Rui Jiang,Kaiwen Wei
発行日 2025-02-20 18:59:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV | Benchmarking Multimodal RAG through a Chart-based Document Question-Answering Generation Framework はコメントを受け付けていません

Time Travel: A Comprehensive Benchmark to Evaluate LMMs on Historical and Cultural Artifacts

要約

歴史的および文化的アーティファクトを理解するには、人間の専門知識と高度な計算技術が必要ですが、このプロセスは複雑で時間型のままです。
大規模なマルチモーダルモデルは有望なサポートを提供しますが、評価と改善には標準化されたベンチマークが必要です。
これに対処するために、10の主要な歴史的地域で266の異なる文化にまたがる10,250の専門家で検証されたサンプルのベンチマークであるTimeTravelを紹介します。
原稿、作品、碑文、考古学的発見のAI駆動型分析用に設計されたTimeTravelは、分類、解釈、および履歴理解におけるAIモデルの能力を評価するための構造化されたデータセットと堅牢な評価フレームワークを提供します。
AIを歴史的研究と統合することにより、TimeTravelは、歴史家、考古学者、研究者、文化観光客向けのAI駆動のツールを促進し、貴重な洞察を抽出しながら、テクノロジーが歴史的発見と文化遺産の保存に有意義に貢献することを保証します。
TimeTravelで現代のAIモデルを評価し、その強みを強調し、改善のための領域を特定します。
私たちの目標は、AIを文化遺産を維持するための信頼できるパートナーとして確立し、技術の進歩が歴史的発見に有意義に貢献するようにすることです。
私たちのコードは、\ url {https://github.com/mbzuai-oryx/timetravel}で入手できます。

要約(オリジナル)

Understanding historical and cultural artifacts demands human expertise and advanced computational techniques, yet the process remains complex and time-intensive. While large multimodal models offer promising support, their evaluation and improvement require a standardized benchmark. To address this, we introduce TimeTravel, a benchmark of 10,250 expert-verified samples spanning 266 distinct cultures across 10 major historical regions. Designed for AI-driven analysis of manuscripts, artworks, inscriptions, and archaeological discoveries, TimeTravel provides a structured dataset and robust evaluation framework to assess AI models’ capabilities in classification, interpretation, and historical comprehension. By integrating AI with historical research, TimeTravel fosters AI-powered tools for historians, archaeologists, researchers, and cultural tourists to extract valuable insights while ensuring technology contributes meaningfully to historical discovery and cultural heritage preservation. We evaluate contemporary AI models on TimeTravel, highlighting their strengths and identifying areas for improvement. Our goal is to establish AI as a reliable partner in preserving cultural heritage, ensuring that technological advancements contribute meaningfully to historical discovery. Our code is available at: \url{https://github.com/mbzuai-oryx/TimeTravel}.

arxiv情報

著者 Sara Ghaboura,Ketan More,Ritesh Thawkar,Wafa Alghallabi,Omkar Thawakar,Fahad Shahbaz Khan,Hisham Cholakkal,Salman Khan,Rao Muhammad Anwer
発行日 2025-02-20 18:59:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG | Time Travel: A Comprehensive Benchmark to Evaluate LMMs on Historical and Cultural Artifacts はコメントを受け付けていません

Muscle Activation Estimation by Optimizing the Musculoskeletal Model for Personalized Strength and Conditioning Training

要約

筋骨格モデルは、筋肉の状態を分析するために、リハビリテーションとレジスタンストレーニングの領域で極めて重要です。
ただし、筋骨格パラメーターの個々の変動性と、いくつかの内部生体力学的変数の計り知れないことは、正確な個別化されたモデリングに大きな障害をもたらします。
さらに、複数の筋肉が単一の関節を駆動する筋骨格系の固有の冗長性により、筋肉の活性化推定は困難な場合があります。
この研究は、筋力とコンディショニングのトレーニングのための全身筋骨格モデルを開発し、筋電図ベースの最適化方法で関連する筋肉パラメーターを調整します。
個別化された筋骨格モデルを利用することにより、その後、筋肉の活性化を推定して、エクササイズの性能を分析できます。
ベンチプレスとデッドリフトは、このアプローチの有効性を確認するために、実験的検証のために選択されています。

要約(オリジナル)

Musculoskeletal models are pivotal in the domains of rehabilitation and resistance training to analyze muscle conditions. However, individual variability in musculoskeletal parameters and the immeasurability of some internal biomechanical variables pose significant obstacles to accurate personalized modelling. Furthermore, muscle activation estimation can be challenging due to the inherent redundancy of the musculoskeletal system, where multiple muscles drive a single joint. This study develops a whole-body musculoskeletal model for strength and conditioning training and calibrates relevant muscle parameters with an electromyography-based optimization method. By utilizing the personalized musculoskeletal model, muscle activation can be subsequently estimated to analyze the performance of exercises. Bench press and deadlift are chosen for experimental verification to affirm the efficacy of this approach.

arxiv情報

著者 Xi Wu,Chenzui Li,Kehan Zou,Ning Xi,Fei Chen
発行日 2025-02-20 12:33:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, physics.med-ph | Muscle Activation Estimation by Optimizing the Musculoskeletal Model for Personalized Strength and Conditioning Training はコメントを受け付けていません

Neural Green’s Operators for Parametric Partial Differential Equations

要約

この作業では、線形部分微分方程式(PDE)のパラメトリックファミリーのソリューション演算子を学習する新しいニューラルオペレーターネットワークアーキテクチャであるNeural Greenの演算子(NGO)を紹介します。
NGOの構造は、このようなソリューション演算子のグリーンの定式化から直接導出されています。
Deep Operator Networks(DeepOnets)およびVariationAlly Mimetic Operator Networks(Varmions)と同様に、NGOは、サブネットワークから返される係数から返される基底関数の観点からPDEのソリューションの拡大を構成します。
別のサブネットワーク。
ただし、Greenの定式化に従って、NGOは、DeeponetsやVarmionsの場合のように、サンプリングされた値ではなく、入力関数の加重平均を受け入れます。
標準的な線形パラメトリックPDEへのNGOの適用は、トレーニング分布内にあるデータをテストする際にディープネット、バーミオン、フーリエ神経演算子と競合し続けているが、トレーニング分布外で生成されたより細かいデータをテストするときに堅牢に一般化することを示しています。

さらに、NGOによって返されるグリーンの関数の明示的な表現により、PDEの数値ソルバー用の効果的な前処理者の構築が可能になることを示します。

要約(オリジナル)

This work introduces neural Green’s operators (NGOs), a novel neural operator network architecture that learns the solution operator for a parametric family of linear partial differential equations (PDEs). Our construction of NGOs is derived directly from the Green’s formulation of such a solution operator. Similar to deep operator networks (DeepONets) and variationally mimetic operator networks (VarMiONs), NGOs constitutes an expansion of the solution to the PDE in terms of basis functions, that is returned from a sub-network, contracted with coefficients, that are returned from another sub-network. However, in accordance with the Green’s formulation, NGOs accept weighted averages of the input functions, rather than sampled values thereof, as is the case in DeepONets and VarMiONs. Application of NGOs to canonical linear parametric PDEs shows that, while they remain competitive with DeepONets, VarMiONs and Fourier neural operators when testing on data that lie within the training distribution, they robustly generalize when testing on finer-scale data generated outside of the training distribution. Furthermore, we show that the explicit representation of the Green’s function that is returned by NGOs enables the construction of effective preconditioners for numerical solvers for PDEs.

arxiv情報

著者 Hugo Melchers,Joost Prins,Michael Abdelmalik
発行日 2025-02-20 09:28:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T07, cs.LG, cs.NA, G.1.8, math.NA | Neural Green’s Operators for Parametric Partial Differential Equations はコメントを受け付けていません

LongPO: Long Context Self-Evolution of Large Language Models through Short-to-Long Preference Optimization

要約

大規模な言語モデル(LLMS)は、前oraingと整列により顕著な能力を実証しています。
ただし、長いコンテキストアラインメントが不十分なため、長いコンテキストシナリオでは優れたショートコンテキストLLMSがパフォーマンスが低下する可能性があります。
このアライメントプロセスは、拡張されたコンテキストに対する人間の注釈の非実用性と、短いコンテキストパフォーマンスと長いコンテストのパフォーマンスのバランスをとることの難しさのために、依然として困難なままです。
これらの課題に対処するために、ショートコンテストの機能を内部的に転送することにより、ショートコンテキストLLMが自己進化できるようにするLONGPOを導入します。
LongPoは、LLMSを利用して、長いコンテキスト入力と圧縮された短いコンテキストの対応物を使用した同一の命令用に生成されたペアの応答を含む、自己生成された短い優先順位データから学習します。
この好みは、短いコンテキストアラインメント中に栽培されたLLMの能力と可能性を明らかにしています。
さらに、LongPoは、長いコンテキストアライメント中に短いコンテキストのパフォーマンス低下を緩和するために、短いKLから長いKL制約を組み込んでいます。
Mistral-7B-Instruct-V0.2に128Kから512Kコンテキストの長さに適用すると、LongPoはショートテキストのパフォーマンスを完全に保持し、長いコンテキストタスクとショートコンテキストの両方のタスクで素朴なSFTとDPOを大幅に上回ります。
具体的には、LongPoトレーニングを受けたモデルは、広範なLLMS(例:GPT-4-128K)に匹敵する、またはそれを超える長いコンテキストベンチマークで結果を達成できます。
私たちのコードは、https://github.com/damo-nlp-sg/longpoで入手できます。

要約(オリジナル)

Large Language Models (LLMs) have demonstrated remarkable capabilities through pretraining and alignment. However, superior short-context LLMs may underperform in long-context scenarios due to insufficient long-context alignment. This alignment process remains challenging due to the impracticality of human annotation for extended contexts and the difficulty in balancing short- and long-context performance. To address these challenges, we introduce LongPO, that enables short-context LLMs to self-evolve to excel on long-context tasks by internally transferring short-context capabilities. LongPO harnesses LLMs to learn from self-generated short-to-long preference data, comprising paired responses generated for identical instructions with long-context inputs and their compressed short-context counterparts, respectively. This preference reveals capabilities and potentials of LLMs cultivated during short-context alignment that may be diminished in under-aligned long-context scenarios. Additionally, LongPO incorporates a short-to-long KL constraint to mitigate short-context performance decline during long-context alignment. When applied to Mistral-7B-Instruct-v0.2 from 128K to 512K context lengths, LongPO fully retains short-context performance and largely outperforms naive SFT and DPO in both long- and short-context tasks. Specifically, LongPO-trained models can achieve results on long-context benchmarks comparable to, or even surpassing, those of superior LLMs (e.g., GPT-4-128K) that involve extensive long-context annotation and larger parameter scales. Our code is available at https://github.com/DAMO-NLP-SG/LongPO.

arxiv情報

著者 Guanzheng Chen,Xin Li,Michael Qizhe Shieh,Lidong Bing
発行日 2025-02-20 09:16:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG | LongPO: Long Context Self-Evolution of Large Language Models through Short-to-Long Preference Optimization はコメントを受け付けていません

Where’s the Bug? Attention Probing for Scalable Fault Localization

要約

コード関連のタスクでは、大規模な言語モデル(LLM)がますます能力があるにもかかわらず、コードの正確性を確保することは依然として困難な問題のままです。
LLMベースのプログラム修理システムは、ユーザーのバグレポートのみを使用してバグ修正を提案できますが、その有効性は、人間とLLMの両方にとって困難な問題である障害ローカリゼーション(FL)を実行する能力によって根本的に制限されています。
既存のFLアプローチは、実行可能なテストのケースに依存しており、費用がかかり、しばしば騒々しいラインレベルの注釈のトレーニングが必要です。
このホワイトペーパーでは、直接ローカリゼーションラベルなしで最先端の障害ローカリゼーションを学習し、従来のFLベースラインを上回り、大規模なLLMSのプロンプトを作成する方法を学習する方法であるバグ注意プローブ(BAP)を紹介します。
標準的な欠陥4Jデータセットからの実際のJavaバグや、バグタイプと言語の多様なセットに及ぶ他の7つのデータセットなど、さまざまなコード設定にわたるアプローチを評価します。
8つのデータセットすべてにわたって平均して、BAPは、最強のベースラインと比較して34.6%のTOP-1精度、ゼロショットよりも93.4%がGPT-4Oを促します。
また、BAPはプロンプトをプロンプトするよりもはるかに効率的であり、計算コストのごく一部で大きなオープンウェイトモデルを上回ります。

要約(オリジナル)

Ensuring code correctness remains a challenging problem even as large language models (LLMs) become increasingly capable at code-related tasks. While LLM-based program repair systems can propose bug fixes using only a user’s bug report, their effectiveness is fundamentally limited by their ability to perform fault localization (FL), a challenging problem for both humans and LLMs. Existing FL approaches rely on executable test cases, require training on costly and often noisy line-level annotations, or demand resource-intensive LLMs. In this paper, we present Bug Attention Probe (BAP), a method which learns state-of-the-art fault localization without any direct localization labels, outperforming traditional FL baselines and prompting of large-scale LLMs. We evaluate our approach across a variety of code settings, including real-world Java bugs from the standard Defects4J dataset as well as seven other datasets which span a diverse set of bug types and languages. Averaged across all eight datasets, BAP improves by 34.6% top-1 accuracy compared to the strongest baseline and 93.4% over zero-shot prompting GPT-4o. BAP is also significantly more efficient than prompting, outperforming large open-weight models at a small fraction of the computational cost.

arxiv情報

著者 Adam Stein,Arthur Wayne,Aaditya Naik,Mayur Naik,Eric Wong
発行日 2025-02-20 02:29:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.SE | Where’s the Bug? Attention Probing for Scalable Fault Localization はコメントを受け付けていません

CoSQA+: Pioneering the Multi-Choice Code Search Benchmark with Test-Driven Agents

要約

セマンティックコード検索、特定の自然言語クエリに一致するコードの取得は、ソフトウェアエンジニアリングの生産性を向上させるための重要なタスクです。
既存のコード検索データセットは制限に直面しています。これらは、機能的検証ではなくセマンティック理解を通じて主にコードを評価する人間のアノテーターに依存しており、潜在的な不正確さとスケーラビリティの問題につながります。
さらに、現在の評価メトリックは、多くの場合、コード検索のマルチ選択性を見落としています。
このペーパーでは、COSQA+を紹介し、COSQAの高品質のクエリを複数の適切なコードとペアリングします。
複数のモデルベースの候補選択と、新しいテスト駆動型エージェントアノテーションシステムを備えた自動パイプラインを開発します。
単一の大手言語モデル(LLM)アノテーターとPythonの専門家アノテーター(テストベースの検証なし)の中で、エージェントはテストベースの検証を活用し、96.4%の最高精度を達成します。
大規模な実験を通じて、COSQA+はCOSQAよりも優れた品質を実証しています。
COSQA+展示でトレーニングされたモデルは、パフォーマンスを向上させます。
https://github.com/deepsoftwareanalytics/cosqa_plusでコードとデータを提供します。

要約(オリジナル)

Semantic code search, retrieving code that matches a given natural language query, is an important task to improve productivity in software engineering. Existing code search datasets face limitations: they rely on human annotators who assess code primarily through semantic understanding rather than functional verification, leading to potential inaccuracies and scalability issues. Additionally, current evaluation metrics often overlook the multi-choice nature of code search. This paper introduces CoSQA+, pairing high-quality queries from CoSQA with multiple suitable codes. We develop an automated pipeline featuring multiple model-based candidate selections and the novel test-driven agent annotation system. Among a single Large Language Model (LLM) annotator and Python expert annotators (without test-based verification), agents leverage test-based verification and achieve the highest accuracy of 96.4%. Through extensive experiments, CoSQA+ has demonstrated superior quality over CoSQA. Models trained on CoSQA+ exhibit improved performance. We provide the code and data at https://github.com/DeepSoftwareAnalytics/CoSQA_Plus.

arxiv情報

著者 Jing Gong,Yanghui Wu,Linxi Liang,Yanlin Wang,Jiachi Chen,Mingwei Liu,Zibin Zheng
発行日 2025-02-20 03:41:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.IR, cs.SE, D.2.3 | CoSQA+: Pioneering the Multi-Choice Code Search Benchmark with Test-Driven Agents はコメントを受け付けていません

RAMPA: Robotic Augmented Reality for Machine Programming by DemonstrAtion

要約

このペーパーでは、最初のML統合されたXR駆動型のエンドツーエンドロボットシステムであるデモンストレーションによるマシンプログラミング(RAMPA)のロボット拡張現実を紹介します。
最先端および市販のARヘッドセット、たとえばメタクエスト3は、デモンストレーション(PBD)アプローチによるプログラミングの適用を容易にします。
産業用ロボットアーム、例えば、ユニバーサルロボットUR10。
当社のアプローチにより、ユーザーの物理的環境内でスキルデモンストレーションを直接登録、視覚化、および微調整することができます。
Rampaは、安全性の懸念、プログラミングの障壁、実際のハードウェアでデモンストレーションを収集することの非効率性など、PBDの重要な課題に対処しています。
私たちのシステムのパフォーマンスは、3つの異なるロボット操作タスクを指導する際の運動感覚制御の従来の方法に対して評価され、定量的メトリックで分析され、タスクのパフォーマンスと完了時間、軌跡の滑らかさ、システムの使いやすさ、ユーザーエクスペリエンス、および標準化された調査を使用してタスク負荷を測定します。
私たちの調査結果は、ロボットのタスクがどのように教えられ、洗練されているかについての実質的な進歩を示しており、ロボットプログラミングにおける運用の安全性、効率、およびユーザーエンゲージメントの改善が有望です。

要約(オリジナル)

This paper introduces Robotic Augmented Reality for Machine Programming by Demonstration (RAMPA), the first ML-integrated, XR-driven end-to-end robotic system, allowing training and deployment of ML models such as ProMPs on the fly, and utilizing the capabilities of state-of-the-art and commercially available AR headsets, e.g., Meta Quest 3, to facilitate the application of Programming by Demonstration (PbD) approaches on industrial robotic arms, e.g., Universal Robots UR10. Our approach enables in-situ data recording, visualization, and fine-tuning of skill demonstrations directly within the user’s physical environment. RAMPA addresses critical challenges of PbD, such as safety concerns, programming barriers, and the inefficiency of collecting demonstrations on the actual hardware. The performance of our system is evaluated against the traditional method of kinesthetic control in teaching three different robotic manipulation tasks and analyzed with quantitative metrics, measuring task performance and completion time, trajectory smoothness, system usability, user experience, and task load using standardized surveys. Our findings indicate a substantial advancement in how robotic tasks are taught and refined, promising improvements in operational safety, efficiency, and user engagement in robotic programming.

arxiv情報

著者 Fatih Dogangun,Serdar Bahar,Yigit Yildirim,Bora Toprak Temir,Emre Ugur,Mustafa Doga Dogan
発行日 2025-02-18 19:11:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.HC, cs.LG, cs.RO | RAMPA: Robotic Augmented Reality for Machine Programming by DemonstrAtion はコメントを受け付けていません

PCB Renewal: Iterative Reuse of PCB Substrates for Sustainable Electronic Making

要約

PCB(プリント回路基板)基板はしばしば片戸であり、電子作品の材料廃棄物につながります。
PCB更新は、導電性エポキシを時代遅れの領域に選択的に堆積させ、新しいトレースをサポートする導電性平面に分離されたパスを変換することにより、PCBトレースを「消去」および「再構成」する新しいテクニックを導入します。
PCB更新ワークフローを提示し、その電気性能と機械的耐久性を評価し、材料の使用、コスト、エネルギー消費、時間の節約など、持続可能性への影響をモデル化します。
エポキシ堆積をガイドし、更新されたPCBプロファイルを生成し、リソースの使用を計算するソフトウェアプラグインを開発します。
PCB更新の有効性と汎用性を示すために、カメラローラー、WiFiラジオ、ESPBoyゲームコンソールの3つのプロジェクトにまたがる4つの設計反復にわたって単一のPCBを再利用します。
また、アウトソーシングされた二重層のPCBを再構成する方法も示し、LEDウォッチからインタラクティブな猫のおもちゃに変換します。
この論文は、制限と将来の方向で終わります。

要約(オリジナル)

PCB (printed circuit board) substrates are often single-use, leading to material waste in electronics making. We introduce PCB Renewal, a novel technique that ‘erases’ and ‘reconfigures’ PCB traces by selectively depositing conductive epoxy onto outdated areas, transforming isolated paths into conductive planes that support new traces. We present the PCB Renewal workflow, evaluate its electrical performance and mechanical durability, and model its sustainability impact, including material usage, cost, energy consumption, and time savings. We develop a software plug-in that guides epoxy deposition, generates updated PCB profiles, and calculates resource usage. To demonstrate PCB Renewal’s effectiveness and versatility, we repurpose a single PCB across four design iterations spanning three projects: a camera roller, a WiFi radio, and an ESPboy game console. We also show how an outsourced double-layer PCB can be reconfigured, transforming it from an LED watch to an interactive cat toy. The paper concludes with limitations and future directions.

arxiv情報

著者 Zeyu Yan,Advait Vartak,Jiasheng Li,Zining Zhang,Huaishu Peng
発行日 2025-02-18 19:29:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CY, cs.HC, cs.RO | PCB Renewal: Iterative Reuse of PCB Substrates for Sustainable Electronic Making はコメントを受け付けていません