Social Group Human-Robot Interaction: A Scoping Review of Computational Challenges

要約

グループでの交流は私たちの日常生活の自然な部分であり、ロボットが社会にさらに統合されるにつれて、ロボットは同時に複数の人々と社会的に交流できなければなりません。
しかし、グループヒューマンロボットインタラクション (HRI) は、現在の HRI 文献では見落とされがちな独特の計算上の課題を引き起こします。
過去 10 年間(2015 年から 2024 年)の 44 件のグループ HRI 論文を含む範囲レビューを実施しました。
これらの論文から、知覚と行動生成の課題に関連する変数と、これらの課題に影響を与える環境、グループ、ロボットの能力に関連する要因を抽出しました。
私たちの調査結果は、知覚における主要な計算上の課題には、グループ、関与、会話情報の検出が含まれる一方、行動生成における課題には、接近行動や会話行動の開発が含まれることが示されました。
また、サブグループや対人関係の検出の改善など、研究のギャップを特定し、研究者がこれらの計算上の課題に対処できるようグループ HRI での今後の作業を推奨しました。

要約(オリジナル)

Group interactions are a natural part of our daily life, and as robots become more integrated into society, they must be able to socially interact with multiple people at the same time. However, group human-robot interaction (HRI) poses unique computational challenges often overlooked in the current HRI literature. We conducted a scoping review including 44 group HRI papers from the last decade (2015-2024). From these papers, we extracted variables related to perception and behaviour generation challenges, as well as factors related to the environment, group, and robot capabilities that influence these challenges. Our findings show that key computational challenges in perception included detection of groups, engagement, and conversation information, while challenges in behaviour generation involved developing approaching and conversational behaviours. We also identified research gaps, such as improving detection of subgroups and interpersonal relationships, and recommended future work in group HRI to help researchers address these computational challenges

arxiv情報

著者 Massimiliano Nigro,Emmanuel Akinrintoyo,Nicole Salomons,Micol Spitale
発行日 2024-12-20 17:37:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

Allocation for Omnidirectional Aerial Robots: Incorporating Power Dynamics

要約

ティルトローター航空機ロボットは、推力ベクトルと機体の向きが分離されているため、固定ローター航空機ロボットよりも動的で多用途です。
ただし、サーボモーターとプロペラの調整 (割り当て問題) は、特に過作動とアクチュエーターのダイナミクスを考慮すると、簡単ではありません。
私たちは、ティルトロータープラットフォームのアクチュエーター割り当てのさまざまな方法を提示して比較し、動的軌道を実行する実際の航空機ロボットでそれらを評価します。
私たちは、最先端の幾何学的割り当てを差分割り当てに拡張します。これは、プラットフォームの冗長性を使用し、幾何学的ソリューションに特有の特異点の影響を受けません。
アクチュエータのダイナミクスを組み込み、プロペラの限界曲線を導入することで、それを拡張します。
これらにより、プロペラ制限のモデリングが改善され、プロペラの使用量のバランスが自動的に調整され、プラットフォームが飛行中にプロペラを選択的にアクティブ化および非アクティブ化できるようになります。
アクチュエータのダイナミクスと制限により、割り当ての調整が容易になるだけでなく、幾何学的手法の 2.8 rad/s と比較して、角速度が 4 rad/s までのより動的な振動軌道を追跡できることを示します。

要約(オリジナル)

Tilt-rotor aerial robots are more dynamic and versatile than their fixed-rotor counterparts, since the thrust vector and body orientation are decoupled. However, the coordination of servomotors and propellers (the allocation problem) is not trivial, especially accounting for overactuation and actuator dynamics. We present and compare different methods of actuator allocation for tilt-rotor platforms, evaluating them on a real aerial robot performing dynamic trajectories. We extend the state-of-the-art geometric allocation into a differential allocation, which uses the platform’s redundancy and does not suffer from singularities typical of the geometric solution. We expand it by incorporating actuator dynamics and introducing propeller limit curves. These improve the modeling of propeller limits, automatically balancing their usage and allowing the platform to selectively activate and deactivate propellers during flight. We show that actuator dynamics and limits make the tuning of the allocation not only easier, but also allow it to track more dynamic oscillating trajectories with angular velocities up to 4 rad/s, compared to 2.8 rad/s of geometric methods.

arxiv情報

著者 Eugenio Cuniato,Mike Allenspach,Thomas Stastny,Helen Oleynikova,Roland Siegwart,Michael Pantic
発行日 2024-12-20 17:48:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

Cross-sectional Topology Optimization of Slender Soft Pneumatic Actuators using Genetic Algorithms and Geometrically Exact Beam Models

要約

ソフト ロボットの設計は依然として手動の試行錯誤的なアプローチによって進められるのが一般的であり、複数の物理的なプロトタイプの製造が必要ですが、最終的には時間がかかり、かなりの専門知識が必要になります。
このプロセスにおける手動介入の数を減らすために、トポロジーの最適化を使用して設計プロセスを支援できます。
その後、設計はシミュレーションによって導かれ、多くのプロトタイプは、骨の折れる実験を通じて評価されるのではなく、シミュレーションでテストできます。
このシミュレーション主導の設計プロセスを実装するために、細長いソフト空気圧アクチュエータの可能な設計空間が円形断面の設計に一般化されます。
遺伝的アルゴリズムを使用してブラックボックス トポロジーの最適化を実行し、さまざまな圧力値でのエンドエフェクターの位置によって定義されるターゲット ワークスペースに到達できる軟空圧アクチュエータの断面設計を取得します。
この設計方法は、ランダムに生成されたか設計アシスタントのオペレーターによって指定された 3 つの異なるケース スタディとターゲット ワークスペースに対して評価されます。
遺伝的アルゴリズムに基づくブラック ボックス トポロジの最適化は、与えられたもっともらしいターゲット ワークスペースの下で優れた設計を見つけることができることが証明されています。
採用した手法の有効性を検証するために、簡略化したシミュレーションモデルを検討しました。
実験的な検証はまだ行われていません。
採用されたブラック ボックス トポロジーの最適化は、細い軟空気圧アクチュエータの設計プロセスに役立つと結論付けることができます。
対応する作動圧力によって指定された点に到達する可能な設計プロトタイプの検索をサポートします。
これにより、試行錯誤による反復的な手動設計プロセスが軽減され、オペレーターはすでに優れた実行可能なソリューションを提供するプロトタイプに集中できるようになります。

要約(オリジナル)

The design of soft robots is still commonly driven by manual trial-and-error approaches, requiring the manufacturing of multiple physical prototypes, which in the end, is time-consuming and requires significant expertise. To reduce the number of manual interventions in this process, topology optimization can be used to assist the design process. The design is then guided by simulations and numerous prototypes can be tested in simulation rather than being evaluated through laborious experiments. To implement this simulation-driven design process, the possible design space of a slender soft pneumatic actuator is generalized to the design of the circular cross-section. We perform a black-box topology optimization using genetic algorithms to obtain a cross-sectional design of a soft pneumatic actuator that is capable of reaching a target workspace defined by the end-effector positions at different pressure values. This design method is evaluated for three different case studies and target workspaces, which were either randomly generated or specified by the operator of the design assistant. The black-box topology optimization based on genetic algorithms proves to be capable of finding good designs under given plausible target workspaces. We considered a simplified simulation model to verify the efficacy of the employed method. An experimental validation has not yet been performed. It can be concluded that the employed black-box topology optimization can assist in the design process for slender soft pneumatic actuators. It supports at searching for possible design prototypes that reach points specified by corresponding actuation pressures. This helps reduce the trial-and-error driven iterative manual design process and enables the operator to focus on prototypes that already offer a good viable solution.

arxiv情報

著者 Leon Schindler,Kristin Miriam de Payrebrune
発行日 2024-12-20 18:38:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, physics.comp-ph | コメントする

Rare Event Detection in Imbalanced Multi-Class Datasets Using an Optimal MIP-Based Ensemble Weighting Approach

要約

重要なサイバー物理システムにおけるレアイベント検出に通常使用される、不均衡なマルチクラス データセットの課題に対処するために、最適で効率的かつ適応性のある混合整数計画法 (MIP) アンサンブル重み付けスキームを提案します。
私たちのアプローチは、分類子アンサンブルの多様な機能をクラスごとに細かく活用しながら、堅牢性と一般化を向上させるためにエラスティックネット正則化を使用して分類子とクラスのペアの重みを最適化します。
さらに、指定されたセットから事前定義された数の分類器をシームレスかつ最適に選択します。
さまざまなアンサンブル サイズの下で、代表的なデータセットと適切なメトリクスを使用して、MIP ベースの手法を 6 つの十分に確立された重み付けスキームに対して評価および比較します。
実験結果では、MIP が既存のすべてのアプローチよりも優れており、すべてのデータセットとアンサンブル サイズにわたる全体平均 4.53% で、0.99% から 7.31% の範囲のバランスのとれた精度の向上を達成していることが明らかになりました。
さらに、計算効率を維持しながら、マクロ平均精度、再現率、および F1 スコアがそれぞれ 4.63%、4.60%、および 4.61% という全体平均の向上を達成します。

要約(オリジナル)

To address the challenges of imbalanced multi-class datasets typically used for rare event detection in critical cyber-physical systems, we propose an optimal, efficient, and adaptable mixed integer programming (MIP) ensemble weighting scheme. Our approach leverages the diverse capabilities of the classifier ensemble on a granular per class basis, while optimizing the weights of classifier-class pairs using elastic net regularization for improved robustness and generalization. Additionally, it seamlessly and optimally selects a predefined number of classifiers from a given set. We evaluate and compare our MIP-based method against six well-established weighting schemes, using representative datasets and suitable metrics, under various ensemble sizes. The experimental results reveal that MIP outperforms all existing approaches, achieving an improvement in balanced accuracy ranging from 0.99% to 7.31%, with an overall average of 4.53% across all datasets and ensemble sizes. Furthermore, it attains an overall average increase of 4.63%, 4.60%, and 4.61% in macro-averaged precision, recall, and F1-score, respectively, while maintaining computational efficiency.

arxiv情報

著者 Georgios Tertytchny,Georgios L. Stavrinides,Maria K. Michael
発行日 2024-12-20 12:49:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | コメントする

On Robust Cross Domain Alignment

要約

Gromov-Wasserstein (GW) 距離は、別個の周囲空間でサポートされる分布間の位置合わせの効果的な尺度です。
基本的にアイソメトリからの相互の逸脱を計算するため、ドメイン変換やネットワーク分析で広範囲に使用されています。
根本的な対策における汚染に対して脆弱であることが長い間示されてきました。
GW に堅牢性を導入するすべての取り組みは、主に部分的な質量輸送または不平衡化を提唱する最適輸送 (OT) における同様の手法からインスピレーションを得ています。
対照的に、クロスドメインのアライメント問題は OT とは根本的に異なり、多様なアプリケーションや汚染状況に対処するための特定のソリューションを必要とします。
堅牢な統計に基づいて、GW とそのバリアントを堅牢化するための 3 つの文脈上新しい手法について説明します。
各方法について、メトリックのプロパティと堅牢性の保証を、それらの共依存関係と GW 距離との個別の関係とともに調査します。
包括的な観点から、最先端の手法に対する実際の機械学習タスクの下で、汚染に対する優れた回復力を経験的に検証しました。

要約(オリジナル)

The Gromov-Wasserstein (GW) distance is an effective measure of alignment between distributions supported on distinct ambient spaces. Calculating essentially the mutual departure from isometry, it has found vast usage in domain translation and network analysis. It has long been shown to be vulnerable to contamination in the underlying measures. All efforts to introduce robustness in GW have been inspired by similar techniques in optimal transport (OT), which predominantly advocate partial mass transport or unbalancing. In contrast, the cross-domain alignment problem being fundamentally different from OT, demands specific solutions to tackle diverse applications and contamination regimes. Deriving from robust statistics, we discuss three contextually novel techniques to robustify GW and its variants. For each method, we explore metric properties and robustness guarantees along with their co-dependencies and individual relations with the GW distance. For a comprehensive view, we empirically validate their superior resilience to contamination under real machine learning tasks against state-of-the-art methods.

arxiv情報

著者 Anish Chakrabarty,Arkaprabha Basu,Swagatam Das
発行日 2024-12-20 12:56:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML | コメントする

MarkovType: A Markov Decision Process Strategy for Non-Invasive Brain-Computer Interfaces Typing Systems

要約

ブレイン コンピューター インターフェイス (BCI) は、重度の言語障害および運動障害を持つ人々が、神経活動を使用して環境とコミュニケーションし、相互作用するのに役立ちます。
この研究は、非侵襲性脳波検査 (EEG) を使用した BCI の高速連続視覚プレゼンテーション (RSVP) パラダイムに焦点を当てています。
RSVP タイピング タスクは複数のシーケンスを含む再帰的タスクであり、ユーザーには各シーケンス内のシンボルのサブセットのみが表示されます。
RSVP タイピング タスクの分類を改善し、高速な分類を実現するために広範な研究が行われています。
ただし、これらの方法は高い精度を達成するのに苦労しており、学習手順でタイピングのメカニズムが考慮されていません。
再帰トレーニングを含めずに、バイナリのターゲットと非ターゲットの分類を適用します。
分類速度を制御しながらシンボル分類のパフォーマンスを向上させるために、部分的に観察可能なマルコフ決定プロセス (POMDP) アプローチを提案することで、タイピング設定をトレーニングに組み込みます。
私たちの知る限り、これは RSVP タイピング タスクを再帰的分類用の POMDP として定式化した最初の研究です。
実験では、提案されたアプローチである MarkovType により、競合他社と比較してより正確なタイピング システムが得られることが示されています。
さらに、私たちの実験では、精度と速度の間にはトレードオフがありますが、MarkovType は他の方法と比較してこれらの要素の間の最適なバランスを達成していることを示しています。

要約(オリジナル)

Brain-Computer Interfaces (BCIs) help people with severe speech and motor disabilities communicate and interact with their environment using neural activity. This work focuses on the Rapid Serial Visual Presentation (RSVP) paradigm of BCIs using noninvasive electroencephalography (EEG). The RSVP typing task is a recursive task with multiple sequences, where users see only a subset of symbols in each sequence. Extensive research has been conducted to improve classification in the RSVP typing task, achieving fast classification. However, these methods struggle to achieve high accuracy and do not consider the typing mechanism in the learning procedure. They apply binary target and non-target classification without including recursive training. To improve performance in the classification of symbols while controlling the classification speed, we incorporate the typing setup into training by proposing a Partially Observable Markov Decision Process (POMDP) approach. To the best of our knowledge, this is the first work to formulate the RSVP typing task as a POMDP for recursive classification. Experiments show that the proposed approach, MarkovType, results in a more accurate typing system compared to competitors. Additionally, our experiments demonstrate that while there is a trade-off between accuracy and speed, MarkovType achieves the optimal balance between these factors compared to other methods.

arxiv情報

著者 Elifnur Sunger,Yunus Bicer,Deniz Erdogmus,Tales Imbiriba
発行日 2024-12-20 12:59:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | コメントする

Bayesian Optimization for Unknown Cost-Varying Variable Subsets with No-Regret Costs

要約

ベイジアン最適化 (BO) は、評価にコストがかかるブラック ボックス関数を最適化するために広く使用されている方法です。
従来の BO は、学習者が追加の制約なしですべてのクエリ変数を完全に制御できることを前提としています。
ただし、現実世界の多くのシナリオでは、特定のクエリ変数を制御するとコストが発生する可能性があります。
したがって、学習者は、コストを最小限に抑えるために一部の変数をランダムにサンプリングすることと、ターゲットを絞った学習のための有益なサブセットの選択のバランスを取る必要があります。
この問題は、コスト変動変数サブセットを使用したベイジアン最適化 (BOCVS) として知られています。
BOCVS の目標は、最小限のコストで最適なソリューションを特定することですが、これまでの研究では、発生する総コストを考慮せずに最適なソリューションを見つけることのみが保証されていました。
さらに、これらの作業は各​​サブセットのコストを正確に知っていることを前提としていますが、これは多くの場合非現実的です。
この論文では、プロセスを探索フェーズと活用フェーズに分離する、ランダムで未知のコストを伴う BOCVS 問題を拡張するための新しいアルゴリズムを提案します。
探索フェーズでは低品質の変数サブセットが除外され、活用フェーズでは高品質の変数サブセットが活用されます。
さらに、私たちのアルゴリズムが品質の後悔とコストの後悔の両方において線形未満の割合を達成し、以前の分析よりも効果的に BOCVS 問題の目的に対処していることを理論的に示しています。
最後に、私たちが提案したアルゴリズムが、幅広いベンチマークにわたって同等のベースラインを上回るパフォーマンスを示すことを示します。

要約(オリジナル)

Bayesian Optimization (BO) is a widely-used method for optimizing expensive-to-evaluate black-box functions. Traditional BO assumes that the learner has full control over all query variables without additional constraints. However, in many real-world scenarios, controlling certain query variables may incur costs. Therefore, the learner needs to balance the selection of informative subsets for targeted learning against leaving some variables to be randomly sampled to minimize costs. This problem is known as Bayesian Optimization with cost-varying variable subsets (BOCVS). While the goal of BOCVS is to identify the optimal solution with minimal cost, previous works have only guaranteed finding the optimal solution without considering the total costs incurred. Moreover, these works assume precise knowledge of the cost for each subset, which is often unrealistic. In this paper, we propose a novel algorithm for the extension of the BOCVS problem with random and unknown costs that separates the process into exploration and exploitation phases. The exploration phase will filter out low-quality variable subsets, while the exploitation phase will leverage high-quality ones. Furthermore, we theoretically demonstrate that our algorithm achieves a sub-linear rate in both quality regret and cost regret, addressing the objective of the BOCVS problem more effectively than previous analyses. Finally, we show that our proposed algorithm outperforms comparable baselines across a wide range of benchmarks.

arxiv情報

著者 Vu Viet Hoang,Quoc Anh Hoang Nguyen,Hung Tran The
発行日 2024-12-20 13:00:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | コメントする

The common ground of DAE approaches. An overview of diverse DAE frameworks emphasizing their commonalities

要約

さまざまな行列関数の実装されたランク条件に注目して、微分代数方程式に対するさまざまなアプローチを分析します。
これらの条件は明らかに大きく異なり、一部の行列関数における特定のランクの低下は、実際には重要な解の動作を示しています。
通常のマトリックス ペンシルのクロネッカー指数を一般化する文献からさまざまな指数と規則性の概念を考慮して、共通点を探します。
詳細には、最も透明性の高い還元フレームワークから始めて、すべてのフレームワークに適用できる標準的な特性値を含む包括的な規則性の概念を作成し、13 の異なる規則性の定義が同等であることを証明します。
これにより、これらすべての概念の結果を組み合わせて使用​​することが可能になります。
さらに、DAE の特性を記述するためにインデックスだけでなくこれらの標準特性値も重要である理由を示します。

要約(オリジナル)

We analyze different approaches to differential-algebraic equations with attention to the implemented rank conditions of various matrix functions. These conditions are apparently very different and certain rank drops in some matrix functions actually indicate a critical solution behavior. We look for common ground by considering various index and regularity notions from literature generalizing the Kronecker index of regular matrix pencils. In detail, starting from the most transparent reduction framework, we work out a comprehensive regularity concept with canonical characteristic values applicable across all frameworks and prove the equivalence of thirteen distinct definitions of regularity. This makes it possible to use the findings of all these concepts together. Additionally, we show why not only the index but also these canonical characteristic values are crucial to describe the properties of the DAE.

arxiv情報

著者 Diana Estévez Schwarz,René Lamour,Roswitha März
発行日 2024-12-20 13:05:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 34-02, 34A09, 34A12, 34A30, 34A34, cs.LG, math.CA | コメントする

Spectral Self-supervised Feature Selection

要約

教師なし設定での高次元の観察から意味のある特徴のサブセットを選択すると、クラスタリングや次元削減などの下流分析の精度が大幅に向上し、特定のデータセットにおける異質性の原因について貴重な洞察が得られます。
この論文では、教師なし特徴選択のための自己教師ありグラフベースのアプローチを提案します。
私たちの方法の中核には、グラフのラプラシアンの固有ベクトルに単純な処理ステップを適用することにより、堅牢な擬似ラベルを計算することが含まれます。
擬似ラベルの計算に使用される固有ベクトルのサブセットは、モデルの安定性基準に基づいて選択されます。
次に、観測値から擬似ラベルを予測するサロゲート モデルをトレーニングすることで、各特徴の重要性を測定します。
私たちのアプローチは、外れ値や複雑な下部構造の存在など、困難なシナリオに対して堅牢であることが示されています。
実世界のデータセットでの実験を通じて私たちの方法の有効性を実証し、複数のドメインにわたる堅牢性、特に生物学的データセットでの有効性を示します。

要約(オリジナル)

Choosing a meaningful subset of features from high-dimensional observations in unsupervised settings can greatly enhance the accuracy of downstream analysis, such as clustering or dimensionality reduction, and provide valuable insights into the sources of heterogeneity in a given dataset. In this paper, we propose a self-supervised graph-based approach for unsupervised feature selection. Our method’s core involves computing robust pseudo-labels by applying simple processing steps to the graph Laplacian’s eigenvectors. The subset of eigenvectors used for computing pseudo-labels is chosen based on a model stability criterion. We then measure the importance of each feature by training a surrogate model to predict the pseudo-labels from the observations. Our approach is shown to be robust to challenging scenarios, such as the presence of outliers and complex substructures. We demonstrate the effectiveness of our method through experiments on real-world datasets, showing its robustness across multiple domains, particularly its effectiveness on biological datasets.

arxiv情報

著者 Daniel Segal,Ofir Lindenbaum,Ariel Jaffe
発行日 2024-12-20 13:26:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG | コメントする

IMPLY-based Approximate Full Adders for Efficient Arithmetic Operations in Image Processing and Machine Learning

要約

パワーウォールなど、現代のコンピューティングにおけるパフォーマンスの限界を克服するために、新たなコンピューティング パラダイムの重要性が増しています。
近似コンピューティングは、精度は犠牲になりますが、エネルギー効率を大幅に向上させ、待ち時間を短縮することで、有望なソリューションを提供します。
もう 1 つの新しい手法は、フォン ノイマンのボトルネックを克服する可能性を秘めたメモリスタ ベースのインメモリ コンピューティング (IMC) です。
この研究では、これら 2 つのアプローチを組み合わせて、2 つの Serial APProximate IMPLY ベースの全加算器 (SAPPI) を提案します。
リップルキャリー加算器 (RCA) に組み込まれた場合、当社の設計は、正確なアルゴリズムと比較して、ステップ数が 39% ~ 41%、エネルギー消費が 39% ~ 42% 削減されます。
私たちは回路レベルでアプローチを評価し、それを最先端 (SoA) 近似と比較しました。そこでは、加算器により速度が最大 10%、エネルギー効率が最大 13% 向上しました。
私たちは設計を 3 つの一般的な画像処理アプリケーションに適用し、RCA の最大半分まで許容できる画質を達成しました。
私たちはケーススタディを実行して、機械学習 (ML) における近似の適用可能性を実証し、より複雑なシナリオでの潜在的な利益を強調しました。
提案されたアプローチは、精度を維持しながら、MNIST データセットでトレーニングされた畳み込みニューラル ネットワーク (CNN) に適用した場合、最大 296 mJ (21%) のエネルギー節約と 13 億 (20%) の計算ステップの削減を実証します。

要約(オリジナル)

To overcome the performance limitations in modern computing, such as the power wall, emerging computing paradigms are gaining increasing importance. Approximate computing offers a promising solution by substantially enhancing energy efficiency and reducing latency, albeit with a trade-off in accuracy. Another emerging method is memristor-based In-Memory Computing (IMC) which has the potential to overcome the Von Neumann bottleneck. In this work, we combine these two approaches and propose two Serial APProximate IMPLY-based full adders (SAPPI). When embedded in a Ripple Carry Adder (RCA), our designs reduce the number of steps by 39%-41% and the energy consumption by 39%-42% compared to the exact algorithm. We evaluated our approach at the circuit level and compared it with State-of-the-Art (SoA) approximations where our adders improved the speed by up to 10% and the energy efficiency by up to 13%. We applied our designs in three common image processing applications where we achieved acceptable image quality with up to half of the RCA approximated. We performed a case study to demonstrate the applicability of our approximations in Machine Learning (ML) underscoring the potential gains in more complex scenarios. The proposed approach demonstrates energy savings of up to 296 mJ (21%) and a reduction of 1.3 billion (20%) computational steps when applied to Convolutional Neural Networks (CNNs) trained on the MNIST dataset while maintaining accuracy.

arxiv情報

著者 Melanie Qiu,Caoyueshan Fan,Gulafshan,Salar Shakibhamedan,Fabian Seiler,Nima TaheriNejad
発行日 2024-12-20 13:36:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.ET, cs.LG | コメントする