KAA: Kolmogorov-Arnold Attention for Enhancing Attentive Graph Neural Networks

要約

注意メカニズムを備えたグラフニューラルネットワーク(GNNS)は、しばしば注意深いGNNと呼ばれ、近年、高度なGNNモデルで顕著なパラダイムとして浮上しています。
ただし、ネイバーノードをスコアリングする重要なプロセスを理解することは限られたままであり、多くの既存の注意深いGNNのパフォーマンスの低下につながります。
この論文では、現在の注意力のGNNのスコアリング機能を統合し、Kolmogorov-Arnold Network(Kan)アーキテクチャをスコアリングプロセスに統合するKolmogorov-Arnoldの注意(KAA)を提案します。
KAAは、全面的にスコアリング機能のパフォーマンスを向上させ、ほぼすべての既存の丁寧なGNNに適用できます。
KAAの表現力を他のスコアリング関数と比較するために、最大ランキング距離(MRD)を導入して、ノードの重要性のランキングエラーの上限を定量的に推定します。
私たちの分析により、幅と深さに対する限られたパラメーターと制約の下で、線形変換ベースとMLPベースのスコアリング関数の両方が有限の表現力を示すことが明らかになりました。
対照的に、提案されたKAAは、ゼロオーダーBスプライン関数によってパラメーター化された単一層KANでさえ、ほぼ無限の表現力を示しています。
さまざまなバックボーンモデルを使用したノードレベルとグラフレベルの両方のタスクでの広範な実験は、KAAが強化したスコアリング機能が一貫して元のカウンターパートを上回り、場合によっては20%以上のパフォーマンスの改善を達成することを示しています。

要約(オリジナル)

Graph neural networks (GNNs) with attention mechanisms, often referred to as attentive GNNs, have emerged as a prominent paradigm in advanced GNN models in recent years. However, our understanding of the critical process of scoring neighbor nodes remains limited, leading to the underperformance of many existing attentive GNNs. In this paper, we unify the scoring functions of current attentive GNNs and propose Kolmogorov-Arnold Attention (KAA), which integrates the Kolmogorov-Arnold Network (KAN) architecture into the scoring process. KAA enhances the performance of scoring functions across the board and can be applied to nearly all existing attentive GNNs. To compare the expressive power of KAA with other scoring functions, we introduce Maximum Ranking Distance (MRD) to quantitatively estimate their upper bounds in ranking errors for node importance. Our analysis reveals that, under limited parameters and constraints on width and depth, both linear transformation-based and MLP-based scoring functions exhibit finite expressive power. In contrast, our proposed KAA, even with a single-layer KAN parameterized by zero-order B-spline functions, demonstrates nearly infinite expressive power. Extensive experiments on both node-level and graph-level tasks using various backbone models show that KAA-enhanced scoring functions consistently outperform their original counterparts, achieving performance improvements of over 20% in some cases.

arxiv情報

著者 Taoran Fang,Tianhong Gao,Chunping Wang,Yihao Shang,Wei Chow,Lei Chen,Yang Yang
発行日 2025-03-10 13:01:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | KAA: Kolmogorov-Arnold Attention for Enhancing Attentive Graph Neural Networks はコメントを受け付けていません

ToolFuzz — Automated Agent Tool Testing

要約

大規模な言語モデル(LLM)エージェントは、実際のアプリケーションでLLMの高度な推論機能を活用しています。
環境とインターフェイスするために、これらのエージェントは、多くの場合、Web検索やデータベースAPIなどのツールに依存しています。
エージェントは、ユーザークエリに沿ったツールドキュメントをLLMに提供するため、このドキュメントの完全性と正確性が重要です。
ただし、ツールのドキュメントは、多くの場合、エージェントの正確性を妨げて、過剰、下、または不法化されています。
標準的なソフトウェアテストアプローチは、これらのエラーが自然言語で表現されているため、これらのエラーを特定するのに苦労しています。
したがって、その重要性にもかかわらず、現在、エージェントのツールドキュメントをテストする自動化された方法はありません。
この問題に対処するために、ツールドキュメントの自動テストの最初の方法であるToolfuzzを提示します。
Toolfuzzは、2つのタイプのエラーを発見するように設計されています。(1)ツールランタイムエラーにつながるユーザークエリと、(2)エージェントの応答が誤っていないユーザークエリ。
ツールフーズは、大きくて多様な自然入力セットを生成し、低い誤った陽性レートでツールの説明エラーを効果的に見つけることができます。
さらに、2つの簡単なプロンプトエンジニアリングアプローチを提示します。
評価をさらに強化するために、32の一般的なラングチェーンツールと35の新しく作成されたカスタムツールと2つの新しいベンチマークに関する3つのツールテストアプローチすべてを評価します。
多くの公開されているツールは、不足していることに苦しんでいることがわかります。
具体的には、Toolfuzzがプロンプトエンジニアリングアプローチと比較して20倍の誤った入力を識別し、信頼できるAIエージェントを構築するための重要なコンポーネントになることを示します。

要約(オリジナル)

Large Language Model (LLM) Agents leverage the advanced reasoning capabilities of LLMs in real-world applications. To interface with an environment, these agents often rely on tools, such as web search or database APIs. As the agent provides the LLM with tool documentation along the user query, the completeness and correctness of this documentation is critical. However, tool documentation is often over-, under-, or ill-specified, impeding the agent’s accuracy. Standard software testing approaches struggle to identify these errors as they are expressed in natural language. Thus, despite its importance, there currently exists no automated method to test the tool documentation for agents. To address this issue, we present ToolFuzz, the first method for automated testing of tool documentations. ToolFuzz is designed to discover two types of errors: (1) user queries leading to tool runtime errors and (2) user queries that lead to incorrect agent responses. ToolFuzz can generate a large and diverse set of natural inputs, effectively finding tool description errors at a low false positive rate. Further, we present two straightforward prompt-engineering approaches. We evaluate all three tool testing approaches on 32 common LangChain tools and 35 newly created custom tools and 2 novel benchmarks to further strengthen the assessment. We find that many publicly available tools suffer from underspecification. Specifically, we show that ToolFuzz identifies 20x more erroneous inputs compared to the prompt-engineering approaches, making it a key component for building reliable AI agents.

arxiv情報

著者 Ivan Milev,Mislav Balunović,Maximilian Baader,Martin Vechev
発行日 2025-03-10 13:01:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.SE | ToolFuzz — Automated Agent Tool Testing はコメントを受け付けていません

Post-detection inference for sequential changepoint localization

要約

このペーパーでは、シーケンシャルの変化ポイント分析における基本的ではあるが、ほとんど未開拓の課題に取り組んでいます。検出された変更後の​​推論を実施します。
順次検出アルゴリズム$ \ mathcal a $が変更を宣言するデータ依存の停止時間までに観察されたデータのみを使用して、ChangePointをローカライズする問題を調査します。
最初に、変化前と変更後の分布が知られていると想定されている場合、未知の変化ポイントの信頼セットを構築します。
次に、フレームワークを構成前および変更後シナリオに拡張します。
観測スペースまたは$ \ mathcal a $に条件を課すことはありません。シミュレートされたデータシーケンスで$ \ mathcal a $を実行できる必要があります。
要約すると、この作業は、理論的に健全で実質的に効果的なツールの両方を提供します。

要約(オリジナル)

This paper addresses a fundamental but largely unexplored challenge in sequential changepoint analysis: conducting inference following a detected change. We study the problem of localizing the changepoint using only the data observed up to a data-dependent stopping time at which a sequential detection algorithm $\mathcal A$ declares a change. We first construct confidence sets for the unknown changepoint when pre- and post-change distributions are assumed to be known. We then extend our framework to composite pre- and post-change scenarios. We impose no conditions on the observation space or on $\mathcal A$ — we only need to be able to run $\mathcal A$ on simulated data sequences. In summary, this work offers both theoretically sound and practically effective tools for sequential changepoint localization.

arxiv情報

著者 Aytijhya Saha,Aaditya Ramdas
発行日 2025-03-10 13:20:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ME, stat.ML | Post-detection inference for sequential changepoint localization はコメントを受け付けていません

Self-Corrective Task Planning by Inverse Prompting with Large Language Models

要約

ロボットタスクの計画では、大規模な言語モデル(LLM)は、複雑で長期のアクションシーケンスを生成することに大きな約束を示しています。
ただし、LLMSは、しばしばもっともらしいと聞こえるが正確ではない応答を生成することが観察されています。
これらの問題に対処するために、既存の方法は通常、事前に定義されたエラーセットまたは外部の知識ソースを採用しており、人間の努力と計算リソースを必要とします。
最近、LLMが計画を生成および改良し、それ自体でエラーを特定する自己修正アプローチが登場しました。
それらの有効性にもかかわらず、彼らは推論が不十分なため、修正の失敗になりやすいです。
この論文では、解釈可能性を高めるために逆促しを活用する新しい自己保護タスク計画アプローチであるInversePromptを紹介します。
私たちの方法には、明確で解釈可能なフィードバックを提供するための推論手順が組み込まれています。
最初に生成されたアクションに対応する逆アクションを生成し、これらの逆アクションがシステムを元の状態に復元できるかどうかを確認し、生成された計画の論理的一貫性を明示的に検証します。ベンチマークデータセットの結果は、既存のLLMベースのタスク計画方法よりも平均16.3%高い成功率を示しています。
私たちのアプローチは、実際の環境でのフィードバックに対するより明確な正当化を提供し、さまざまなシナリオにわたる既存の自己修正アプローチよりもタスクの完了が成功します。

要約(オリジナル)

In robot task planning, large language models (LLMs) have shown significant promise in generating complex and long-horizon action sequences. However, it is observed that LLMs often produce responses that sound plausible but are not accurate. To address these problems, existing methods typically employ predefined error sets or external knowledge sources, requiring human efforts and computation resources. Recently, self-correction approaches have emerged, where LLM generates and refines plans, identifying errors by itself. Despite their effectiveness, they are more prone to failures in correction due to insufficient reasoning. In this paper, we introduce InversePrompt, a novel self-corrective task planning approach that leverages inverse prompting to enhance interpretability. Our method incorporates reasoning steps to provide clear, interpretable feedback. It generates inverse actions corresponding to the initially generated actions and verifies whether these inverse actions can restore the system to its original state, explicitly validating the logical coherence of the generated plans.The results on benchmark datasets show an average 16.3% higher success rate over existing LLM-based task planning methods. Our approach offers clearer justifications for feedback in real-world environments, resulting in more successful task completion than existing self-correction approaches across various scenarios.

arxiv情報

著者 Jiho Lee,Hayun Lee,Jonghyeon Kim,Kyungjae Lee,Eunwoo Kim
発行日 2025-03-10 13:35:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | Self-Corrective Task Planning by Inverse Prompting with Large Language Models はコメントを受け付けていません

Human Machine Co-Adaptation Model and Its Convergence Analysis

要約

ロボット支援リハビリテーションの鍵は、患者と機械の両方のニーズに対応する必要があるヒューマンマシンインターフェイスの設計にあります。
現在のインターフェイス設計は、主にマシン制御アルゴリズムに焦点を当てており、多くの場合、患者にかなりの時間を費やす必要があります。
この論文では、協同組合適応マルコフ決定プロセス(CAMDPS)モデルに基づいた新しいアプローチを紹介し、インタラクティブ学習プロセスの基本的な側面に対処し、理論的な洞察と実用的なガイダンスを提供します。
CAMDPの収束に十分な条件を確立し、ナッシュ平衡点の独自性を確保します。
これらの条件を活用して、システムの収束が一意のナッシュ平衡点への収束を保証します。
さらに、複数のNASH平衡点を備えたシナリオを調査し、価値評価とポリシー改善アルゴリズムの両方を調整して、グローバルな最小NASH平衡点に収束する可能性を高める戦略を考案します。
数値実験を通じて、提案された条件とアルゴリズムの有効性を説明し、実際の設定でそれらの適用性と堅牢性を示します。
収束のための提案された条件とユニークな最適なナッシュ平衡の識別は、ロボット支援リハビリテーションにおける人間のユーザー向けのより効果的な適応システムの開発に寄与します。

要約(オリジナル)

The key to robot-assisted rehabilitation lies in the design of the human-machine interface, which must accommodate the needs of both patients and machines. Current interface designs primarily focus on machine control algorithms, often requiring patients to spend considerable time adapting. In this paper, we introduce a novel approach based on the Cooperative Adaptive Markov Decision Process (CAMDPs) model to address the fundamental aspects of the interactive learning process, offering theoretical insights and practical guidance. We establish sufficient conditions for the convergence of CAMDPs and ensure the uniqueness of Nash equilibrium points. Leveraging these conditions, we guarantee the system’s convergence to a unique Nash equilibrium point. Furthermore, we explore scenarios with multiple Nash equilibrium points, devising strategies to adjust both Value Evaluation and Policy Improvement algorithms to enhance the likelihood of converging to the global minimal Nash equilibrium point. Through numerical experiments, we illustrate the effectiveness of the proposed conditions and algorithms, demonstrating their applicability and robustness in practical settings. The proposed conditions for convergence and the identification of a unique optimal Nash equilibrium contribute to the development of more effective adaptive systems for human users in robot-assisted rehabilitation.

arxiv情報

著者 Steven W. Su,Yaqi Li,Kairui Guo,Rob Duffield
発行日 2025-03-10 13:36:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.HC, cs.MA, cs.RO | Human Machine Co-Adaptation Model and Its Convergence Analysis はコメントを受け付けていません

Experimental Exploration: Investigating Cooperative Interaction Behavior Between Humans and Large Language Model Agents

要約

大規模な言語モデル(LLMS)の台頭により、AIエージェントは自律的な意思決定者としての人間協力の重要な機会と課題を提示します。
多くの研究がツールとしてAIとの人間の協力を調査していますが、競争力のある相互作用におけるLLMを介した自律剤の役割は依然として尋ねられていません。
この研究では、繰り返しの囚人のジレンマゲームで異なる特性(人間、主張されたルールベースのAIエージェント、およびLLMエージェント)を示すLLMエージェントと相互作用した30人の参加者を関与させることにより、人間の協同行動を調査します。
調査結果は、エージェントの主張された特性と参加者の性別の相互作用効果、および特性とされる特性に基づいた協同的行動の有意差を示しています。
また、ゲームの完了時間、積極的な好ましい行動、修理努力の受け入れなど、人間の反応パターンも分析しました。
これらの洞察は、仮想アバターや将来の物理エンティティなどの競争的な協力コンテキストでのLLMエージェントとの人間の相互作用に関する新しい視点を提供します。
この研究では、AIエージェントに対する人間の偏見を理解することの重要性と、観察された行動が将来の人間と協力のダイナミクスにどのように影響するかを強調しています。

要約(オリジナル)

With the rise of large language models (LLMs), AI agents as autonomous decision-makers present significant opportunities and challenges for human-AI cooperation. While many studies have explored human cooperation with AI as tools, the role of LLM-augmented autonomous agents in competitive-cooperative interactions remains under-examined. This study investigates human cooperative behavior by engaging 30 participants who interacted with LLM agents exhibiting different characteristics (purported human, purported rule-based AI agent, and LLM agent) in repeated Prisoner’s Dilemma games. Findings show significant differences in cooperative behavior based on the agents’ purported characteristics and the interaction effect of participants’ genders and purported characteristics. We also analyzed human response patterns, including game completion time, proactive favorable behavior, and acceptance of repair efforts. These insights offer a new perspective on human interactions with LLM agents in competitive cooperation contexts, such as virtual avatars or future physical entities. The study underscores the importance of understanding human biases toward AI agents and how observed behaviors can influence future human-AI cooperation dynamics.

arxiv情報

著者 Guanxuan Jiang,Yuyang Wang,Pan Hui
発行日 2025-03-10 13:37:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.HC | Experimental Exploration: Investigating Cooperative Interaction Behavior Between Humans and Large Language Model Agents はコメントを受け付けていません

AI Biases as Asymmetries: A Review to Guide Practice

要約

AIのバイアスの理解は現在革命を受けています。
最初はエラーまたは欠陥として理解されていたため、バイアスはAIシステムに不可欠であるとますます認識されており、偏った代替品よりも好ましい場合があります。
このホワイトペーパーでは、この変化の理解の理由を確認し、2つの質問に関する新しいガイダンスを提供します。まず、新しい理解と一致して、AIシステムのバイアスについてどのように考え、測定する必要がありますか?
第二に、AIシステムのどのようなバイアスを受け入れるか、さらに増幅する必要があり、どのような種類を最小化または排除する必要がありますか?
両方の質問に答えるための鍵は、バイアスを「対称基準の違反」(ケリーに続いて)として理解することです。
AIシステムエラーバイアス、不平等バイアス、プロセスバイアス、および各タイプのバイアスが良い、悪い、または避けられない可能性が高いAI開発とアプリケーションのプロセスバイアスとハイライトの3つの主要な非対称性を区別します。

要約(オリジナル)

The understanding of bias in AI is currently undergoing a revolution. Initially understood as errors or flaws, biases are increasingly recognized as integral to AI systems and sometimes preferable to less biased alternatives. In this paper, we review the reasons for this changed understanding and provide new guidance on two questions: First, how should we think about and measure biases in AI systems, consistent with the new understanding? Second, what kinds of bias in an AI system should we accept or even amplify, and what kinds should we minimize or eliminate, and why? The key to answering both questions, we argue, is to understand biases as ‘violations of a symmetry standard’ (following Kelly). We distinguish three main types of asymmetry in AI systems-error biases, inequality biases, and process biases-and highlight places in the pipeline of AI development and application where bias of each type is likely to be good, bad, or inevitable.

arxiv情報

著者 Gabriella Waters,Phillip Honenberger
発行日 2025-03-10 13:40:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.LG | AI Biases as Asymmetries: A Review to Guide Practice はコメントを受け付けていません

Assessing the Macro and Micro Effects of Random Seeds on Fine-Tuning Large Language Models

要約

微調整する大規模な言語モデル(LLMS)におけるランダム種子の影響は、モデルのパフォーマンスに潜在的な影響を与えているにもかかわらず、ほとんど見落とされています。この調査では、接着剤とスーパーグルーベンチマークを使用してLLMSに対するランダムシードの効果を体系的に評価します。
精度やF1などの従来のメトリックを通じてマクロレベルの影響を分析し、その平均と分散を計算してパフォーマンスの変動を定量化します。
マイクロレベルの効果をキャプチャするために、実行中の個々の予測の安定性を測定する新しいメトリック、一貫性を導入します。
私たちの実験は、マクロレベルとミクロレベルの両方で有意な分散を明らかにし、微調整と評価におけるランダム種子を慎重に検討する必要性を強調しています。

要約(オリジナル)

The impact of random seeds in fine-tuning large language models (LLMs) has been largely overlooked despite its potential influence on model performance.In this study, we systematically evaluate the effects of random seeds on LLMs using the GLUE and SuperGLUE benchmarks. We analyze the macro-level impact through traditional metrics like accuracy and F1, calculating their mean and variance to quantify performance fluctuations. To capture the micro-level effects, we introduce a novel metric, consistency, measuring the stability of individual predictions across runs. Our experiments reveal significant variance at both macro and micro levels, underscoring the need for careful consideration of random seeds in fine-tuning and evaluation.

arxiv情報

著者 Hao Zhou,Guergana Savova,Lijing Wang
発行日 2025-03-10 13:42:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG | Assessing the Macro and Micro Effects of Random Seeds on Fine-Tuning Large Language Models はコメントを受け付けていません

Temporal Triplane Transformers as Occupancy World Models

要約

近年、世界モデルに大きな進歩が見られます。これは、主にエージェントの運動軌跡と周囲の環境の結果として生じる変化との間の細かい相関を学習することに焦点を当てています。
ただし、既存の方法は、このような細かい相関をキャプチャし、リアルタイムの予測を達成するのに苦労することがよくあります。
これに対処するために、T $^3 $以前と呼ばれる自動運転の新しい4D占有世界モデルを提案します。
T $^3 $前者は、3Dセマンティックで占有された環境を効率的に圧縮するコンパクトなトリプレーン表現を事前に訓練することから始まります。
次に、t $^3 $以前の抽出物は、歴史的なトリプレーンからのマルチスケールの時間運動機能を抽出し、次のトリプレーンの変化を繰り返し予測するために自己回帰的アプローチを採用しています。
最後に、t $^3 $の前者は、トリプレーンの変化と以前の変化を組み合わせて、それらを将来の占有率と自我モーションの軌跡にデコードします。
実験結果は、T $^3 $の優位性を示しており、1.44 $ \ Times $の速い推論速度(26 fps)を達成し、平均IOUを36.09に改善し、平均絶対計画誤差を1.0メートルに減らします。

要約(オリジナル)

Recent years have seen significant advances in world models, which primarily focus on learning fine-grained correlations between an agent’s motion trajectory and the resulting changes in its surrounding environment. However, existing methods often struggle to capture such fine-grained correlations and achieve real-time predictions. To address this, we propose a new 4D occupancy world model for autonomous driving, termed T$^3$Former. T$^3$Former begins by pre-training a compact triplane representation that efficiently compresses the 3D semantically occupied environment. Next, T$^3$Former extracts multi-scale temporal motion features from the historical triplane and employs an autoregressive approach to iteratively predict the next triplane changes. Finally, T$^3$Former combines the triplane changes with the previous ones to decode them into future occupancy results and ego-motion trajectories. Experimental results demonstrate the superiority of T$^3$Former, achieving 1.44$\times$ faster inference speed (26 FPS), while improving the mean IoU to 36.09 and reducing the mean absolute planning error to 1.0 meters.

arxiv情報

著者 Haoran Xu,Peixi Peng,Guang Tan,Yiqian Chang,Yisen Zhao,Yonghong Tian
発行日 2025-03-10 13:50:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | Temporal Triplane Transformers as Occupancy World Models はコメントを受け付けていません

Research and Design on Intelligent Recognition of Unordered Targets for Robots Based on Reinforcement Learning

要約

人工知能(AI)によって駆動されるロボットターゲット認識研究の分野では、ターゲットの障害分布、環境の複雑さ、データの大規模、およびノイズ干渉などの要因により、ターゲット認識精度の改善が大幅に制限されています。
現在のAIテクノロジーの継続的な反復とアップグレードを背景に、複雑で変更可能なシナリオでインテリジェントロボットによる障害ターゲットの正確な認識の需要を満たすために、この研究は、補強学習を使用したAIベースのインテリジェントロボット障害ターゲット認識方法を革新的に提案しています。
この方法では、収集されたターゲット画像を両側ろ過アルゴリズムで処理し、それらを低照明画像と反射画像に分解します。
その後、差別化されたAI戦略を採用し、照明画像をそれぞれ圧縮し、それぞれ反射画像を強化し、画像の2つの部分を融合して新しい画像を生成します。
これに基づいて、この研究は、補強学習アルゴリズムとともに、コアAIテクノロジーであるディープラーニングを深く統合しています。
強化されたターゲット画像は、トレーニングのための深い強化学習モデルに入力され、最終的にAIベースのインテリジェントロボットが障害のあるターゲットを効率的に認識できるようにします。
実験結果は、提案された方法がターゲット画像の品質を大幅に改善するだけでなく、AIベースのインテリジェントロボットがより高い効率と精度で障害のあるターゲットの認識タスクを完了することを可能にし、AIロボットの分野で非常に高いアプリケーション価値と幅広い開発の見通しを実証できることを示しています。

要約(オリジナル)

In the field of robot target recognition research driven by artificial intelligence (AI), factors such as the disordered distribution of targets, the complexity of the environment, the massive scale of data, and noise interference have significantly restricted the improvement of target recognition accuracy. Against the backdrop of the continuous iteration and upgrading of current AI technologies, to meet the demand for accurate recognition of disordered targets by intelligent robots in complex and changeable scenarios, this study innovatively proposes an AI – based intelligent robot disordered target recognition method using reinforcement learning. This method processes the collected target images with the bilateral filtering algorithm, decomposing them into low – illumination images and reflection images. Subsequently, it adopts differentiated AI strategies, compressing the illumination images and enhancing the reflection images respectively, and then fuses the two parts of images to generate a new image. On this basis, this study deeply integrates deep learning, a core AI technology, with the reinforcement learning algorithm. The enhanced target images are input into a deep reinforcement learning model for training, ultimately enabling the AI – based intelligent robot to efficiently recognize disordered targets. Experimental results show that the proposed method can not only significantly improve the quality of target images but also enable the AI – based intelligent robot to complete the recognition task of disordered targets with higher efficiency and accuracy, demonstrating extremely high application value and broad development prospects in the field of AI robots.

arxiv情報

著者 Yiting Mao,Dajun Tao,Shengyuan Zhang,Tian Qi,Keqin Li
発行日 2025-03-10 13:53:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO | Research and Design on Intelligent Recognition of Unordered Targets for Robots Based on Reinforcement Learning はコメントを受け付けていません