要約
ソーラーセンサーベースの監視システムは、センサーテクノロジー、インターネット、エッジおよびクラウドコンピューティングを統合することで、農場管理と動物福祉を促進する重要な農業革新となっています。
ただし、これらのシステムのサイバー攻撃に対する回復力と、動的で制約されたエネルギー供給に対する適応性は、ほとんど未踏のままです。
これらの課題に対処するために、さまざまなサイバーおよび敵対的な脅威の下で高品質の動物の監視を維持するように設計された持続可能なスマートファームネットワークを提案します。
私たちのアプローチは、監視の有効性とエネルギー効率の両方を最大化する最適なポリシーを考案するために、ディープ補強学習(DRL)を利用しています。
DRLの遅い収束という固有の課題を克服するために、転送学習(TL)と決定理論(DT)を統合して、学習プロセスを加速します。
DT誘導戦略を組み込むことにより、監視の品質とエネルギーの持続可能性を最適化し、同等のパフォーマンス報酬を達成しながらトレーニング時間を大幅に短縮します。
私たちの実験結果は、DT誘導DRLがTL強化DRLモデルを上回り、システムのパフォーマンスを改善し、トレーニングランタイムを47.5%削減することを証明しています。
要約(オリジナル)
Solar sensor-based monitoring systems have become a crucial agricultural innovation, advancing farm management and animal welfare through integrating sensor technology, Internet-of-Things, and edge and cloud computing. However, the resilience of these systems to cyber-attacks and their adaptability to dynamic and constrained energy supplies remain largely unexplored. To address these challenges, we propose a sustainable smart farm network designed to maintain high-quality animal monitoring under various cyber and adversarial threats, as well as fluctuating energy conditions. Our approach utilizes deep reinforcement learning (DRL) to devise optimal policies that maximize both monitoring effectiveness and energy efficiency. To overcome DRL’s inherent challenge of slow convergence, we integrate transfer learning (TL) and decision theory (DT) to accelerate the learning process. By incorporating DT-guided strategies, we optimize monitoring quality and energy sustainability, significantly reducing training time while achieving comparable performance rewards. Our experimental results prove that DT-guided DRL outperforms TL-enhanced DRL models, improving system performance and reducing training runtime by 47.5%.
arxiv情報
著者 | Dian Chen,Zelin Wan,Dong Sam Ha,Jin-Hee Cho |
発行日 | 2025-05-06 17:49:06+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google