Exploiting Trust for Resilient Hypothesis Testing with Malicious Robots (evolved version)

要約

敵対的なマルチロボット クラウドセンシング タスクにおける意思決定のための回復力のあるバイナリ仮説テスト フレームワークを開発します。
このフレームワークは、ロボット間の確率的信頼観察を利用して、i) ネットワークに悪意のあるロボットが存在し、その数が正当なロボットの数よりも多い場合でも、集中型のフュージョン センター (FC) で扱いやすく回復力のある意思決定を行います。ii
) FC は、すべてのロボットからのワンショット ノイズ測定値を使用します。
これを実現するために 2 つのアルゴリズムを導き出します。
1 つ目は、受信した信頼観測に基づいてロボットの正当性を推定し、最悪の場合の悪意のある攻撃で検出エラーの可能性を最小限に抑える 2 段階アプローチ (2SA) です。
ここで、悪意のあるロボットの割合はわかっていますが、恣意的です。
悪意のあるロボットの割合が不明な場合のために、報告されたロボット測定値と信頼観察の両方を使用して、ロボットの信頼性、ロボットの報告戦略、および正しい仮説を同時に推定する、Adversarial Generalized Likelihood Ratio Test (A-GLRT) を開発します。
.
特別な問題構造を利用して、いくつかの未知の問題パラメータにもかかわらず、このアプローチが計算的に扱いやすいことを示します。
両方のアルゴリズムをハードウェア実験に展開します。この実験では、ロボットのグループが、Sybil 攻撃を受ける、Google マップに似た精神のモックアップ道路網で交通状況のクラウドセンシングを行います。
送信者の一意性に関する統計情報を提供する実際の通信信号から、各ロボットの信頼観察を抽出します。
悪意のあるロボットが多数派であっても、FC は検出エラーの確率を 2SA と A-GLRT でそれぞれ 30.5% と 29% に減らすことができることを示しています。

要約(オリジナル)

We develop a resilient binary hypothesis testing framework for decision making in adversarial multi-robot crowdsensing tasks. This framework exploits stochastic trust observations between robots to arrive at tractable, resilient decision making at a centralized Fusion Center (FC) even when i) there exist malicious robots in the network and their number may be larger than the number of legitimate robots, and ii) the FC uses one-shot noisy measurements from all robots. We derive two algorithms to achieve this. The first is the Two Stage Approach (2SA) that estimates the legitimacy of robots based on received trust observations, and provably minimizes the probability of detection error in the worst-case malicious attack. Here, the proportion of malicious robots is known but arbitrary. For the case of an unknown proportion of malicious robots, we develop the Adversarial Generalized Likelihood Ratio Test (A-GLRT) that uses both the reported robot measurements and trust observations to estimate the trustworthiness of robots, their reporting strategy, and the correct hypothesis simultaneously. We exploit special problem structure to show that this approach remains computationally tractable despite several unknown problem parameters. We deploy both algorithms in a hardware experiment where a group of robots conducts crowdsensing of traffic conditions on a mock-up road network similar in spirit to Google Maps, subject to a Sybil attack. We extract the trust observations for each robot from actual communication signals which provide statistical information on the uniqueness of the sender. We show that even when the malicious robots are in the majority, the FC can reduce the probability of detection error to 30.5% and 29% for the 2SA and the A-GLRT respectively.

arxiv情報

著者 Matthew Cavorsi,Orhan Eren Akgün,Michal Yemini,Andrea Goldsmith,Stephanie Gil
発行日 2023-03-07 17:36:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク