Enhancing Trust in Autonomous Agents: An Architecture for Accountability and Explainability through Blockchain and Large Language Models

要約

人間の対話を伴う環境に自律エージェントを導入すると、セキュリティ上の懸念がますます高まっています。
その結果、イベントの背後にある状況を理解することが重要になり、専門家以外のユーザーに対してイベントの行動を正当化する機能の開発が必要になります。
このような説明は、信頼性と安全性を高め、失敗、間違い、誤解を防ぐために不可欠です。
さらに、コミュニケーションの改善にも貢献し、エージェントとユーザーの間のギャップを埋めることで、対話の有効性を向上させます。
この研究では、ROS ベースのモバイル ロボットに実装された説明責任と説明責任のアーキテクチャを示します。
提案されたソリューションは 2 つの主要なコンポーネントで構成されます。
まず、説明責任を提供するブラック ボックスのような要素であり、ブロックチェーン テクノロジーによって実現される改ざん防止機能を備えています。
2 つ目は、前述のブラック ボックス内に含まれるデータに対して大規模言語モデル (LLM) の機能を利用することで、自然言語の説明を生成するコンポーネントです。
この調査では、自律エージェント ナビゲーション機能を含む 3 つの異なるシナリオでソリューションのパフォーマンスを評価しています。
この評価には、説明責任と説明責任の指標の徹底的な検査が含まれており、現実世界のシナリオで自律エージェントの使用に固有の課題に直面している場合でも、ロボットの動作から得られる説明責任のあるデータを使用して、一貫性があり、正確で理解可能な説明を得るというアプローチの有効性を実証しています。

要約(オリジナル)

The deployment of autonomous agents in environments involving human interaction has increasingly raised security concerns. Consequently, understanding the circumstances behind an event becomes critical, requiring the development of capabilities to justify their behaviors to non-expert users. Such explanations are essential in enhancing trustworthiness and safety, acting as a preventive measure against failures, errors, and misunderstandings. Additionally, they contribute to improving communication, bridging the gap between the agent and the user, thereby improving the effectiveness of their interactions. This work presents an accountability and explainability architecture implemented for ROS-based mobile robots. The proposed solution consists of two main components. Firstly, a black box-like element to provide accountability, featuring anti-tampering properties achieved through blockchain technology. Secondly, a component in charge of generating natural language explanations by harnessing the capabilities of Large Language Models (LLMs) over the data contained within the previously mentioned black box. The study evaluates the performance of our solution in three different scenarios, each involving autonomous agent navigation functionalities. This evaluation includes a thorough examination of accountability and explainability metrics, demonstrating the effectiveness of our approach in using accountable data from robot actions to obtain coherent, accurate and understandable explanations, even when facing challenges inherent in the use of autonomous agents in real-world scenarios.

arxiv情報

著者 Laura Fernández-Becerra,Miguel Ángel González-Santamarta,Ángel Manuel Guerrero-Higueras,Francisco Javier Rodríguez-Lera,Vicente Matellán Olivera
発行日 2024-12-19 19:08:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO | コメントする

$\mathcal{L}_1$Quad: $\mathcal{L}_1$ Adaptive Augmentation of Geometric Control for Agile Quadrotors with Performance Guarantees

要約

不完全なモデル知識や外乱が存在する場合でも予測どおりに動作できるクアドロタは、安全性が重視されるアプリケーションでは非常に重要です。
我々は、特別なユークリッド群 SE(3) 上のクアローターの不確実なダイナミクスの一様に制限された過渡応答を保証する制御アーキテクチャである L1Quad を紹介します。
L1Quad アーキテクチャは、幾何学的コントローラーと L1 適応コントローラーを活用することにより、並進力学と回転力学の両方に非線形 (時間と状態に依存する) 不確実性が存在する場合のクアローターの追跡コントローラーの設計と解析のための理論的に正当なフレームワークを提供します。
さらに、さまざまな軌道にわたる 11 種類の不確実性に対する広範な実験を通じて、L1Quad アーキテクチャのパフォーマンスを検証します。
結果は、L1Quad が不確実性や外乱にもかかわらず、一貫して小さな追跡誤差を達成でき、既存の最先端のコントローラーよりも大幅に優れていることを示しています。

要約(オリジナル)

Quadrotors that can operate predictably in the presence of imperfect model knowledge and external disturbances are crucial in safety-critical applications. We present L1Quad, a control architecture that ensures uniformly bounded transient response of the quadrotor’s uncertain dynamics on the special Euclidean group SE(3). By leveraging the geometric controller and the L1 adaptive controller, the L1Quad architecture provides a theoretically justified framework for the design and analysis of quadrotor’s tracking controller in the presence of nonlinear (time- and state-dependent) uncertainties on both the translational and rotational dynamics. In addition, we validate the performance of the L1Quad architecture through extensive experiments for eleven types of uncertainties across various trajectories. The results demonstrate that the L1Quad can achieve consistently small tracking errors despite the uncertainties and disturbances and significantly outperforms existing state-of-the-art controllers.

arxiv情報

著者 Zhuohuan Wu,Sheng Cheng,Pan Zhao,Aditya Gahlawat,Kasey A. Ackerman,Arun Lakshmanan,Chengyu Yang,Jiahao Yu,Naira Hovakimyan
発行日 2024-12-19 19:48:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | コメントする

Scalable and low-cost remote lab platforms: Teaching industrial robotics using open-source tools and understanding its social implications

要約

最近の産業用ロボットの進歩により、学生に新しいテクノロジーを教育し、将来に備えさせることが不可欠です。
しかし、産業用ロボットを教育用に利用するには、これらのロボットの入手コストが高いこと、オペレーターとロボットの安全性、トレーニング教材が複雑であることなどの課題があります。
この論文では、学生がリモート接続された産業用ロボットのアルゴリズムを学習およびテストできるように、ロボット オペレーティング システム (ROS) やその最新バージョン ROS 2 などのオープンソース ツールを使用して構築された 2 つの低コスト プラットフォームを提案します。
ユニバーサル ロボティクス (UR5) アームとカスタム モバイル ローバーが、さまざまな等身大のテストベッド、温室、倉庫に導入され、自律型農業収穫システム (AAHS) と自律型倉庫管理システム (AWMS) が構築されました。
これらのプラットフォームは 7 か月間導入され、それぞれ 1,433 名と 1,312 名の学生を対象にその有効性がテストされました。
AAHS と AWMS で使用されるハードウェアは、3 か月にわたって学生によってそれぞれ 160 時間と 355 時間リモート制御されました。

要約(オリジナル)

With recent advancements in industrial robots, educating students in new technologies and preparing them for the future is imperative. However, access to industrial robots for teaching poses challenges, such as the high cost of acquiring these robots, the safety of the operator and the robot, and complicated training material. This paper proposes two low-cost platforms built using open-source tools like Robot Operating System (ROS) and its latest version ROS 2 to help students learn and test algorithms on remotely connected industrial robots. Universal Robotics (UR5) arm and a custom mobile rover were deployed in different life-size testbeds, a greenhouse, and a warehouse to create an Autonomous Agricultural Harvester System (AAHS) and an Autonomous Warehouse Management System (AWMS). These platforms were deployed for a period of 7 months and were tested for their efficacy with 1,433 and 1,312 students, respectively. The hardware used in AAHS and AWMS was controlled remotely for 160 and 355 hours, respectively, by students over a period of 3 months.

arxiv情報

著者 Amit Kumar,Jaison Jose,Archit Jain,Siddharth Kulkarni,Kavi Arya
発行日 2024-12-19 20:03:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

Tabletop Object Rearrangement: Structure, Complexity, and Efficient Combinatorial Search-Based Solutions

要約

この論文は、インテリジェントなロボット操作の進歩における基礎的なタスクである、オーバーハンド把握による卓上オブジェクトの再配置 (TORO) のための詳細な構造分析と効率的なアルゴリズム ソリューションを提供します。
限られたワークスペースで複数のオブジェクトを再配置するには、主に 2 つの課題があります。1 つはピック アンド プレイス操作 (TORO の NP 困難な問題) を最小限に抑えるためのアクションの順序付け、もう 1 つは、乱雑な環境内での一時的なオブジェクトの配置 (「バッファ ポーズ」) の決定です。これは不可欠です。
それでいて非常に複雑です。
この研究では、利用可能な外部空き領域を持つ TORO について、一時的な再配置に必要な最小バッファ領域、つまり「実行バッファ サイズ」を調査し、理論的な洞察と正確なアルゴリズムの両方を示します。
外部空きスペースのない TORO では、遅延バッファ検証の概念が導入され、シングルアーム、デュアルアーム、モバイル マニピュレータを含むさまざまなマニピュレータ構成にわたってその効率が評価されます。

要約(オリジナル)

This thesis provides an in-depth structural analysis and efficient algorithmic solutions for tabletop object rearrangement with overhand grasps (TORO), a foundational task in advancing intelligent robotic manipulation. Rearranging multiple objects in a confined workspace presents two primary challenges: sequencing actions to minimize pick-and-place operations – an NP-hard problem in TORO – and determining temporary object placements (‘buffer poses’) within a cluttered environment, which is essential yet highly complex. For TORO with available external free space, this work investigates the minimum buffer space, or ‘running buffer size,’ required for temporary relocations, presenting both theoretical insights and exact algorithms. For TORO without external free space, the concept of lazy buffer verification is introduced, with its efficiency evaluated across various manipulator configurations, including single-arm, dual-arm, and mobile manipulators.

arxiv情報

著者 Kai Gao
発行日 2024-12-19 21:03:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

AdaCred: Adaptive Causal Decision Transformers with Feature Crediting

要約

強化学習 (RL) はシーケンス モデリング問題として定式化でき、モデルは過去の状態、行動、報酬のシーケンスに基づいて将来の行動を予測します。
現在のアプローチでは通常、オフライン RL 設定で環境をモデル化するために長い軌道シーケンスが必要です。
ただし、これらのモデルは長期表現の記憶に過度に依存する傾向があり、タスク固有の関連性に基づいて軌跡や学習された表現の重要性を効果的に判断する能力が損なわれます。
この研究では、短期的な行動、報酬、状態のシーケンスから構築された因果グラフとして軌跡を表す新しいアプローチである AdaCred を紹介します。
私たちのモデルは、重要度の低い表現をクレジットして削除することで制御ポリシーを適応的に学習し、下流のタスクに最も関連性の高い表現のみを保持します。
私たちの実験では、AdaCred ベースのポリシーはより短い軌道シーケンスを必要とし、オフラインの強化学習環境と模倣学習環境の両方で従来の方法よりも一貫して優れたパフォーマンスを発揮することを示しています。

要約(オリジナル)

Reinforcement learning (RL) can be formulated as a sequence modeling problem, where models predict future actions based on historical state-action-reward sequences. Current approaches typically require long trajectory sequences to model the environment in offline RL settings. However, these models tend to over-rely on memorizing long-term representations, which impairs their ability to effectively attribute importance to trajectories and learned representations based on task-specific relevance. In this work, we introduce AdaCred, a novel approach that represents trajectories as causal graphs built from short-term action-reward-state sequences. Our model adaptively learns control policy by crediting and pruning low-importance representations, retaining only those most relevant for the downstream task. Our experiments demonstrate that AdaCred-based policies require shorter trajectory sequences and consistently outperform conventional methods in both offline reinforcement learning and imitation learning environments.

arxiv情報

著者 Hemant Kumawat,Saibal Mukhopadhyay
発行日 2024-12-19 22:22:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | コメントする

An Environment-Adaptive Position/Force Control Based on Physical Property Estimation

要約

ロボットの動作を生成する技術は、業務の自動化・効率化に大きく貢献しています。
しかし、形状や硬さの異なる物体に適応する能力は、一般的な産業用ロボットにとって依然として課題です。
運動再生システム (MRS) は、位置と力の制御を使用して以前に取得したアクションを複製しますが、大きく異なる環境に合わせてアクションを生成することは困難です。
さらに、機械学習に基づく手法では、大量の動作データを取得する必要があります。
この論文では、事前に記録された 2 つの行動データのインピーダンスを現在の環境インピーダンスと一致させ、適応性の高い行動を生成する新しい方法を提案します。
この方法では、電流インピーダンスに基づいて位置と力の指令値を再計算し、さまざまな環境での再現性を向上させます。
位置制御や力制御などの極端な動作インピーダンスの条件下で行われた実験により、提案手法がMRSよりも優れていることが確認されました。
この手法の利点としては、使用するモーションデータが2セットのみであること、機械学習ベースの手法と比較してデータ取得の負担が大幅に軽減されること、既存の安定制御システムを利用することで安定性への懸念が解消されることが挙げられます。
本研究は、動作生成手法を簡素化しつつ、ロボットの環境適応性の向上に貢献します。

要約(オリジナル)

The technology for generating robot actions has significantly contributed to the automation and efficiency of tasks. However, the ability to adapt to objects of different shapes and hardness remains a challenge for general industrial robots. Motion reproduction systems (MRS) replicate previously acquired actions using position and force control, but generating actions for significantly different environments is difficult. Furthermore, methods based on machine learning require the acquisition of a large amount of motion data. This paper proposes a new method that matches the impedance of two pre-recorded action data with the current environmental impedance to generate highly adaptable actions. This method recalculates the command values for position and force based on the current impedance to improve reproducibility in different environments. Experiments conducted under conditions of extreme action impedance, such as position control and force control, confirmed the superiority of the proposed method over MRS. The advantages of this method include using only two sets of motion data, significantly reducing the burden of data acquisition compared to machine learning-based methods, and eliminating concerns about stability by using existing stable control systems. This study contributes to improving robots’ environmental adaptability while simplifying the action generation method.

arxiv情報

著者 Tomoya Kitamura,Yuki Saito,Hiroshi Asai,Kouhei Ohnishi
発行日 2024-12-19 22:29:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

LiHi-GS: LiDAR-Supervised Gaussian Splatting for Highway Driving Scene Reconstruction

要約

フォトリアリスティックな 3D シーンの再構築は自動運転において重要な役割を果たしており、既存のデータセットから新しいデータを生成して、安全性が重要なシナリオをシミュレートし、追加の取得コストをかけずにトレーニング データを拡張できるようになります。
ガウス スプラッティング (GS) は、シーンの明示的な 3D ガウス表現によるリアルタイムのフォトリアリスティックなレンダリングを容易にし、暗黙的なニューラル ラディアンス フィールド (NeRF) よりも高速な処理とより直感的なシーン編集を実現します。
広範な GS 研究により、自動運転アプリケーションにおける有望な進歩が得られましたが、2 つの重要な側面が見落とされています。1 つ目は、既存の手法は主に低速で機能豊富な都市シーンに焦点を当てており、高速道路のシナリオが自動運転において重要な役割を果たしているという事実を無視しています。
第 2 に、LiDAR は自動運転プラットフォームでは一般的ですが、既存の手法は主に画像から学習し、LiDAR を初期推定のみに使用するか、正確なセンサー モデリングを行わずに使用するため、LiDAR が提供する豊富な深度情報を活用できず、LiDAR データを合成する機能が制限されます。
この論文では、LiDAR の監視と LiDAR レンダリングのサポートを通じてシーンの再構築を改善した、動的なシーンの合成と編集のための新しい GS 手法を提案します。
主に都市データセットでテストされたこれまでの作品とは異なり、私たちの知る限りでは、まばらなセンサー ビューとモノトーンの背景を備えた、より困難で自動運転に関連性の高い高速道路のシーンに焦点を当てた最初の作品です。

要約(オリジナル)

Photorealistic 3D scene reconstruction plays an important role in autonomous driving, enabling the generation of novel data from existing datasets to simulate safety-critical scenarios and expand training data without additional acquisition costs. Gaussian Splatting (GS) facilitates real-time, photorealistic rendering with an explicit 3D Gaussian representation of the scene, providing faster processing and more intuitive scene editing than the implicit Neural Radiance Fields (NeRFs). While extensive GS research has yielded promising advancements in autonomous driving applications, they overlook two critical aspects: First, existing methods mainly focus on low-speed and feature-rich urban scenes and ignore the fact that highway scenarios play a significant role in autonomous driving. Second, while LiDARs are commonplace in autonomous driving platforms, existing methods learn primarily from images and use LiDAR only for initial estimates or without precise sensor modeling, thus missing out on leveraging the rich depth information LiDAR offers and limiting the ability to synthesize LiDAR data. In this paper, we propose a novel GS method for dynamic scene synthesis and editing with improved scene reconstruction through LiDAR supervision and support for LiDAR rendering. Unlike prior works that are tested mostly on urban datasets, to the best of our knowledge, we are the first to focus on the more challenging and highly relevant highway scenes for autonomous driving, with sparse sensor views and monotone backgrounds.

arxiv情報

著者 Pou-Chun Kung,Xianling Zhang,Katherine A. Skinner,Nikita Jaipuria
発行日 2024-12-19 22:59:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO | コメントする

Designing Robot Identity: The Role of Voice, Clothing, and Task on Robot Gender Perception

要約

ジェンダーの認識は人間と人間の相互作用の重要な側面であり、人間と対話することが期待される環境に配備されたロボットにとって、ジェンダーは広範な社会的影響を及ぼします。
この研究では、ロボットの性別を伝えるための 2 つの柔軟な方法 (音声と外観) を調査し、ロボットの性別認識に対するそれらの個別の影響と組み合わせた影響を研究しました。
私たちは、3 つのビデオベースの研究を通じてロボットの性別の認識を評価しました。
まず、話者のアイデンティティとピッチを変化させることにより、ロボットの音声の性別認識に関する研究 (n=65) を実施しました。
次に、2 つの異なるタスク用に設計されたロボットの衣服の性別認識に関する研究 (n=93) を実施しました。
最後に、最初の 2 つの研究の結果に基づいて、人間とロボットの 2 つのインタラクション タスクを含む大規模なビデオベースの統合研究 (n=273) を完了しました。
私たちは、声と服装を使用してロボットの知覚される性別を確実に確立できること、およびこれら 2 つのモダリティを組み合わせるとロボットの知覚される性別に異なる影響を与える可能性があることを発見しました。
総合すると、これらの結果は、ロボットの性別の認識における個別の相互作用するコンポーネントとしてのロボットの声と衣服のデザインに情報を与えます。

要約(オリジナル)

Perceptions of gender are a significant aspect of human-human interaction, and gender has wide-reaching social implications for robots deployed in contexts where they are expected to interact with humans. This work explored two flexible modalities for communicating gender in robots–voice and appearance–and we studied their individual and combined influences on a robot’s perceived gender. We evaluated the perception of a robot’s gender through three video-based studies. First, we conducted a study (n=65) on the gender perception of robot voices by varying speaker identity and pitch. Second, we conducted a study (n=93) on the gender perception of robot clothing designed for two different tasks. Finally, building on the results of the first two studies, we completed a large integrative video-based study (n=273) involving two human-robot interaction tasks. We found that voice and clothing can be used to reliably establish a robot’s perceived gender, and that combining these two modalities can have different effects on the robot’s perceived gender. Taken together, these results inform the design of robot voices and clothing as individual and interacting components in the perceptions of robot gender.

arxiv情報

著者 Nathaniel S. Dennler,Mina Kian,Stefanos Nikolaidis,Maja Matarić
発行日 2024-12-19 23:20:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | コメントする

TalkWithMachines: Enhancing Human-Robot Interaction for Interpretable Industrial Robotics Through Large/Vision Language Models

要約

TalkWithMachines は、特に安全性が重要なアプリケーション向けに、解釈可能な産業用ロボット システムに貢献することで、人間とロボットのインタラクションを強化することを目指しています。
発表された論文では、ロボットの認識および制御と組み合わせた、大規模言語モデル (LLM) および視覚言語モデル (VLM) の最近の進歩を調査します。
この統合により、ロボットは自然言語で与えられたコマンドを理解して実行し、視覚的および/または説明的な入力を通じて環境を認識できるようになります。
さらに、LLM の内部状態と推論を人間が容易に理解できるテキストに翻訳することで、オペレーターはロボットの現在の状態と意図をより明確に把握できるようになり、効果的かつ安全な操作に不可欠です。
私たちの論文では、LLM を利用した 4 つのシミュレートされたロボット制御ワークフローの概要を説明します。これらのワークフローでは、(i) 低レベルの制御、(ii) ロボットの内部状態を記述する言語ベースのフィードバックの生成、(iii) 追加入力としての視覚情報の使用を検討します。
(iv) ロボットの身体的能力と制限を考慮した、タスク計画とフィードバックを生成するためのロボット構造情報の使用。
提案された概念は、簡単な説明とともに一連の実験で示されます。
プロジェクトの説明、ビデオ、補足資料は、プロジェクト Web サイト (https://talk-machines.github.io) で入手できます。

要約(オリジナル)

TalkWithMachines aims to enhance human-robot interaction by contributing to interpretable industrial robotic systems, especially for safety-critical applications. The presented paper investigates recent advancements in Large Language Models (LLMs) and Vision Language Models (VLMs), in combination with robotic perception and control. This integration allows robots to understand and execute commands given in natural language and to perceive their environment through visual and/or descriptive inputs. Moreover, translating the LLM’s internal states and reasoning into text that humans can easily understand ensures that operators gain a clearer insight into the robot’s current state and intentions, which is essential for effective and safe operation. Our paper outlines four LLM-assisted simulated robotic control workflows, which explore (i) low-level control, (ii) the generation of language-based feedback that describes the robot’s internal states, (iii) the use of visual information as additional input, and (iv) the use of robot structure information for generating task plans and feedback, taking the robot’s physical capabilities and limitations into account. The proposed concepts are presented in a set of experiments, along with a brief discussion. Project description, videos, and supplementary materials will be available on the project website: https://talk-machines.github.io.

arxiv情報

著者 Ammar N. Abbas,Csaba Beleznai
発行日 2024-12-19 23:43:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.HC, cs.LG, cs.RO | コメントする

Toward Appearance-based Autonomous Landing Site Identification for Multirotor Drones in Unstructured Environments

要約

マルチロータードローン飛行における残りの課題は、構造化されていない環境で実行可能な着陸地点を自律的に識別することです。
この問題を解決する 1 つのアプローチは、ドローンの RGB 画像を安全な領域と安全でない領域にセグメント化できる、軽量の外観ベースの地形分類器を作成することです。
ただし、このような分類子には画像とマスクのデータ セットが必要で、作成に法外な費用がかかる可能性があります。
私たちは、最新のドローンの地形を自動的に測量する機能と、そのような測量から得られた地形モデルから着陸安全マスクを自動的に計算する機能を活用して、これらの分類器をトレーニングするための合成データセットを自動的に生成するパイプラインを提案します。
次に、合成データセットで U-Net をトレーニングし、検証のために実世界のデータでテストし、ドローン プラットフォームでリアルタイムにデモンストレーションします。

要約(オリジナル)

A remaining challenge in multirotor drone flight is the autonomous identification of viable landing sites in unstructured environments. One approach to solve this problem is to create lightweight, appearance-based terrain classifiers that can segment a drone’s RGB images into safe and unsafe regions. However, such classifiers require data sets of images and masks that can be prohibitively expensive to create. We propose a pipeline to automatically generate synthetic data sets to train these classifiers, leveraging modern drones’ ability to survey terrain automatically and the ability to automatically calculate landing safety masks from terrain models derived from such surveys. We then train a U-Net on the synthetic data set, test it on real-world data for validation, and demonstrate it on our drone platform in real-time.

arxiv情報

著者 Joshua Springer,Gylfi Þór Guðmundsson,Marcel Kyas
発行日 2024-12-20 01:48:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, cs.RO | コメントする