PoseLess: Depth-Free Vision-to-Joint Control via Direct Image Mapping with VLM

要約

このペーパーでは、投影表現を使用して2D画像をジョイントアングルに直接マッピングすることにより、明示的なポーズ推定の必要性を排除するロボットハンドコントロールの新しいフレームワークであるPoselessを紹介します。
当社のアプローチは、ランダム化されたジョイント構成によって生成された合成トレーニングデータを活用し、実際のシナリオへのゼロショット一般化とロボットから人間の手への横断的転送を可能にします。
視覚入力を投影し、トランスベースのデコーダーを使用することにより、Poselessは、深さのあいまいさやデータ不足などの課題に対処しながら、堅牢で低遅延の制御を実現します。
実験結果は、人間で標識されたデータセットに依存することなく、関節角度予測精度の競争力を示しています。

要約(オリジナル)

This paper introduces PoseLess, a novel framework for robot hand control that eliminates the need for explicit pose estimation by directly mapping 2D images to joint angles using projected representations. Our approach leverages synthetic training data generated through randomized joint configurations, enabling zero-shot generalization to real-world scenarios and cross-morphology transfer from robotic to human hands. By projecting visual inputs and employing a transformer-based decoder, PoseLess achieves robust, low-latency control while addressing challenges such as depth ambiguity and data scarcity. Experimental results demonstrate competitive performance in joint angle prediction accuracy without relying on any human-labelled dataset.

arxiv情報

著者 Alan Dao,Dinh Bach Vu,Tuan Le Duc Anh,Bui Quang Huy
発行日 2025-03-11 02:26:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.RO | PoseLess: Depth-Free Vision-to-Joint Control via Direct Image Mapping with VLM はコメントを受け付けていません

Inductive Moment Matching

要約

拡散モデルとフローマッチングは、高品質のサンプルを生成しますが、推論では遅くなり、それらを少数のモデルに蒸留することは、しばしば不安定性と広範なチューニングにつながります。
これらのトレードオフを解決するために、単一段階のトレーニング手順を備えた1つまたは少数のサンプリングのための新しいクラスの生成モデルである帰納的モーメントマッチング(IMM)を提案します。
蒸留とは異なり、IMMは2つのネットワークのトレーニング前の初期化と最適化を必要としません。
また、一貫性モデルとは異なり、IMMは分布レベルの収束を保証し、さまざまなハイパーパラメーターと標準モデルアーキテクチャの下で安定したままです。
IMMは、8つの推論ステップのみを使用して1.99 FIDでImagenet-256×256で拡散モデルを上回り、ゼロからトレーニングされたモデルのCIFAR-10で最先端の2ステップFIDをCIFAR-10で達成します。

要約(オリジナル)

Diffusion models and Flow Matching generate high-quality samples but are slow at inference, and distilling them into few-step models often leads to instability and extensive tuning. To resolve these trade-offs, we propose Inductive Moment Matching (IMM), a new class of generative models for one- or few-step sampling with a single-stage training procedure. Unlike distillation, IMM does not require pre-training initialization and optimization of two networks; and unlike Consistency Models, IMM guarantees distribution-level convergence and remains stable under various hyperparameters and standard model architectures. IMM surpasses diffusion models on ImageNet-256×256 with 1.99 FID using only 8 inference steps and achieves state-of-the-art 2-step FID of 1.98 on CIFAR-10 for a model trained from scratch.

arxiv情報

著者 Linqi Zhou,Stefano Ermon,Jiaming Song
発行日 2025-03-11 02:29:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ML | Inductive Moment Matching はコメントを受け付けていません

An Imitative Reinforcement Learning Framework for Autonomous Dogfight

要約

無人の戦闘航空機(UCAV)ドッグファイトは、通常、近くの2つ以上のUCAV間の戦いを指し、空中の戦場で決定的な役割を果たします。
人工知能の進化に伴い、ドッグファイトは徐々にインテリジェントモードで自律的なモードに向かって通過します。
ただし、自律的なドッグファイトポリシー学習の開発は、弱い探査能力、低学習効率、非現実的なシミュレーション環境などの課題によって妨げられています。
これらの課題を克服するために、このペーパーでは、自律的な調査を可能にしながら専門家のデータを効率的に活用する新しい模倣強化学習フレームワークを提案します。
提案されたフレームワークは、専門家の模倣を通じて学習効率を向上させるだけでなく、強化学習を伴う自律探査を介して動的環境への適応性を保証します。
したがって、提案されたフレームワークは、UCAVの「追跡ロック発売」という成功したドッグファイトポリシーを学ぶことができます。
データ駆動型の学習をサポートするために、harfang3Dサンドボックスに基づいてドッグファイト環境を確立し、そこで広範な実験を実施します。
結果は、提案されたフレームワークが多段階のドッグファイトに優れており、最先端の強化学習と模倣学習方法を大幅に上回ることを示しています。
専門家と自律的な探求を模倣する能力のおかげで、私たちのフレームワークは、複雑な航空戦闘タスクの重要な知識を迅速に学び、最大100%の成功率を達成し、優れた堅牢性を実証することができます。

要約(オリジナル)

Unmanned Combat Aerial Vehicle (UCAV) dogfight, which refers to a fight between two or more UCAVs usually at close quarters, plays a decisive role on the aerial battlefields. With the evolution of artificial intelligence, dogfight progressively transits towards intelligent and autonomous modes. However, the development of autonomous dogfight policy learning is hindered by challenges such as weak exploration capabilities, low learning efficiency, and unrealistic simulated environments. To overcome these challenges, this paper proposes a novel imitative reinforcement learning framework, which efficiently leverages expert data while enabling autonomous exploration. The proposed framework not only enhances learning efficiency through expert imitation, but also ensures adaptability to dynamic environments via autonomous exploration with reinforcement learning. Therefore, the proposed framework can learn a successful dogfight policy of ‘pursuit-lock-launch’ for UCAVs. To support data-driven learning, we establish a dogfight environment based on the Harfang3D sandbox, where we conduct extensive experiments. The results indicate that the proposed framework excels in multistage dogfight, significantly outperforms state-of-the-art reinforcement learning and imitation learning methods. Thanks to the ability of imitating experts and autonomous exploration, our framework can quickly learn the critical knowledge in complex aerial combat tasks, achieving up to a 100% success rate and demonstrating excellent robustness.

arxiv情報

著者 Siyuan Li,Rongchang Zuo,Bofei Liu,Peng Liu,Yingnan Zhao
発行日 2025-03-10 13:46:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO | An Imitative Reinforcement Learning Framework for Autonomous Dogfight はコメントを受け付けていません

Blind-Wayfarer: A Minimalist, Probing-Driven Framework for Resilient Navigation in Perception-Degraded Environments

要約

カメラやライダーセンサーなどの外部受容センサーが閉塞、低光条件、またはセンサーノイズで失敗する場合、密な森林や険しい地形を通る自律ロボットをナビゲートすることは、特に困難です。
私たちは、主にコンパスに依存する迷路解決アルゴリズムに触発されたプローブ駆動型ナビゲーションフレームワークであるブラインドウェイファーラーを提示します。
1,000のシミュレートされた森林実験で、ブラインドウェイファーラーは99.7%の成功率を達成しました。
さまざまなサイズのRoverプラットフォームを使用して、2つの異なるシナリオでの実際のテストでは、20回の試行すべてで森林の閉じ込めを正常に逃れました。
驚くべきことに、私たちのフレームワークにより、ロボットは濃い森林から逃げることができ、森の中の45 mからその端の舗装された経路に移動しました。
これらの調査結果は、挑戦的な知覚分解されたフィールド条件における信頼できるナビゲーションのためのプロービングベースの方法の可能性を強調しています。
ビデオとコードは、当社のWebサイトhttps://sites.google.com/view/blind-wayfarerで入手できます

要約(オリジナル)

Navigating autonomous robots through dense forests and rugged terrains is especially daunting when exteroceptive sensors — such as cameras and LiDAR sensors — fail under occlusions, low-light conditions, or sensor noise. We present Blind-Wayfarer, a probing-driven navigation framework inspired by maze-solving algorithms that relies primarily on a compass to robustly traverse complex, unstructured environments. In 1,000 simulated forest experiments, Blind-Wayfarer achieved a 99.7% success rate. In real-world tests in two distinct scenarios — with rover platforms of different sizes — our approach successfully escaped forest entrapments in all 20 trials. Remarkably, our framework also enabled a robot to escape a dense woodland, traveling from 45 m inside the forest to a paved pathway at its edge. These findings highlight the potential of probing-based methods for reliable navigation in challenging perception-degraded field conditions. Videos and code are available on our website https://sites.google.com/view/blind-wayfarer

arxiv情報

著者 Yanran Xu,Klaus-Peter Zauner,Danesh Tarapore
発行日 2025-03-10 16:12:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Blind-Wayfarer: A Minimalist, Probing-Driven Framework for Resilient Navigation in Perception-Degraded Environments はコメントを受け付けていません

Force Aware Branch Manipulation To Assist Agricultural Tasks

要約

この研究は、さまざまな農業タスクを支援するために支部を安全に操作する方法を提示します。
実際の農業環境の人間は、しばしば農業タスクを効果的に実行するために枝を操作しますが、現在の農業ロボットにはこの能力がありません。
枝を操作するためのこの提案された戦略は、密な葉のフルーツピッキング、閉塞の下で花を受粉し、ナビゲーションのための張り出しのブドウと枝を移動するなど、さまざまな精密な農業タスクに役立ちます。
提案された方法は、RRT*を変更して、ブランチの幾何学的制約を満たし、分岐の変形可能な特性に従うパスを計画します。
再計画は、ロボットが操作中に枝が損傷しないように、ロボットが目的の範囲内で力を発揮するのに役立つパスを取得するために行われます。
実験的に、この方法は50回の試行で78 \%の成功率を達成し、異なる出発点からターゲット領域にブランチを移動することに成功しました。

要約(オリジナル)

This study presents a methodology to safely manipulate branches to aid various agricultural tasks. Humans in a real agricultural environment often manipulate branches to perform agricultural tasks effectively, but current agricultural robots lack this capability. This proposed strategy to manipulate branches can aid in different precision agriculture tasks, such as fruit picking in dense foliage, pollinating flowers under occlusion, and moving overhanging vines and branches for navigation. The proposed method modifies RRT* to plan a path that satisfies the branch geometric constraints and obeys branch deformable characteristics. Re-planning is done to obtain a path that helps the robot exert force within a desired range so that branches are not damaged during manipulation. Experimentally, this method achieved a success rate of 78\% across 50 trials, successfully moving a branch from different starting points to a target region.

arxiv情報

著者 Madhav Rijal,Rashik Shrestha,Trevor Smith,Yu Gu
発行日 2025-03-10 16:13:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Force Aware Branch Manipulation To Assist Agricultural Tasks はコメントを受け付けていません

PIPE Planner: Pathwise Information Gain with Map Predictions for Indoor Robot Exploration

要約

未知の環境での自律調査には、計画の決定を導くためのアクションの情報ゲインを推定する必要があります。
事前のアプローチは多くの場合、個別のウェイポイントで情報ゲインを計算しますが、PathWise Integrationはより包括的な推定を提供しますが、多くの場合、計算上挑戦的または実行不可能であり、過大評価を受けやすくなります。
この作業では、Exploration(Pipe)プランナーのMAP予測でPathWise情報ゲインを提案します。これは、MAPの予測を活用して過大評価を軽減しながら、計画された軌跡に沿った累積センサーカバレッジを統合します。
効率的なPathwiseカバレッジ計算を有効にするために、計画されたパスに沿って予想される観測マスクを効率的に計算する方法を導入し、計算オーバーヘッドを大幅に削減します。
実際のフロアプランデータセットのパイプを検証し、最先端のベースラインよりも優れたパフォーマンスを示しています。
私たちの結果は、予測マッピングをPathWise情報ゲインと効率的で情報に基づいた探索の統合の利点を強調しています。

要約(オリジナル)

Autonomous exploration in unknown environments requires estimating the information gain of an action to guide planning decisions. While prior approaches often compute information gain at discrete waypoints, pathwise integration offers a more comprehensive estimation but is often computationally challenging or infeasible and prone to overestimation. In this work, we propose the Pathwise Information Gain with Map Prediction for Exploration (PIPE) planner, which integrates cumulative sensor coverage along planned trajectories while leveraging map prediction to mitigate overestimation. To enable efficient pathwise coverage computation, we introduce a method to efficiently calculate the expected observation mask along the planned path, significantly reducing computational overhead. We validate PIPE on real-world floorplan datasets, demonstrating its superior performance over state-of-the-art baselines. Our results highlight the benefits of integrating predictive mapping with pathwise information gain for efficient and informed exploration.

arxiv情報

著者 Seungjae Baek,Brady Moon,Seungchan Kim,Muqing Cao,Cherie Ho,Sebastian Scherer,Jeong hwan Jeon
発行日 2025-03-10 16:27:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | PIPE Planner: Pathwise Information Gain with Map Predictions for Indoor Robot Exploration はコメントを受け付けていません

Maintaining Plasticity in Reinforcement Learning: A Cost-Aware Framework for Aerial Robot Control in Non-stationary Environments

要約

Rehnection Learning(RL)は、航空ロボット制御における短期トレーニングを通じて政策の可塑性を維持する能力を実証しています。
ただし、これらのポリシーは、非定常環境での長期学習に拡張された場合、可塑性の損失が示されています。
たとえば、標準的な近位ポリシー最適化(PPO)ポリシーは、長期トレーニング設定で崩壊し、大幅な制御性能劣化につながることが観察されます。
この問題に対処するために、この作業は、RLトレーニングの報酬と損失を非定常環境とバランスさせるために、レトロスペクティブコストメカニズム(Recom)を使用するコスト認識フレームワークを提案します。
報酬と損失のコスト勾配関係を使用して、フレームワークは学習率を動的に更新して、乱れた風力環境で制御ポリシーを積極的にトレーニングします。
私たちの実験結果は、私たちのフレームワークが、さまざまな風の状態で政策崩壊することなくホバリングタスクのポリシーを学んだことを示しており、PPOによるL2の正規化よりも休眠ユニットが11.29%少ないという結果が成功しています。

要約(オリジナル)

Reinforcement learning (RL) has demonstrated the ability to maintain the plasticity of the policy throughout short-term training in aerial robot control. However, these policies have been shown to loss of plasticity when extended to long-term learning in non-stationary environments. For example, the standard proximal policy optimization (PPO) policy is observed to collapse in long-term training settings and lead to significant control performance degradation. To address this problem, this work proposes a cost-aware framework that uses a retrospective cost mechanism (RECOM) to balance rewards and losses in RL training with a non-stationary environment. Using a cost gradient relation between rewards and losses, our framework dynamically updates the learning rate to actively train the control policy in a disturbed wind environment. Our experimental results show that our framework learned a policy for the hovering task without policy collapse in variable wind conditions and has a successful result of 11.29% less dormant units than L2 regularization with PPO.

arxiv情報

著者 Ali Tahir Karasahin,Ziniu Wu,Basaran Bahadir Kocer
発行日 2025-03-10 16:35:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Maintaining Plasticity in Reinforcement Learning: A Cost-Aware Framework for Aerial Robot Control in Non-stationary Environments はコメントを受け付けていません

TinySense: A Lighter Weight and More Power-efficient Avionics System for Flying Insect-scale Robots

要約

このホワイトペーパーでは、グラム未満の自律的な空飛ぶ昆虫ロボット(FIR)のセンサースイートに進歩を紹介します。
FIRは、体重とサイズが少ないため、材料コストとスケーラビリティの点で比類のない利点を提供します。
ただし、それらのサイズは、かなりの制御課題、特に高速ダイナミクス、制限された電力、および限られたペイロード容量をもたらします。
軽量センサーの開発には注目に値する進歩があり、多くの場合生物学的システムからインスピレーションを得ていますが、モーションキャプチャシステムなどの外部センシングからのフィードバックに依存することなく、サブグラム航空機は持続的なホバーを達成することはできませんでした。
持続的なホバリングが可能な最も軽い車両 – 「センサーの自律性」の最初のレベル – は、はるかに大きい28 g crazyflieです。
以前の研究では、その車両のアビオニクススイートのサイズが187 mgと21 MWに減少したことが報告されていました。
ここでは、質量と電力のさらなる減少を78.4 mgと15 mWのみに報告します。
レーザーレンジファインダーをより軽量でより効率的な圧力センサーに置き換え、グローバルシッターイメージングチップの周りに小さな光学フローセンサーを構築しました。
Kalmanフィルター(KF)は、これらの測定値を融合させて、ホバーを制御するために必要な状態変数、つまりピッチ角、翻訳速度、高度を推定します。
私たちのシステムは、フライト中のCrazyFlieの推定器のパフォーマンスに匹敵するパフォーマンスを達成しました。これは、モーションキャプチャと比較して、それぞれ1.573度、0.186 m/s、および0.136 mの根平均四方誤差を備えています。

要約(オリジナル)

In this paper, we introduce advances in the sensor suite of an autonomous flying insect robot (FIR) weighing less than a gram. FIRs, because of their small weight and size, offer unparalleled advantages in terms of material cost and scalability. However, their size introduces considerable control challenges, notably high-speed dynamics, restricted power, and limited payload capacity. While there have been notable advancements in developing lightweight sensors, often drawing inspiration from biological systems, no sub-gram aircraft has been able to attain sustained hover without relying on feedback from external sensing such as a motion capture system. The lightest vehicle capable of sustained hovering — the first level of “sensor autonomy” — is the much larger 28 g Crazyflie. Previous work reported a reduction in size of that vehicle’s avionics suite to 187 mg and 21 mW. Here, we report a further reduction in mass and power to only 78.4 mg and 15 mW. We replaced the laser rangefinder with a lighter and more efficient pressure sensor, and built a smaller optic flow sensor around a global-shutter imaging chip. A Kalman Filter (KF) fuses these measurements to estimate the state variables that are needed to control hover: pitch angle, translational velocity, and altitude. Our system achieved performance comparable to that of the Crazyflie’s estimator while in flight, with root mean squared errors of 1.573 deg, 0.186 m/s, and 0.136 m, respectively, relative to motion capture.

arxiv情報

著者 Zhitao Yu,Joshua Tran,Claire Li,Aaron Weber,Yash P. Talwekar,Sawyer Fuller
発行日 2025-03-10 16:48:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY | TinySense: A Lighter Weight and More Power-efficient Avionics System for Flying Insect-scale Robots はコメントを受け付けていません

Bi-Directional Mental Model Reconciliation for Human-Robot Interaction with Large Language Models

要約

人間とロボットの相互作用では、人間とロボットのエージェントは、環境、共有タスク、およびお互いの内部メンタルモデルを維持しています。
これらの表現の正確性は、各エージェントの心の理論を実行する能力、つまりチームメイトの知識、好み、意図を理解する能力に依存します。
メンタルモデルがタスクの実行に影響を与える範囲まで分岐すると、相互作用の分解を防ぐために調整が必要になります。
双方向のメンタルモデルの調整のフレームワークを提案し、半構造化された自然言語の対話を通じて整合を促進するために大規模な言語モデルを活用します。
私たちのフレームワークは、人間またはロボットエージェントのいずれかが他のエージェントが整列する正しいモデルから始まるという以前のモデル調整作業の仮定を緩和します。
私たちのフレームワークを通じて、人間とロボットの両方は、相互作用中に行方不明のタスク関連のコンテキストを特定して伝えることができ、共有されたメンタルモデルに向かって繰り返し進行します。

要約(オリジナル)

In human-robot interactions, human and robot agents maintain internal mental models of their environment, their shared task, and each other. The accuracy of these representations depends on each agent’s ability to perform theory of mind, i.e. to understand the knowledge, preferences, and intentions of their teammate. When mental models diverge to the extent that it affects task execution, reconciliation becomes necessary to prevent the degradation of interaction. We propose a framework for bi-directional mental model reconciliation, leveraging large language models to facilitate alignment through semi-structured natural language dialogue. Our framework relaxes the assumption of prior model reconciliation work that either the human or robot agent begins with a correct model for the other agent to align to. Through our framework, both humans and robots are able to identify and communicate missing task-relevant context during interaction, iteratively progressing toward a shared mental model.

arxiv情報

著者 Nina Moorman,Michelle Zhao,Matthew B. Luebbers,Sanne Van Waveren,Reid Simmons,Henny Admoni,Sonia Chernova,Matthew Gombolay
発行日 2025-03-10 17:13:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | Bi-Directional Mental Model Reconciliation for Human-Robot Interaction with Large Language Models はコメントを受け付けていません

AutoSpatial: Visual-Language Reasoning for Social Robot Navigation through Efficient Spatial Reasoning Learning

要約

VLMSの空間推論を強化するための構造化された空間接地を備えた効率的なアプローチである、自己麻酔の新しい方法を提示します。
最小限の手動監督と大規模な視覚的質問(VQA)ペアのオートラベル付けと組み合わせることにより、私たちのアプローチは、ソーシャルナビゲーションタスクにおけるVLMSの限られた空間的理解の課題に取り組みます。
トレーニング中に階層的な2ラウンドのVQA戦略を適用することにより、独立空間はシナリオのグローバルおよび詳細な理解の両方を達成し、より正確な空間的認識、動きの予測、思考の連鎖(COT)推論、最終アクション、および他のSOTAアプローチと比較して説明を実証します。
これらの5つのコンポーネントは、包括的なソーシャルナビゲーションの推論に不可欠です。
私たちのアプローチは、4つの重要な側面にわたってモデルパフォーマンスを比較するために相対ランキングを割り当てた相互検証スコアと人間の評価者を提供する、エキスパートシステム(GPT-4O、GEMINI 2.0 Flash、およびClaude 3.5 Sonnet)の両方を使用して評価されました。
空間推論能力の強化によって増強された独立空間は、知覚と予測(10.71%まで)、推論(最大16.26%)、アクション(最大20.50%)、および説明(18.73%まで)(最大16.26%)、および説明(最大18.73%)のエキスパートシステムからの平均的な交差検証スコアによる大幅な改善を示しています。

要約(オリジナル)

We present a novel method, AutoSpatial, an efficient approach with structured spatial grounding to enhance VLMs’ spatial reasoning. By combining minimal manual supervision with large-scale Visual Question-Answering (VQA) pairs auto-labeling, our approach tackles the challenge of VLMs’ limited spatial understanding in social navigation tasks. By applying a hierarchical two-round VQA strategy during training, AutoSpatial achieves both global and detailed understanding of scenarios, demonstrating more accurate spatial perception, movement prediction, Chain of Thought (CoT) reasoning, final action, and explanation compared to other SOTA approaches. These five components are essential for comprehensive social navigation reasoning. Our approach was evaluated using both expert systems (GPT-4o, Gemini 2.0 Flash, and Claude 3.5 Sonnet) that provided cross-validation scores and human evaluators who assigned relative rankings to compare model performances across four key aspects. Augmented by the enhanced spatial reasoning capabilities, AutoSpatial demonstrates substantial improvements by averaged cross-validation score from expert systems in: perception & prediction (up to 10.71%), reasoning (up to 16.26%), action (up to 20.50%), and explanation (up to 18.73%) compared to baseline models trained only on manually annotated data.

arxiv情報

著者 Yangzhe Kong,Daeun Song,Jing Liang,Dinesh Manocha,Ziyu Yao,Xuesu Xiao
発行日 2025-03-10 17:27:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO | AutoSpatial: Visual-Language Reasoning for Social Robot Navigation through Efficient Spatial Reasoning Learning はコメントを受け付けていません