Early Detection of Patient Deterioration from Real-Time Wearable Monitoring System

要約

死亡率を下げるためには、患者の悪化を早期に発見することが重要である。心拍数データは患者の健康状態を評価する上で有望であり、ウェアラブルデバイスはリアルタイムモニタリングのための費用効果の高いソリューションを提供する。しかし、多様な心拍数データから意味のある洞察を抽出し、ウェアラブルデバイスデータの欠損値を処理することは、依然として重要な課題である。これらの課題に対処するために、我々は、心拍時系列におけるシェイプレットとして知られる代表的な部分配列の構造的関係をモデル化する革新的なアプローチであるTARLを提案する。TARLはシェイプレット-遷移知識グラフを作成し、心拍数時系列におけるシェイプレットのダイナミクスをモデル化し、病気の進行と将来の潜在的変化を示す。さらに、シェイプレット間の関係を補強し、欠損値の影響を定量化するために、遷移を考慮した知識埋め込みを導入し、包括的な心拍数表現の定式化を可能にする。これらの表現は説明的な構造を捉え、将来の心拍数の傾向を予測し、病気の早期発見に役立つ。我々は、医師や看護師と協力して、ウェアラブルからICU患者の心拍数データを収集し、病気の重症度を評価する診断指標を収集することで、病気の悪化を評価する。実際のICUデータを用いた実験により、TARLが高い信頼性と早期発見の両方を達成することが実証された。ケーススタディでは、TARLの説明可能な検出プロセスをさらに紹介し、臨床医が患者の悪化の初期兆候を認識するのを支援するAI駆動型ツールとしての可能性を強調している。

要約(オリジナル)

Early detection of patient deterioration is crucial for reducing mortality rates. Heart rate data has shown promise in assessing patient health, and wearable devices offer a cost-effective solution for real-time monitoring. However, extracting meaningful insights from diverse heart rate data and handling missing values in wearable device data remain key challenges. To address these challenges, we propose TARL, an innovative approach that models the structural relationships of representative subsequences, known as shapelets, in heart rate time series. TARL creates a shapelet-transition knowledge graph to model shapelet dynamics in heart rate time series, indicating illness progression and potential future changes. We further introduce a transition-aware knowledge embedding to reinforce relationships among shapelets and quantify the impact of missing values, enabling the formulation of comprehensive heart rate representations. These representations capture explanatory structures and predict future heart rate trends, aiding early illness detection. We collaborate with physicians and nurses to gather ICU patient heart rate data from wearables and diagnostic metrics assessing illness severity for evaluating deterioration. Experiments on real-world ICU data demonstrate that TARL achieves both high reliability and early detection. A case study further showcases TARL’s explainable detection process, highlighting its potential as an AI-driven tool to assist clinicians in recognizing early signs of patient deterioration.

arxiv情報

著者 Lo Pang-Yun Ting,Hong-Pei Chen,An-Shan Liu,Chun-Yin Yeh,Po-Lin Chen,Kun-Ta Chuang
発行日 2025-05-02 14:32:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI | Early Detection of Patient Deterioration from Real-Time Wearable Monitoring System はコメントを受け付けていません

Document Retrieval Augmented Fine-Tuning (DRAFT) for safety-critical software assessments

要約

セーフティクリティカルソフトウェアの評価には、複雑な規制フレームワークに対するロバストな評価が必要であり、従来は手作業による評価が限界であった。本論文では、セーフティクリティカルなコンプライアンス評価のための大規模言語モデル(LLM)の機能を強化する新しいアプローチであるDocument Retrieval-Augmented Fine-Tuning (DRAFT)を紹介する。DRAFTは、既存のRAG(Retrieval-Augmented Generation)技術をベースに、ソフトウェア文書と適用可能な参照規格の両方に同時にアクセスする二重検索アーキテクチャに対応する新しい微調整フレームワークを導入している。DRAFTを微調整するために、我々は半自動データセット生成手法を開発し、実世界の評価シナリオを忠実に反映させながら、意味のあるディストラクタを持つ関連文書の数を変化させる。GPT-4o-miniを用いた実験では、ベースラインモデルと比較して正答率が7%向上し、証拠処理、応答構造、およびドメイン固有の推論が質的に改善されたことが実証された。DRAFTは、規制の領域で不可欠な透明性と証拠に基づく推論を維持しながら、コンプライアンス評価システムを改善する実用的なアプローチを示している。

要約(オリジナル)

Safety critical software assessment requires robust assessment against complex regulatory frameworks, a process traditionally limited by manual evaluation. This paper presents Document Retrieval-Augmented Fine-Tuning (DRAFT), a novel approach that enhances the capabilities of a large language model (LLM) for safety-critical compliance assessment. DRAFT builds upon existing Retrieval-Augmented Generation (RAG) techniques by introducing a novel fine-tuning framework that accommodates our dual-retrieval architecture, which simultaneously accesses both software documentation and applicable reference standards. To fine-tune DRAFT, we develop a semi-automated dataset generation methodology that incorporates variable numbers of relevant documents with meaningful distractors, closely mirroring real-world assessment scenarios. Experiments with GPT-4o-mini demonstrate a 7% improvement in correctness over the baseline model, with qualitative improvements in evidence handling, response structure, and domain-specific reasoning. DRAFT represents a practical approach to improving compliance assessment systems while maintaining the transparency and evidence-based reasoning essential in regulatory domains.

arxiv情報

著者 Regan Bolton,Mohammadreza Sheikhfathollahi,Simon Parkinson,Vanessa Vulovic,Gary Bamford,Dan Basher,Howard Parkinson
発行日 2025-05-02 14:34:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.SE | Document Retrieval Augmented Fine-Tuning (DRAFT) for safety-critical software assessments はコメントを受け付けていません

Enhancing SPARQL Query Rewriting for Complex Ontology Alignments

要約

SPARQLクエリ書き換えは、リンクされたデータウェブにおいて異種オントロジーを統一的にクエリするための基本的なメカニズムである。しかし、オントロジーアラインメントの複雑さ、特にリッチな対応関係(c : c)が、このプロセスを困難にしている。既存のアプローチは、主に単純な(s : s)アラインメントと部分的に複雑な(s : c)アラインメントに焦点を当てており、より表現力豊かなアラインメントがもたらす課題を見落としている。さらに、SPARQLの複雑な構文は、オントロジーにカプセル化された知識を完全に利用しようとする非熟練ユーザーにとって障壁となる。本稿では、自然言語で表現されたユーザーのニーズに基づいて、ソースオントロジーからターゲットオントロジーへのSPARQLクエリを自動的に書き換える革新的なアプローチを提案する。これは、GPT-4のような大規模言語モデルの高度な機能と同様に、等価性の推移性の原理を活用する。これらの要素を統合することで、このアプローチは、複雑なアライメント、特に(c : c)対応関係を、その表現力をフルに活用することで効率的に扱えるという点で際立っている。さらに、SPARQLに不慣れなユーザーでもアライメントされたオントロジーへのアクセスが容易になり、異種データへのクエリのための柔軟なソリューションを提供する。

要約(オリジナル)

SPARQL query rewriting is a fundamental mechanism for uniformly querying heterogeneous ontologies in the Linked Data Web. However, the complexity of ontology alignments, particularly rich correspondences (c : c), makes this process challenging. Existing approaches primarily focus on simple (s : s) and partially complex ( s : c) alignments, thereby overlooking the challenges posed by more expressive alignments. Moreover, the intricate syntax of SPARQL presents a barrier for non-expert users seeking to fully exploit the knowledge encapsulated in ontologies. This article proposes an innovative approach for the automatic rewriting of SPARQL queries from a source ontology to a target ontology, based on a user’s need expressed in natural language. It leverages the principles of equivalence transitivity as well as the advanced capabilities of large language models such as GPT-4. By integrating these elements, this approach stands out for its ability to efficiently handle complex alignments, particularly (c : c) correspondences , by fully exploiting their expressiveness. Additionally, it facilitates access to aligned ontologies for users unfamiliar with SPARQL, providing a flexible solution for querying heterogeneous data.

arxiv情報

著者 Anicet Lepetit Ondo,Laurence Capus,Mamadou Bousso
発行日 2025-05-02 14:38:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.DB | Enhancing SPARQL Query Rewriting for Complex Ontology Alignments はコメントを受け付けていません

Helping Big Language Models Protect Themselves: An Enhanced Filtering and Summarization System

要約

近年、大規模言語モデルの利用が増加しているため、高度な敵対的攻撃、操作可能なプロンプト、符号化された悪意のある入力に対して脆弱になっている。既存の対策では、モデルの再トレーニングが必要な場合が多く、計算コストがかかり、実用的ではありません。本研究では、再トレーニングや微調整を必要とせず、LLMが自ら敵対的な入力や悪意のある入力を認識し、フィルタリングし、防御することを可能にするユニークな防御パラダイムを提示する。(1)ゼロショット分類、キーワード分析、エンコードされたコンテンツ検出(base64、16進数、URLエンコードなど)を含む洗練された自然言語処理(NLP)技術を使用して、有害な入力を検出、デコード、分類するプロンプトフィルタリングモジュールと、(2)敵対的な研究文献を処理して要約し、LLMにコンテキストを認識した防御知識を与える要約モジュールである。このアプローチは、テキスト抽出、要約、有害なプロンプト分析を融合することで、LLMの敵対的悪用に対する耐性を強化する。実験結果によると、この統合技術は、有害なパターン、操作的な言語構造、および符号化されたプロンプトの識別において98.71%の成功率を示した。適度な量の敵対的研究文献をコンテキストとして採用することで、この手法はまた、脱獄耐性と拒否率がより高い割合で、有害な入力に対してモデルが正しく反応することを可能にする。LLMの応答の質を維持しながら、このフレームワークは敵対的な悪用に対するLLMの耐性を劇的に向上させ、時間のかかる再トレーニングに基づく防御の迅速で簡単な代替としての有効性を実証している。

要約(オリジナル)

The recent growth in the use of Large Language Models has made them vulnerable to sophisticated adversarial assaults, manipulative prompts, and encoded malicious inputs. Existing countermeasures frequently necessitate retraining models, which is computationally costly and impracticable for deployment. Without the need for retraining or fine-tuning, this study presents a unique defense paradigm that allows LLMs to recognize, filter, and defend against adversarial or malicious inputs on their own. There are two main parts to the suggested framework: (1) A prompt filtering module that uses sophisticated Natural Language Processing (NLP) techniques, including zero-shot classification, keyword analysis, and encoded content detection (e.g. base64, hexadecimal, URL encoding), to detect, decode, and classify harmful inputs; and (2) A summarization module that processes and summarizes adversarial research literature to give the LLM context-aware defense knowledge. This approach strengthens LLMs’ resistance to adversarial exploitation by fusing text extraction, summarization, and harmful prompt analysis. According to experimental results, this integrated technique has a 98.71% success rate in identifying harmful patterns, manipulative language structures, and encoded prompts. By employing a modest amount of adversarial research literature as context, the methodology also allows the model to react correctly to harmful inputs with a larger percentage of jailbreak resistance and refusal rate. While maintaining the quality of LLM responses, the framework dramatically increases LLM’s resistance to hostile misuse, demonstrating its efficacy as a quick and easy substitute for time-consuming, retraining-based defenses.

arxiv情報

著者 Sheikh Samit Muhaimin,Spyridon Mastorakis
発行日 2025-05-02 14:42:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL | Helping Big Language Models Protect Themselves: An Enhanced Filtering and Summarization System はコメントを受け付けていません

Constrained Network Adversarial Attacks: Validity, Robustness, and Transferability

要約

機械学習はネットワーク侵入検知システム(NIDS)を大幅に進歩させたが、特にデバイスが大量のデータを生成し、サイバー脅威の影響を受けやすくなっているIoT環境では、これらのモデルは敵対的攻撃に対して脆弱なままである。私たちの研究は、既存の敵対的攻撃手法の重大な欠陥を明らかにしました。それは、IoTやネットワークトラフィックに固有の数値制限やカテゴリ制限などのドメイン固有の制約に頻繁に違反していることです。これにより、敵対的な例の最大80.3%が無効となり、現実世界の脆弱性が著しく誇張されます。これらの無効な例は、モデルを欺くには効果的ですが、実用的なIoTデプロイメント内で実現可能な攻撃を表すものではありません。その結果、これらの結果に依存することは、防御のためのリソース割り当てを誤らせる可能性があり、敵対的な操作に対するIoT対応NIDSモデルの感受性の増大を招く可能性があります。さらに、CNNやLSTMのような複雑なアーキテクチャと比較して、多層パーセプトロン(MLP)のような単純なサロゲートモデルが、より有効な敵対的事例を生成することを実証します。MLPをサロゲートとして使用し、IoTコンテキストで一般的に使用される他のML/DLモデルへの敵対的重大性の移植性を分析する。この研究は、セキュリティクリティカルなIoTやネットワークアプリケーションのためのロバストなML/DLモデルを評価・設計する際に、ドメイン制約とモデルアーキテクチャの両方を考慮することの重要性を強調している。

要約(オリジナル)

While machine learning has significantly advanced Network Intrusion Detection Systems (NIDS), particularly within IoT environments where devices generate large volumes of data and are increasingly susceptible to cyber threats, these models remain vulnerable to adversarial attacks. Our research reveals a critical flaw in existing adversarial attack methodologies: the frequent violation of domain-specific constraints, such as numerical and categorical limits, inherent to IoT and network traffic. This leads to up to 80.3% of adversarial examples being invalid, significantly overstating real-world vulnerabilities. These invalid examples, though effective in fooling models, do not represent feasible attacks within practical IoT deployments. Consequently, relying on these results can mislead resource allocation for defense, inflating the perceived susceptibility of IoT-enabled NIDS models to adversarial manipulation. Furthermore, we demonstrate that simpler surrogate models like Multi-Layer Perceptron (MLP) generate more valid adversarial examples compared to complex architectures such as CNNs and LSTMs. Using the MLP as a surrogate, we analyze the transferability of adversarial severity to other ML/DL models commonly used in IoT contexts. This work underscores the importance of considering both domain constraints and model architecture when evaluating and designing robust ML/DL models for security-critical IoT and network applications.

arxiv情報

著者 Anass Grini,Oumaima Taheri,Btissam El Khamlichi,Amal El Fallah-Seghrouchni
発行日 2025-05-02 15:01:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CR, cs.NI | Constrained Network Adversarial Attacks: Validity, Robustness, and Transferability はコメントを受け付けていません

BalancEdit: Dynamically Balancing the Generality-Locality Trade-off in Multi-modal Model Editing

要約

大規模なマルチモーダルモデルは、時間の経過とともに事実が変化し、以前に学習した情報が古くなるため、必然的に減衰する。ファインチューニングのような伝統的なアプローチは、そのサイズと複雑さのために、これらのモデルを更新するためにはしばしば非現実的である。その代わりに、モデル内の知識を直接編集することが、より実行可能な解決策となる。しかし、現在のモデル編集技術は、通常、異なるファクトの固有の影響範囲を見落としており、一般性と局所性の両面でモデルの性能を低下させている。この問題に対処するため、マルチモーダルモデル編集における一般性と局所性のトレードオフの概念を導入する。このトレードオフを効果的に評価するために、OKEDITという新しいモデル編集データセットを開発する。この基礎の上に、我々はBalancEditを提案する。BalancEditは、一般性と局所性の最適なバランスを動的に達成する、バランスモデル編集のための新しい手法である。BalancEditは、各事実の影響範囲を正確に決定するために、各事実に対して肯定的なサンプルと否定的なサンプルの両方を生成するユニークなメカニズムを利用し、基礎となるモデルの重みを変更することなく、離散的で局所的な編集のコードブックを用いて、これらの洞察をモデルの潜在空間に組み込む。我々の知る限り、これはマルチモーダルモデル編集における一般性と局所性のトレードオフに明示的に対処した最初のアプローチである。我々の包括的な結果は、BalancEditの有効性を確認するものであり、ロバストな編集機能を維持しながら、最小限のトレードオフを実証している。我々のコードとデータセットは公開される予定である。

要約(オリジナル)

Large multi-modal models inevitably decay over time as facts change and previously learned information becomes outdated. Traditional approaches such as fine-tuning are often impractical for updating these models due to their size and complexity. Instead, direct knowledge editing within the models presents a more viable solution. Current model editing techniques, however, typically overlook the unique influence ranges of different facts, leading to compromised model performance in terms of both generality and locality. To address this issue, we introduce the concept of the generality-locality trade-off in multi-modal model editing. We develop a new model editing dataset named OKEDIT, specifically designed to effectively evaluate this trade-off. Building on this foundation, we propose BalancEdit, a novel method for balanced model editing that dynamically achieves an optimal balance between generality and locality. BalancEdit utilizes a unique mechanism that generates both positive and negative samples for each fact to accurately determine its influence scope and incorporates these insights into the model’s latent space using a discrete, localized codebook of edits, without modifying the underlying model weights. To our knowledge, this is the first approach explicitly addressing the generality-locality trade-off in multi-modal model editing. Our comprehensive results confirm the effectiveness of BalancEdit, demonstrating minimal trade-offs while maintaining robust editing capabilities. Our code and dataset will be available.

arxiv情報

著者 Dongliang Guo,Mengxuan Hu,Zihan Guan,Thomas Hartvigsen,Sheng Li
発行日 2025-05-02 15:31:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI | BalancEdit: Dynamically Balancing the Generality-Locality Trade-off in Multi-modal Model Editing はコメントを受け付けていません

Differentiable Nonlinear Model Predictive Control

要約

パラメトリック解感応度の効率的な計算は、非線形モデル予測制御(MPC)と学習強化手法の統合における重要な課題である。機械学習コミュニティで発表されているアプローチは、凸または制約のない定式化に限定されているが、本稿では、陰関数定理(IFT)と内点法(IPM)で扱われる平滑化最適化条件を用いて、一般的な非線形プログラム(NLP)の解の感度計算について議論する。本論文では、2次部分問題にIPMを用いる逐次2次計画法(SQP)における感度計算について詳述する。本論文は、一般的な最適制御問題に対して、順関数と随伴関数の両方の感度計算を提供し、最先端のソルバーmpc.pytorchの3倍を超えるスピードアップを達成する、フレームワーク内での効率的なオープンソース実装を伴っている。

要約(オリジナル)

The efficient computation of parametric solution sensitivities is a key challenge in the integration of learning-enhanced methods with nonlinear model predictive control (MPC), as their availability is crucial for many learning algorithms. While approaches presented in the machine learning community are limited to convex or unconstrained formulations, this paper discusses the computation of solution sensitivities of general nonlinear programs (NLPs) using the implicit function theorem (IFT) and smoothed optimality conditions treated in interior-point methods (IPM). We detail sensitivity computation within a sequential quadratic programming (SQP) method which employs an IPM for the quadratic subproblems. The publication is accompanied by an efficient open-source implementation within the framework, providing both forward and adjoint sensitivities for general optimal control problems, achieving speedups exceeding 3x over the state-of-the-art solver mpc.pytorch.

arxiv情報

著者 Jonathan Frey,Katrin Baumgärtner,Gianluca Frison,Dirk Reinhardt,Jasper Hoffmann,Leonard Fichtner,Sebastien Gros,Moritz Diehl
発行日 2025-05-02 15:43:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG, math.OC | Differentiable Nonlinear Model Predictive Control はコメントを受け付けていません

Offline Model-Based Optimization by Learning to Rank

要約

オフラインモデルベース最適化(MBO)は、固定された、事前に収集された設計とそれに対応するスコアのデータセットのみを使用して、ブラックボックス関数を最大化する設計を特定することを目的としています。オフラインMBOの一般的なアプローチは、平均二乗誤差(MSE)を最小化することによって回帰ベースのサロゲートモデルを訓練し、その後、異なる最適化手法(例えば、勾配上昇)によってこのサロゲートモデル内で最良の設計を見つけることです。しかし、重大な課題は、分布外誤差のリスクである。すなわち、サロゲート・モデルは一般的にスコアを過大評価し、最適化器を最適でない領域へとミスリードする可能性がある。先行研究では、正則化技術やアンサンブル学習を用いてモデルの頑健性を高めるなど、様々な方法でこの問題への対処が試みられているが、依然としてこの問題は残っている。本論文では、MSEを用いて訓練された回帰モデルは、オフラインMBOの主要な目的である、スコアを正確に予測することよりも、有望な設計を選択することにうまく合致していないと主張する。注目すべきは、もしサロゲートモデルが相対的なスコア関係に基づいて候補デザインの順序を維持することができれば、正確な予測なしでも最良のデザインを生み出すことができるということである。これを検証するために、最終的な設計の品質とMSEの関係を比較する実験を行ったところ、相関関係は実に弱いことがわかった。対照的に、秩序維持の品質を測定する指標は、有意に強い相関を示す。この観察に基づき、我々は、ランク付け学習技術を活用して、相対的なスコアに基づいて有望な設計に優先順位を付ける、ランク付けベースのモデルの学習を提案する。我々は、順位付け損失に対する汎化誤差が十分に境界可能であることを示す。様々なタスクにおける実証結果から、我々の提案するランキングベースモデルの性能が、既存の20の手法よりも優れていることを示す。

要約(オリジナル)

Offline model-based optimization (MBO) aims to identify a design that maximizes a black-box function using only a fixed, pre-collected dataset of designs and their corresponding scores. A common approach in offline MBO is to train a regression-based surrogate model by minimizing mean squared error (MSE) and then find the best design within this surrogate model by different optimizers (e.g., gradient ascent). However, a critical challenge is the risk of out-of-distribution errors, i.e., the surrogate model may typically overestimate the scores and mislead the optimizers into suboptimal regions. Prior works have attempted to address this issue in various ways, such as using regularization techniques and ensemble learning to enhance the robustness of the model, but it still remains. In this paper, we argue that regression models trained with MSE are not well-aligned with the primary goal of offline MBO, which is to select promising designs rather than to predict their scores precisely. Notably, if a surrogate model can maintain the order of candidate designs based on their relative score relationships, it can produce the best designs even without precise predictions. To validate it, we conduct experiments to compare the relationship between the quality of the final designs and MSE, finding that the correlation is really very weak. In contrast, a metric that measures order-maintaining quality shows a significantly stronger correlation. Based on this observation, we propose learning a ranking-based model that leverages learning to rank techniques to prioritize promising designs based on their relative scores. We show that the generalization error on ranking loss can be well bounded. Empirical results across diverse tasks demonstrate the superior performance of our proposed ranking-based models than twenty existing methods.

arxiv情報

著者 Rong-Xi Tan,Ke Xue,Shen-Huan Lyu,Haopu Shang,Yao Wang,Yaoyuan Wang,Sheng Fu,Chao Qian
発行日 2025-05-02 15:46:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG, cs.NE | Offline Model-Based Optimization by Learning to Rank はコメントを受け付けていません

Evaluating Explanations: An Explanatory Virtues Framework for Mechanistic Interpretability — The Strange Science Part I.ii

要約

機械論的解釈可能性(MI)は、因果関係の説明を通じて神経回路網を理解することを目的としている。MIには多くの説明生成手法があるが、説明を評価する普遍的なアプローチがないため、進歩は限られている。ここでは、「良い説明とは何か」という基本的な問いを分析する。MIにおける説明を体系的に評価し改善するために、科学哲学の4つの視点-ベイズ的、クーニア的、ドイチュ的、ノモロジカル的-を活用した多元的説明の美徳フレームワークを紹介する。コンパクト証明は多くの説明の美徳を考慮するものであり、有望なアプローチである。我々の枠組みが示唆する有益な研究の方向性には、(1)説明の単純さを明確に定義すること、(2)説明を統一することに焦点を当てること、(3)ニューラルネットワークの普遍的原理を導き出すこと、が含まれる。改善されたMI手法は、AIシステムを監視、予測、操縦する我々の能力を向上させる。

要約(オリジナル)

Mechanistic Interpretability (MI) aims to understand neural networks through causal explanations. Though MI has many explanation-generating methods, progress has been limited by the lack of a universal approach to evaluating explanations. Here we analyse the fundamental question ‘What makes a good explanation?’ We introduce a pluralist Explanatory Virtues Framework drawing on four perspectives from the Philosophy of Science – the Bayesian, Kuhnian, Deutschian, and Nomological – to systematically evaluate and improve explanations in MI. We find that Compact Proofs consider many explanatory virtues and are hence a promising approach. Fruitful research directions implied by our framework include (1) clearly defining explanatory simplicity, (2) focusing on unifying explanations and (3) deriving universal principles for neural networks. Improved MI methods enhance our ability to monitor, predict, and steer AI systems.

arxiv情報

著者 Kola Ayonrinde,Louis Jaburi
発行日 2025-05-02 16:18:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL, cs.HC, cs.LG | Evaluating Explanations: An Explanatory Virtues Framework for Mechanistic Interpretability — The Strange Science Part I.ii はコメントを受け付けていません

FalconWing: An Open-Source Platform for Ultra-Light Fixed-Wing Aircraft Research

要約

我々はファルコンウイング(FalconWing)を発表する。ファルコンウイングは、自律性研究のためのオープンソースの超軽量(150g)固定翼プラットフォームである。このハードウェアプラットフォームは、小型カメラ、標準的な機体、オフボード計算、および手動オーバーライドのための無線通信を統合している。我々は、新しい実対実の学習アプローチを用いて、(IMUやモーションキャプチャを用いない)自律着陸のための純粋にビジョンベースの制御ポリシーを開発し、展開することにより、ファルコンウイングの能力を実証する。我々の学習アプローチは、(1)実世界の画像で訓練された3Dガウススプラッティングにより、フォトリアリスティックなシミュレーション環境を構築し、(2)ビジョン推定された実飛行データから非線形ダイナミクスを識別し、(3)シミュレーションのみの模倣学習により、マルチモーダルビジョントランスフォーマー(ViT)ポリシーを訓練する。ViTアーキテクチャは、単一のRGB画像と自己注意を介した制御動作の履歴を融合し、リアルタイムの20Hz推論を維持しながら時間的コンテキストを保持する。ハードウェアプラットフォーム上にゼロショットで展開した場合、このポリシーはビジョンベースの自律着陸において80%の成功率を達成した。ハードウェア仕様とともに、システムダイナミクス、フォトリアリスティックシミュレータ用ソフトウェア、学習アプローチもオープンソース化している。

要約(オリジナル)

We present FalconWing — an open-source, ultra-lightweight (150 g) fixed-wing platform for autonomy research. The hardware platform integrates a small camera, a standard airframe, offboard computation, and radio communication for manual overrides. We demonstrate FalconWing’s capabilities by developing and deploying a purely vision-based control policy for autonomous landing (without IMU or motion capture) using a novel real-to-sim-to-real learning approach. Our learning approach: (1) constructs a photorealistic simulation environment via 3D Gaussian splatting trained on real-world images; (2) identifies nonlinear dynamics from vision-estimated real-flight data; and (3) trains a multi-modal Vision Transformer (ViT) policy through simulation-only imitation learning. The ViT architecture fuses single RGB image with the history of control actions via self-attention, preserving temporal context while maintaining real-time 20 Hz inference. When deployed zero-shot on the hardware platform, this policy achieves an 80% success rate in vision-based autonomous landings. Together with the hardware specifications, we also open-source the system dynamics, the software for photorealistic simulator and the learning approach.

arxiv情報

著者 Yan Miao,Will Shen,Hang Cui,Sayan Mitra
発行日 2025-05-02 16:47:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.RO | FalconWing: An Open-Source Platform for Ultra-Light Fixed-Wing Aircraft Research はコメントを受け付けていません