Explaining Control Policies through Predicate Decision Diagrams

要約

複雑なシステムの安全性の高いコントローラーは、手動で構築するのが困難です。
コントローラーの合成や学習などの自動化されたアプローチは、魅力的な代替手段を提供しますが、通常は説明可能性がありません。
この目的のために、学習決定ツリー(DT)は、生成されたコントローラーの解釈可能なモデルに一般的に使用されてきました。
ただし、DTは共有意思決定を活用しません。これは、サイズを縮小して説明可能性を向上させるために、バイナリ決定図(BDD)で活用された重要な概念です。
この作業では、BDDを述語で拡張する述語決定図(PDD)を紹介し、したがって、コントローラー表現のDTSとBDDの利点を統合します。
コントローラーを表すDTSからPDDを効率的に構築するための合成パイプラインを確立し、PDDのBDDの削減技術を活用しています。

要約(オリジナル)

Safety-critical controllers of complex systems are hard to construct manually. Automated approaches such as controller synthesis or learning provide a tempting alternative but usually lack explainability. To this end, learning decision trees (DTs) have been prevalently used towards an interpretable model of the generated controllers. However, DTs do not exploit shared decision-making, a key concept exploited in binary decision diagrams (BDDs) to reduce their size and thus improve explainability. In this work, we introduce predicate decision diagrams (PDDs) that extend BDDs with predicates and thus unite the advantages of DTs and BDDs for controller representation. We establish a synthesis pipeline for efficient construction of PDDs from DTs representing controllers, exploiting reduction techniques for BDDs also for PDDs.

arxiv情報

著者 Debraj Chakraborty,Clemens Dubslaff,Sudeep Kanav,Jan Kretinsky,Christoph Weinhuber
発行日 2025-03-25 16:57:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.SY, eess.SY | Explaining Control Policies through Predicate Decision Diagrams はコメントを受け付けていません

A Comparative Analysis of Word Segmentation, Part-of-Speech Tagging, and Named Entity Recognition for Historical Chinese Sources, 1900-1950

要約

このホワイトペーパーでは、1900年から1950年までの中国テキストに関する単語セグメンテーション、一部のスピーチ(POS)タグ付け、および名前付きエンティティ認識(NER)を実行するための大規模な言語モデル(LLMS)と従来の自然言語処理(NLP)ツールを比較します。
Shanghai Library Republican Journal Corpusのサンプルデータセットを使用して、JiebaやSpacyなどの従来のツールは、GPT-4o、Claude 3.5、GLMシリーズなど、LLMSと比較されます。
結果は、LLMSがすべてのメトリックで従来の方法よりも優れていることを示しています。
さらに、LLMSは、詩や時間的変動(つまり、1920年以前と1920年以降のテキスト)などのジャンル固有の課題をよりよく処理し、コンテキスト学習能力がドメイン固有のトレーニングデータの必要性を減らすことにより、NLPのテキストへのアプローチを進めることができることを示しています。

要約(オリジナル)

This paper compares large language models (LLMs) and traditional natural language processing (NLP) tools for performing word segmentation, part-of-speech (POS) tagging, and named entity recognition (NER) on Chinese texts from 1900 to 1950. Historical Chinese documents pose challenges for text analysis due to their logographic script, the absence of natural word boundaries, and significant linguistic changes. Using a sample dataset from the Shanghai Library Republican Journal corpus, traditional tools such as Jieba and spaCy are compared to LLMs, including GPT-4o, Claude 3.5, and the GLM series. The results show that LLMs outperform traditional methods in all metrics, albeit at considerably higher computational costs, highlighting a trade-off between accuracy and efficiency. Additionally, LLMs better handle genre-specific challenges such as poetry and temporal variations (i.e., pre-1920 versus post-1920 texts), demonstrating that their contextual learning capabilities can advance NLP approaches to historical texts by reducing the need for domain-specific training data.

arxiv情報

著者 Zhao Fang,Liang-Chun Wu,Xuening Kong,Spencer Dean Stewart
発行日 2025-03-25 17:07:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | A Comparative Analysis of Word Segmentation, Part-of-Speech Tagging, and Named Entity Recognition for Historical Chinese Sources, 1900-1950 はコメントを受け付けていません

Guarding against artificial intelligence–hallucinated citations: the case for full-text reference deposit

要約

生成人工知能(AI)システムが誤った情報を「幻覚」する傾向はよく知られています。
存在しない情報源へのAI生成された引用は、ピアレビューされた出版物の参照リストに登場しました。
ここでは、この問題の解決策を提案します。透明性とオープンネスプロモーション(上)データ共有ガイドライン、アメリカ司法との生成AIの衝突、および米国の特許および商標事務所への先行技術の提出によって設定された先例からインスピレーションを得ています。
ジャーナルは、著者が原稿とともに各引用ソースの全文を提出する必要があり、それにより、著者が全文を作成できない資料を引用することを妨げる必要があります。
このソリューションでは、幻覚の参照に対してジャーナルを効果的に免疫する一方で、著者または編集者の側で限定的な追加作業が必要です。

要約(オリジナル)

The tendency of generative artificial intelligence (AI) systems to ‘hallucinate’ false information is well-known; AI-generated citations to non-existent sources have made their way into the reference lists of peer-reviewed publications. Here, I propose a solution to this problem, taking inspiration from the Transparency and Openness Promotion (TOP) data sharing guidelines, the clash of generative AI with the American judiciary, and the precedent set by submissions of prior art to the United States Patent and Trademark Office. Journals should require authors to submit the full text of each cited source along with their manuscripts, thereby preventing authors from citing any material whose full text they cannot produce. This solution requires limited additional work on the part of authors or editors while effectively immunizing journals against hallucinated references.

arxiv情報

著者 Alex Glynn
発行日 2025-03-25 17:12:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.DL, I.2.0 | Guarding against artificial intelligence–hallucinated citations: the case for full-text reference deposit はコメントを受け付けていません

Functional Acceleration for Policy Mirror Descent

要約

補強学習(RL)における幅広い斬新で基本的な方法をカバーするアルゴリズムの一般的なファミリー(RL)をカバーするアルゴリズムの一般的なファミリー(PMD)に機能的加速度を適用します。
二重性を活用すると、勢いベースのPMDアップデートを提案します。
機能的なルートをとることにより、私たちのアプローチは政策パラメーター化とは無関係であり、特別なケースとしてポリシーパラメーターのレベルでのモメンタムの以前のアプリケーションをカバーする大規模な最適化に適用できます。
このアプローチのいくつかの特性を理論的に分析し、数値アブレーション研究を補完します。これは、この分野のさまざまなアルゴリズム設計の選択と比較して、値ポリトープのポリシー最適化ダイナミクスを説明するのに役立ちます。
さらに、機能的加速に関連する問題設定のいくつかの機能を数値的に特徴付け、最後に、彼らの学習メカニズムに対する近似の影響を調査します。

要約(オリジナル)

We apply functional acceleration to the Policy Mirror Descent (PMD) general family of algorithms, which cover a wide range of novel and fundamental methods in Reinforcement Learning (RL). Leveraging duality, we propose a momentum-based PMD update. By taking the functional route, our approach is independent of the policy parametrization and applicable to large-scale optimization, covering previous applications of momentum at the level of policy parameters as a special case. We theoretically analyze several properties of this approach and complement with a numerical ablation study, which serves to illustrate the policy optimization dynamics on the value polytope, relative to different algorithmic design choices in this space. We further characterize numerically several features of the problem setting relevant for functional acceleration, and lastly, we investigate the impact of approximation on their learning mechanics.

arxiv情報

著者 Veronica Chelu,Doina Precup
発行日 2025-03-25 17:30:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ML | Functional Acceleration for Policy Mirror Descent はコメントを受け付けていません

Geometric Meta-Learning via Coupled Ricci Flow: Unifying Knowledge Representation and Quantum Entanglement

要約

このペーパーでは、3つの基本的な革新を通じて、幾何学的なフローと深い学習を統合する統合されたフレームワークを確立します。
まず、パラメーター空間のジオメトリを損失景観トポロジに動的に適応させる熱力学的に結合されたリッチの流れを提案します。正式には、等尺性知識の埋め込みを維持することが証明されています(定理〜\ ref {thm:等尺性})。
第二に、明示的な位相遷移のしきい値と重要な学習率(定理〜\ ref {thm:critical})を曲率爆発分析を通じて導き出し、幾何学的手術を介した自動化された特異点解像度を可能にします(lemma〜 \ ref {lem:手術})。
第三に、ニューラルネットワークとコンフォーマルフィールド理論の間にADS/CFTタイプのホログラフィック二重性(定理〜\ ref {thm:ads})を確立し、正規化設計のためのエンタングルメントエントロピー境界を提供します。
実験は、$ \ mathcal {o}(n \ log n)$の複雑さを維持しながら、2.1 $ \ times $ convergence accelerationと63 \ entのトポロジー単純化を示しています。
理論的には、ペレルマンエントロピーとワッサースタイン勾配流を組み合わせた新しいリアプノフ関数を通じて、指数関数的安定性(定理〜\ ref {thm:converge})を証明し、幾何学的な深い学習を根本的に進めます。

要約(オリジナル)

This paper establishes a unified framework integrating geometric flows with deep learning through three fundamental innovations. First, we propose a thermodynamically coupled Ricci flow that dynamically adapts parameter space geometry to loss landscape topology, formally proved to preserve isometric knowledge embedding (Theorem~\ref{thm:isometric}). Second, we derive explicit phase transition thresholds and critical learning rates (Theorem~\ref{thm:critical}) through curvature blowup analysis, enabling automated singularity resolution via geometric surgery (Lemma~\ref{lem:surgery}). Third, we establish an AdS/CFT-type holographic duality (Theorem~\ref{thm:ads}) between neural networks and conformal field theories, providing entanglement entropy bounds for regularization design. Experiments demonstrate 2.1$\times$ convergence acceleration and 63\% topological simplification while maintaining $\mathcal{O}(N\log N)$ complexity, outperforming Riemannian baselines by 15.2\% in few-shot accuracy. Theoretically, we prove exponential stability (Theorem~\ref{thm:converge}) through a new Lyapunov function combining Perelman entropy with Wasserstein gradient flows, fundamentally advancing geometric deep learning.

arxiv情報

著者 Ming Lei,Christophe Baehr
発行日 2025-03-25 17:32:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: (Primary), 37F40, 68T05, 68T07, 68T27, 81V99, cs.AI, cs.LG, eess.SP, F.4.1, math.GT, quant-ph | Geometric Meta-Learning via Coupled Ricci Flow: Unifying Knowledge Representation and Quantum Entanglement はコメントを受け付けていません

Dynamics of Structured Complex-Valued Hopfield Neural Networks

要約

この論文では、シナプス重量マトリックスが特定の構造特性を持っているときに発生する構造化された複雑なホップフィールドニューラルネットワーク(CVHNNS)のダイナミクスを探ります。
まず、Hermitian Synaptic Weight MatrixでCVHNNを分析し、Skew-Hermitian Weight Matricesが同期して動作するCVHNNSの4サイクルダイナミクスの存在を確立します。
さらに、複雑なマトリックスの2つの新しいクラスを紹介します。編組エルミートと編組のゆがんだヘルミティアマトリックスです。
これらのマトリックスタイプを使用するCVHNNSは、完全な並列更新モードで動作するときに長さ8のサイクルを示すことを実証します。
最後に、同期CVHNNについて広範な計算実験を実施し、他のシナプス重量マトリックス構造を調査します。
この調査結果は、構造化されたCVHNNSのダイナミクスの包括的な概要を提供し、適切な学習ルールと統合された場合、改善された関連記憶モデルの開発に貢献する可能性のある洞察を提供します。

要約(オリジナル)

In this paper, we explore the dynamics of structured complex-valued Hopfield neural networks (CvHNNs), which arise when the synaptic weight matrix possesses specific structural properties. We begin by analyzing CvHNNs with a Hermitian synaptic weight matrix and establish the existence of four-cycle dynamics in CvHNNs with skew-Hermitian weight matrices operating synchronously. Furthermore, we introduce two new classes of complex-valued matrices: braided Hermitian and braided skew-Hermitian matrices. We demonstrate that CvHNNs utilizing these matrix types exhibit cycles of length eight when operating in full parallel update mode. Finally, we conduct extensive computational experiments on synchronous CvHNNs, exploring other synaptic weight matrix structures. The findings provide a comprehensive overview of the dynamics of structured CvHNNs, offering insights that may contribute to developing improved associative memory models when integrated with suitable learning rules.

arxiv情報

著者 Rama Murthy Garimella,Marcos Eduardo Valle,Guilherme Vieira,Anil Rayala,Dileep Munugoti
発行日 2025-03-25 17:49:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.NE | Dynamics of Structured Complex-Valued Hopfield Neural Networks はコメントを受け付けていません

A proposal for an incident regime that tracks and counters threats to national security posed by AI systems

要約

AI能力の最近の進歩は、AIシステムが国家安全保障に脅威を与える可能性があるという懸念を高めました。たとえば、悪意のあるアクターが重要な国家インフラストラクチャでサイバー攻撃を実行したり、自律AIシステムの制御を紛失したりすることを容易にすることにより。
並行して、米国の連邦議員は、同様の脅威を特定して対抗するために、初期の「AI事件体制」を提案しています。
この論文では、これら2つの傾向を統合し、AIシステムからの潜在的な国家安全保障の脅威に対抗することを目的とした法的に義務付けられた展開後のAIインシデントRegieの提案を提示します。
「セキュリティクリティカル」の概念を導入して、「セキュリティクリティカル」が民間の原子力発電、航空、航空科学の二重使用懸念研究、フロンティアAI開発について説明する前に、国家安全保障に極度のリスクをもたらす医師を説明する「セキュリティクリティカル」の概念を導入することから始めます。
次に、AIインシデント制度の提案を詳細に提示し、他の「セキュリティクリティカルな」セクターにおける米国の国内事件体制との類似性を実証することにより、提案の各要素を正当化します。
最後に、提案されたAI事件制度がAIサイバー事件を扱う仮説的なシナリオをスケッチします。
提案されているAIインシデント体制は、3つのフェーズに分割されています。
最初のフェーズは、「AIインシデント」としてカウントされるものの新しい運用化を中心に展開します。AIプロバイダーは、フロンティアAIシステムを展開する前に「国家安全保障ケース」を作成する必要があることをお勧めします。
第2段階と第3フェーズでは、AIプロバイダーが事件について政府機関に通知する必要があり、政府機関が国家安全保障に対する将来の脅威に対抗するために、AIプロバイダーのセキュリティと安全手順の修正に関与すべきであることを明らかにしています。
私たちの提案は、AIシステムによってもたらされる潜在的な国家安全保障の脅威に対する継続的な政策的利益を考えると、タイムリーです。

要約(オリジナル)

Recent progress in AI capabilities has heightened concerns that AI systems could pose a threat to national security, for example, by making it easier for malicious actors to perform cyberattacks on critical national infrastructure, or through loss of control of autonomous AI systems. In parallel, federal legislators in the US have proposed nascent ‘AI incident regimes’ to identify and counter similar threats. In this paper, we consolidate these two trends and present a proposal for a legally mandated post-deployment AI incident regie that aims to counter potential national security threats from AI systems. We start the paper by introducing the concept of ‘security-critical’ to describe doctors that pose extreme risks to national security, before arguing that ‘security-critical’ describes civilian nuclear power, aviation, life science dual-use research of concern, and frontier AI development. We then present in detail our AI incident regime proposal,, justifying each component of the proposal by demonstrating its similarity to US domestic incident regimes in other ‘security-critical’ sectors. Finally, we sketch a hypothetical scenario where our proposed AI incident regime deals with an AI cyber incident. Our proposed AI incident regime is split into three phases. The first phase revolves around a novel operationalization of what counts as an ‘AI incident’ and we suggest that AI providers must create a ‘national security case’ before deploying a frontier AI system. The second and third phases spell out that AI providers should notify a government agency about incidents, and that the government agency should be involved in amending AI providers’ security and safety procedures, in order to counter future threats to national security. Our proposal is timely, given ongoing policy interest in the potential national security threats posed by AI systems.

arxiv情報

著者 Alejandro Ortega
発行日 2025-03-25 17:51:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY | A proposal for an incident regime that tracks and counters threats to national security posed by AI systems はコメントを受け付けていません

FIPER: Generalizable Factorized Features for Robust Low-Level Vision Models

要約

この作業では、低レベルのビジョンタスクに対して、単一画像の超解像度(SISR)と画像圧縮でテストする統合された因数分解機能と呼ばれる統合表現を使用して提案します。
これらのタスク間の共有原則に動機付けられているため、SISRの解像度を強化するか、画像圧縮の圧縮データを再構築するかにかかわらず、細かい画像の詳細を回復および保存する必要があります。
主にネットワークアーキテクチャに焦点を当てた以前の方法とは異なり、提案されているアプローチは、基礎コエフィーの分解と、構造コンポーネントとマルチスケールの視覚的特徴を画像でキャプチャするための周波数の明示的な定式化を利用して、両方のタスクのコア課題に対処します。
単純な機能マップからの以前のモデルの表現を、幅広い一般化可能性の可能性を検証するために、因数分解機能に置き換えます。
さらに、マルチフレーム圧縮と超解像度に関する共有構造を統合する、因数分解された特徴の融合可能な塩基特性を活用することにより、パイプラインをさらに最適化します。
広範な実験では、統一された表現が最先端のパフォーマンスを提供し、以前のSOTAと比較して画像圧縮の9.35%のBDレート減少のベースラインでPSNRで204.4%の平均相対改善を達成することが示されています。

要約(オリジナル)

In this work, we propose using a unified representation, termed Factorized Features, for low-level vision tasks, where we test on Single Image Super-Resolution (SISR) and Image Compression. Motivated by the shared principles between these tasks, they require recovering and preserving fine image details, whether by enhancing resolution for SISR or reconstructing compressed data for Image Compression. Unlike previous methods that mainly focus on network architecture, our proposed approach utilizes a basis-coefficient decomposition as well as an explicit formulation of frequencies to capture structural components and multi-scale visual features in images, which addresses the core challenges of both tasks. We replace the representation of prior models from simple feature maps with Factorized Features to validate the potential for broad generalizability. In addition, we further optimize the pipelines by leveraging the mergeable-basis property of our Factorized Features, which consolidates shared structures on multi-frame compression and super-resolution. Extensive experiments show that our unified representation delivers state-of-the-art performance, achieving an average relative improvement of 204.4% in PSNR over the baseline in Super-Resolution (SR) and 9.35% BD-rate reduction in Image Compression compared to the previous SOTA.

arxiv情報

著者 Yang-Che Sun,Cheng Yu Yeo,Ernie Chu,Jun-Cheng Chen,Yu-Lun Liu
発行日 2025-03-25 15:48:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV | FIPER: Generalizable Factorized Features for Robust Low-Level Vision Models はコメントを受け付けていません

Fine-Grained Erasure in Text-to-Image Diffusion-based Foundation Models

要約

テキストから画像への生成モデルにおける既存の未学習アルゴリズムは、特定のターゲット概念を削除する際に、意味的に関連する概念の知識を維持できないことがよくあります:隣接として知られる課題。
これに対処するために、フェード(拡散消去のための細かい減衰)を提案し、拡散モデルで隣接する認識の不均衡を導入します。
フェードは、2つのコンポーネントで構成されています。(1)関連する概念の隣接セットを識別するコンセプト周辺と(2)メッシュモジュールは、除去、隣接、およびガイダンス損失コンポーネントの構造化された組み合わせを採用しています。
これらにより、関連する概念や無関係な概念全体で忠実度を維持しながら、ターゲット概念を正確に消去できます。
Stanford Dogs、Oxford Flowers、Cub、I2P、Imagenette、Imagenet1Kなどのデータセットで評価され、Fadeは相関概念への影響を最小限に抑えてターゲットの概念を効果的に削除し、少なくとも最大の方法で保持パフォーマンスを12%改善します。

要約(オリジナル)

Existing unlearning algorithms in text-to-image generative models often fail to preserve the knowledge of semantically related concepts when removing specific target concepts: a challenge known as adjacency. To address this, we propose FADE (Fine grained Attenuation for Diffusion Erasure), introducing adjacency aware unlearning in diffusion models. FADE comprises two components: (1) the Concept Neighborhood, which identifies an adjacency set of related concepts, and (2) Mesh Modules, employing a structured combination of Expungement, Adjacency, and Guidance loss components. These enable precise erasure of target concepts while preserving fidelity across related and unrelated concepts. Evaluated on datasets like Stanford Dogs, Oxford Flowers, CUB, I2P, Imagenette, and ImageNet1k, FADE effectively removes target concepts with minimal impact on correlated concepts, achieving atleast a 12% improvement in retention performance over state-of-the-art methods.

arxiv情報

著者 Kartik Thakral,Tamar Glaser,Tal Hassner,Mayank Vatsa,Richa Singh
発行日 2025-03-25 15:49:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV | Fine-Grained Erasure in Text-to-Image Diffusion-based Foundation Models はコメントを受け付けていません

DeNVeR: Deformable Neural Vessel Representations for Unsupervised Video Vessel Segmentation

要約

この論文では、注釈付きの地上真実のないX線血管造影ビデオの容器セグメンテーションのための監視されていないアプローチである、変形可能な神経容器表現(デンバー)を提示します。
デンバーは、光フローと層分離技術を利用して、テスト時間トレーニングを通じてセグメンテーションの精度と適応性を高めます。
主な寄付には、新しい層分離ブートストラップ手法、平行な血管動きの損失、複雑な容器ダイナミクスをモデリングするためのオイラー運動場の統合が含まれます。
この研究の重要な要素は、高品質で手動でラベル付けされたセグメンテーショングラウンドトゥルースを備えた最初のX線血管造影冠動脈ビデオデータセットであるXACVデータセットの導入です。
XACVデータセットとCadicaデータセットの両方での広範な評価は、デンバーが時間的一貫性を維持しながら、容器セグメンテーションの精度と一般化能力の現在の最先端の方法を上回ることを示しています。

要約(オリジナル)

This paper presents Deformable Neural Vessel Representations (DeNVeR), an unsupervised approach for vessel segmentation in X-ray angiography videos without annotated ground truth. DeNVeR utilizes optical flow and layer separation techniques, enhancing segmentation accuracy and adaptability through test-time training. Key contributions include a novel layer separation bootstrapping technique, a parallel vessel motion loss, and the integration of Eulerian motion fields for modeling complex vessel dynamics. A significant component of this research is the introduction of the XACV dataset, the first X-ray angiography coronary video dataset with high-quality, manually labeled segmentation ground truth. Extensive evaluations on both XACV and CADICA datasets demonstrate that DeNVeR outperforms current state-of-the-art methods in vessel segmentation accuracy and generalization capability while maintaining temporal coherency.

arxiv情報

著者 Chun-Hung Wu,Shih-Hong Chen,Chih-Yao Hu,Hsin-Yu Wu,Kai-Hsin Chen,Yu-You Chen,Chih-Hai Su,Chih-Kuo Lee,Yu-Lun Liu
発行日 2025-03-25 15:52:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV | DeNVeR: Deformable Neural Vessel Representations for Unsupervised Video Vessel Segmentation はコメントを受け付けていません