Spectra-to-Structure and Structure-to-Spectra Inference Across the Periodic Table

要約

X線吸収分光法(XAS)は、局所原子環境を調査するための強力な手法ですが、その解釈は、専門家主導の分析、計算高価なシミュレーション、および要素固有のヒューリスティックの必要性によって制限されたままです。
機械学習における最近の進歩は、XAS解釈を加速するための有望であることが示されていますが、多くの既存のモデルは、特定の要素、エッジタイプ、またはスペクトルレジームに狭く焦点を当てています。
この作業では、Xastructを提示します。これは、結晶構造からXASスペクトルを予測し、XAS入力から局所構造記述子を推測できる学習フレームワークです。
Xastructは、周期表の70を超える要素にまたがる大規模なデータセットでトレーニングされており、さまざまな化学および結合環境への一般化を可能にします。
このモデルには、XASスペクトルから隣接原子タイプを直接予測するための最初の機械学習アプローチと、要素固有のチューニングを必要としない平均最寄りのniighbor距離の統一回帰モデルが含まれます。
2つのパイプラインを単一のエンドツーエンドモデルに統合することを調査しましたが、経験的な結果はパフォーマンスの劣化を示しました。
その結果、最適な精度とタスク固有のパフォーマンスを確保するために、2つのタスクが独立して訓練されました。
Xastructは、複雑な構造プロパティマッピングとよりシンプルなタスク用の効率的なベースラインモデルと深いニューラルネットワークを組み合わせることにより、データ駆動型のXAS分析と局所構造推論のためのスケーラブルで拡張可能なソリューションを提供します。
ソースコードは、紙の受け入れ時にリリースされます。

要約(オリジナル)

X-ray Absorption Spectroscopy (XAS) is a powerful technique for probing local atomic environments, yet its interpretation remains limited by the need for expert-driven analysis, computationally expensive simulations, and element-specific heuristics. Recent advances in machine learning have shown promise for accelerating XAS interpretation, but many existing models are narrowly focused on specific elements, edge types, or spectral regimes. In this work, we present XAStruct, a learning framework capable of both predicting XAS spectra from crystal structures and inferring local structural descriptors from XAS input. XAStruct is trained on a large-scale dataset spanning over 70 elements across the periodic table, enabling generalization to a wide variety of chemistries and bonding environments. The model includes the first machine learning approach for predicting neighbor atom types directly from XAS spectra, as well as a unified regression model for mean nearest-neighbor distance that requires no element-specific tuning. While we explored integrating the two pipelines into a single end-to-end model, empirical results showed performance degradation. As a result, the two tasks were trained independently to ensure optimal accuracy and task-specific performance. By combining deep neural networks for complex structure-property mappings with efficient baseline models for simpler tasks, XAStruct offers a scalable and extensible solution for data-driven XAS analysis and local structure inference. The source code will be released upon paper acceptance.

arxiv情報

著者 Yufeng Wang,Peiyao Wang,Lu Ma,Yuewei Lin,Qun Liu,Haibin Ling
発行日 2025-06-13 15:58:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | コメントする

Breaking Habits: On the Role of the Advantage Function in Learning Causal State Representations

要約

最近の研究では、補強学習エージェントが報酬と観察の間の偽の相関を活用するポリシーを開発できることが示されています。
ポリシー交絡として知られるこの現象は、エージェントのポリシーが過去と将来の観察変数の両方に影響を与え、通常の軌跡を超えてエージェントの一般化能力を妨げるフィードバックループを作成するために発生します。
このホワイトペーパーでは、ポリシー勾配手法で一般的に使用される利点関数は、勾配推定値の分散を減らすだけでなく、ポリシー交絡の効果を軽減することを示しています。
状態表現に関連するアクション値を調整することにより、アドバンテージは、現在のポリシーの下でより可能性が高い状態のアクションペアをダウンウェアする機能、偽の相関を破り、エージェントが因果要因に焦点を合わせるよう奨励します。
アドバンテージ関数を使用したトレーニングにより、軌道外のパフォーマンスが向上することを示す分析的および経験的証拠の両方を提供します。

要約(オリジナル)

Recent work has shown that reinforcement learning agents can develop policies that exploit spurious correlations between rewards and observations. This phenomenon, known as policy confounding, arises because the agent’s policy influences both past and future observation variables, creating a feedback loop that can hinder the agent’s ability to generalize beyond its usual trajectories. In this paper, we show that the advantage function, commonly used in policy gradient methods, not only reduces the variance of gradient estimates but also mitigates the effects of policy confounding. By adjusting action values relative to the state representation, the advantage function downweights state-action pairs that are more likely under the current policy, breaking spurious correlations and encouraging the agent to focus on causal factors. We provide both analytical and empirical evidence demonstrating that training with the advantage function leads to improved out-of-trajectory performance.

arxiv情報

著者 Miguel Suau
発行日 2025-06-13 16:06:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | コメントする

LiveCodeBench Pro: How Do Olympiad Medalists Judge LLMs in Competitive Programming?

要約

最近の報告によると、大規模な言語モデル(LLM)は、競争力のあるプログラミングでエリート人を上回ると主張しています。
国際的なアルゴリズムコンテストのメダリストのグループからの知識を活用して、LLMが人間の専門家とどのように異なるか、そしてまだ限界が残っている場所を調べることを再検討します。
LiveCodeBench Proは、データ汚染の可能性を減らすために継続的に更新されるCodeforces、ICPC、およびIOIの問題で構成されるベンチマークです。
オリンピアードメダリストのチームは、アルゴリズムカテゴリのすべての問題に注釈を付け、モデル生成された提出に失敗したラインごとの分析を実施します。
この新しいデータとベンチマークを使用して、フロンティアモデルには依然として大きな制限があることがわかります。外部ツールがなければ、最高のモデルは、中程度の問題で53%のパス@1と、困難な問題で0%しか達成しません。
また、LLMSは実装が多い問題で成功しますが、微妙なアルゴリズムの推論と複雑な症例分析に苦労し、しばしば自信を持って誤った正当化を生成します。
高性能は、実装の精度とツールの増強によって主に駆動されるように見えますが、優れた推論ではありません。
したがって、LiveCodebench Proは、人間のグランドマスターレベルとの大きなギャップを強調し、コード中心のLLM推論の将来の改善を促進するための微調整された診断を提供します。

要約(オリジナル)

Recent reports claim that large language models (LLMs) now outperform elite humans in competitive programming. Drawing on knowledge from a group of medalists in international algorithmic contests, we revisit this claim, examining how LLMs differ from human experts and where limitations still remain. We introduce LiveCodeBench Pro, a benchmark composed of problems from Codeforces, ICPC, and IOI that are continuously updated to reduce the likelihood of data contamination. A team of Olympiad medalists annotates every problem for algorithmic categories and conducts a line-by-line analysis of failed model-generated submissions. Using this new data and benchmark, we find that frontier models still have significant limitations: without external tools, the best model achieves only 53% pass@1 on medium-difficulty problems and 0% on hard problems, domains where expert humans still excel. We also find that LLMs succeed at implementation-heavy problems but struggle with nuanced algorithmic reasoning and complex case analysis, often generating confidently incorrect justifications. High performance appears largely driven by implementation precision and tool augmentation, not superior reasoning. LiveCodeBench Pro thus highlights the significant gap to human grandmaster levels, while offering fine-grained diagnostics to steer future improvements in code-centric LLM reasoning.

arxiv情報

著者 Zihan Zheng,Zerui Cheng,Zeyu Shen,Shang Zhou,Kaiyuan Liu,Hansen He,Dongruixuan Li,Stanley Wei,Hangyi Hao,Jianzhu Yao,Peiyao Sheng,Zixuan Wang,Wenhao Chai,Aleksandra Korolova,Peter Henderson,Sanjeev Arora,Pramod Viswanath,Jingbo Shang,Saining Xie
発行日 2025-06-13 16:29:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG, cs.SE | コメントする

Improving Large Language Model Safety with Contrastive Representation Learning

要約

大規模な言語モデル(LLM)は、社会的影響を深める強力なツールですが、多様で制御されていない入力に対する応答を生成する能力により、敵対的な攻撃に対して脆弱になります。
既存の防御はしばしばさまざまな攻撃タイプ全体で一般化するのに苦労していますが、最近の代表工学の進歩は有望な代替案を提供します。
この作業では、モデル防御を対照的な表現学習(CRL)問題として定式化する防御フレームワークを提案します。
私たちのメソッドは、良性表現と有害な表現の分離を促進するために、トリプレットベースの損失と敵対的なハードネガティブマイニングを組み合わせたモデルをFinetunesにします。
複数のモデルにわたる実験結果は、私たちのアプローチが事前の表現エンジニアリングベースの防御を上回り、標準パフォーマンスを損なうことなく入力レベルと埋め込みスペース攻撃の両方に対する堅牢性を改善することを示しています。
私たちのコードは、https://github.com/samuelsimko/crl-llm-defenseで入手できます

要約(オリジナル)

Large Language Models (LLMs) are powerful tools with profound societal impacts, yet their ability to generate responses to diverse and uncontrolled inputs leaves them vulnerable to adversarial attacks. While existing defenses often struggle to generalize across varying attack types, recent advancements in representation engineering offer promising alternatives. In this work, we propose a defense framework that formulates model defense as a contrastive representation learning (CRL) problem. Our method finetunes a model using a triplet-based loss combined with adversarial hard negative mining to encourage separation between benign and harmful representations. Our experimental results across multiple models demonstrate that our approach outperforms prior representation engineering-based defenses, improving robustness against both input-level and embedding-space attacks without compromising standard performance. Our code is available at https://github.com/samuelsimko/crl-llm-defense

arxiv情報

著者 Samuel Simko,Mrinmaya Sachan,Bernhard Schölkopf,Zhijing Jin
発行日 2025-06-13 16:42:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG | コメントする

Today’s Cat Is Tomorrow’s Dog: Accounting for Time-Based Changes in the Labels of ML Vulnerability Detection Approaches

要約

MLテストに使用される脆弱性データセットには、遡及的情報が暗黙的に含まれています。
フィールドでテストされた場合、トレーニングとテスト時に利用可能なラベルを使用することができます(たとえば、見られたり、想定されているネガティブ)。
カレンダー時間全体で脆弱性が発見されるため、ラベルの変化と過去のパフォーマンスは、必ずしも将来のパフォーマンスと一致するわけではありません。
過去の作品は、全歴史のスライス(例:多様性)または放出間の個人差のみを考慮した(例:Jimenez etal。ESEC/FSE 2019)。
このようなアプローチは、トレーニング(歴史全体など)が楽観的すぎるか、保守的すぎる(例:連続リリース)のいずれかです。
データセットを再構築する方法を提案し、トレーニングラベルとテストラベルの両方が変更されて、当時利用可能な知識を説明するために変更します。
モデルが実際に学習している場合、より多くのデータが利用可能になり、データがより安定になるにつれて、時間の経過とともにパフォーマンスを改善する必要があります。これは、Mann-Kendallテストでチェックできる効果です。
4つの時間ベースのデータセット(BigVul Dataset + VuldeePeckerのNVDからの3つのプロジェクト)および5 MLモデル(Code2Vec、Codebert、Linevul、Regvd、およびVuldeepecker)を使用して、脆弱性検出の方法論を検証します。
直感的な期待(より遡及的な情報、より良いパフォーマンス)とは対照的に、トレンドの結果は、パフォーマンスが長年にわたって矛盾して変化することを示しており、ほとんどのモデルが学習していないことを示しています。

要約(オリジナル)

Vulnerability datasets used for ML testing implicitly contain retrospective information. When tested on the field, one can only use the labels available at the time of training and testing (e.g. seen and assumed negatives). As vulnerabilities are discovered across calendar time, labels change and past performance is not necessarily aligned with future performance. Past works only considered the slices of the whole history (e.g. DiverseVUl) or individual differences between releases (e.g. Jimenez et al. ESEC/FSE 2019). Such approaches are either too optimistic in training (e.g. the whole history) or too conservative (e.g. consecutive releases). We propose a method to restructure a dataset into a series of datasets in which both training and testing labels change to account for the knowledge available at the time. If the model is actually learning, it should improve its performance over time as more data becomes available and data becomes more stable, an effect that can be checked with the Mann-Kendall test. We validate our methodology for vulnerability detection with 4 time-based datasets (3 projects from BigVul dataset + Vuldeepecker’s NVD) and 5 ML models (Code2Vec, CodeBERT, LineVul, ReGVD, and Vuldeepecker). In contrast to the intuitive expectation (more retrospective information, better performance), the trend results show that performance changes inconsistently across the years, showing that most models are not learning.

arxiv情報

著者 Ranindya Paramitha,Yuan Feng,Fabio Massacci
発行日 2025-06-13 16:42:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, I.2 | コメントする

Explainability of Large Language Models using SMILE: Statistical Model-agnostic Interpretability with Local Explanations

要約

GPT、Llama、Claudeなどの大規模な言語モデルは、テキストを生成することで非常に強力になっていますが、それでもブラックボックスであるため、何を言うかをどのように決定するかを理解するのは困難です。
特に信頼と説明責任が重要な分野では、透明性の欠如が問題になる可能性があります。
これを支援するために、これらのモデルがプロンプトのさまざまな部分にどのように反応するかを説明する新しい方法であるSmileを紹介します。
Smileはモデルに依存しており、入力をわずかに変更し、出力がどのように変化するかを測定し、どの単語が最も影響を与えたかを強調することで機能します。
プロンプトのどの部分が最も重要であるかを示すシンプルな視覚ヒートマップを作成します。
いくつかの主要なLLMでSmileをテストし、精度、一貫性、安定性、忠実度などのメトリックを使用して、明確で信頼できる説明を提供することを示しました。
これらのモデルを理解しやすくすることで、SmileはAIをより透明で信頼できるものにすることに一歩近づきます。

要約(オリジナル)

Large language models like GPT, LLAMA, and Claude have become incredibly powerful at generating text, but they are still black boxes, so it is hard to understand how they decide what to say. That lack of transparency can be problematic, especially in fields where trust and accountability matter. To help with this, we introduce SMILE, a new method that explains how these models respond to different parts of a prompt. SMILE is model-agnostic and works by slightly changing the input, measuring how the output changes, and then highlighting which words had the most impact. Create simple visual heat maps showing which parts of a prompt matter the most. We tested SMILE on several leading LLMs and used metrics such as accuracy, consistency, stability, and fidelity to show that it gives clear and reliable explanations. By making these models easier to understand, SMILE brings us one step closer to making AI more transparent and trustworthy.

arxiv情報

著者 Zeinab Dehghani,Mohammed Naveed Akram,Koorosh Aslansefat,Adil Khan
発行日 2025-06-13 16:43:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG | コメントする

HypRL: Reinforcement Learning of Control Policies for Hyperproperties

要約

複雑なタスクに対するマルチエージェント強化学習(MARL)の報酬形状は依然として重要な課題です。
既存のアプローチは、最適なソリューションを見つけることができないことが多い、またはそのようなタスクを効率的に処理できないことがよくあります。
制御ポリシーW.R.T.
hyperltlで表されるハイパープロパティ。
ハイパープロパティは、エージェント間の実行トレースのセットを介して目標と制約を指定するための強力な形式主義を構成します。
Hyperltl式$ \ phi $の満足度を最大化するポリシーを学習するために、スコール化を適用して定量化装置の代替を管理し、定量的堅牢性関数を定義して、未知の遷移を持つマルコフ決定プロセスの実行トレースよりも報酬を形作ります。
次に、適切なRLアルゴリズムを使用して、予想される報酬を集合的に最大化し、その結果、$ \ phi $を満たす確率を高めるポリシーを学習します。
安全性を認識した計画、深海の宝物、および対応後の問題など、さまざまなベンチマークのセットでHyprlを評価します。
また、仕様駆動型ベースラインと比較して、Hyprlの有効性と効率を実証します。

要約(オリジナル)

Reward shaping in multi-agent reinforcement learning (MARL) for complex tasks remains a significant challenge. Existing approaches often fail to find optimal solutions or cannot efficiently handle such tasks. We propose HYPRL, a specification-guided reinforcement learning framework that learns control policies w.r.t. hyperproperties expressed in HyperLTL. Hyperproperties constitute a powerful formalism for specifying objectives and constraints over sets of execution traces across agents. To learn policies that maximize the satisfaction of a HyperLTL formula $\phi$, we apply Skolemization to manage quantifier alternations and define quantitative robustness functions to shape rewards over execution traces of a Markov decision process with unknown transitions. A suitable RL algorithm is then used to learn policies that collectively maximize the expected reward and, consequently, increase the probability of satisfying $\phi$. We evaluate HYPRL on a diverse set of benchmarks, including safety-aware planning, Deep Sea Treasure, and the Post Correspondence Problem. We also compare with specification-driven baselines to demonstrate the effectiveness and efficiency of HYPRL.

arxiv情報

著者 Tzu-Han Hsu,Arshia Rafieioskouei,Borzoo Bonakdarpour
発行日 2025-06-13 16:47:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LO | コメントする

Enhancing multimodal analogical reasoning with Logic Augmented Generation

要約

大規模な言語モデルの最近の進歩により、さまざまなタスクにわたって能力が実証されています。
ただし、自然言語から暗黙の知識を自動的に抽出することは、マシンが物理的な世界で積極的な経験を欠いているため、重要な課題のままです。
このシナリオを考えると、セマンティックナレッジグラフは、より効率的で説明可能な結果を​​達成するために、自動化されたテキスト生成推論プロセスを導く概念的なスペースとして機能します。
このホワイトペーパーでは、セマンティックナレッジグラフを介してテキストの明示的な表現を活用し、迅速なヒューリスティックと組み合わせて暗黙的な類推接続を引き出すために、それを迅速に適用するロジックの高等生成(LAG)フレームワークを適用します。
この方法では、暗黙の意味を表す拡張された知識グラフトリプルを生成し、ドメインに関係なく、システムが非標識マルチモーダルデータの推論を可能にします。
深い類似の推論能力が必要なため、4つのデータセットで3つのメタファーの検出と理解を介して作業を検証します。
結果は、この統合されたアプローチが現在のベースラインを上回り、視覚的なメタファーを理解する際に人間よりも優れていることを示しており、より説明しやすい推論プロセスを可能にしますが、特にドメイン固有のメタファーのメタファー理解には固有の制限があります。
さらに、比phor的な注釈と現在の評価方法に関する問題について議論し、徹底的なエラー分析を提案します。

要約(オリジナル)

Recent advances in Large Language Models have demonstrated their capabilities across a variety of tasks. However, automatically extracting implicit knowledge from natural language remains a significant challenge, as machines lack active experience with the physical world. Given this scenario, semantic knowledge graphs can serve as conceptual spaces that guide the automated text generation reasoning process to achieve more efficient and explainable results. In this paper, we apply a logic-augmented generation (LAG) framework that leverages the explicit representation of a text through a semantic knowledge graph and applies it in combination with prompt heuristics to elicit implicit analogical connections. This method generates extended knowledge graph triples representing implicit meaning, enabling systems to reason on unlabeled multimodal data regardless of the domain. We validate our work through three metaphor detection and understanding tasks across four datasets, as they require deep analogical reasoning capabilities. The results show that this integrated approach surpasses current baselines, performs better than humans in understanding visual metaphors, and enables more explainable reasoning processes, though still has inherent limitations in metaphor understanding, especially for domain-specific metaphors. Furthermore, we propose a thorough error analysis, discussing issues with metaphorical annotations and current evaluation methods.

arxiv情報

著者 Anna Sofia Lippolis,Andrea Giovanni Nuzzolese,Aldo Gangemi
発行日 2025-06-13 16:49:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | コメントする

Self-interpreting Adversarial Images

要約

自己解釈画像の作成を可能にする視覚言語モデルに対する新しいタイプの間接的なクロスインジェクション攻撃を導入します。
これらの画像には、モデルが画像に関するユーザーの質問に答える方法を制御する隠された「メタインストラクション」が含まれており、モデルの出力を操作して、敵対的なスタイル、感情、または視点を表現しています。
自己解釈画像はソフトプロンプトとして機能し、モデルを調整して、画像の視覚コンテンツに基づいて回答を生成しながら、敵の(メタ)目的を満たします。
したがって、メタインストラクションは迅速な注入のより強い形態です。
敵対的なイメージは自然に見え、モデルの答えは一貫性があり、もっともらしいですが、それはまた、敵対した解釈、例えば政治的スピン、または明示的なテキストの指示では達成できない目的でさえも従います。
さまざまなモデル、解釈、ユーザープロンプトの自己解釈画像の有効性を評価します。
これらの攻撃が、スパム、誤った情報、またはスピンを運ぶ自己解釈コンテンツの作成を可能にすることにより、どのように害を引き起こす可能性があるかを説明します。
最後に、防御について説明します。

要約(オリジナル)

We introduce a new type of indirect, cross-modal injection attacks against visual language models that enable creation of self-interpreting images. These images contain hidden ‘meta-instructions’ that control how models answer users’ questions about the image and steer models’ outputs to express an adversary-chosen style, sentiment, or point of view. Self-interpreting images act as soft prompts, conditioning the model to satisfy the adversary’s (meta-)objective while still producing answers based on the image’s visual content. Meta-instructions are thus a stronger form of prompt injection. Adversarial images look natural and the model’s answers are coherent and plausible, yet they also follow the adversary-chosen interpretation, e.g., political spin, or even objectives that are not achievable with explicit text instructions. We evaluate the efficacy of self-interpreting images for a variety of models, interpretations, and user prompts. We describe how these attacks could cause harm by enabling creation of self-interpreting content that carries spam, misinformation, or spin. Finally, we discuss defenses.

arxiv情報

著者 Tingwei Zhang,Collin Zhang,John X. Morris,Eugene Bagdasarian,Vitaly Shmatikov
発行日 2025-06-13 16:53:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.LG | コメントする

Subjective Experience in AI Systems: What Do AI Researchers and the Public Believe?

要約

主要なAI会場で発表した582人のAI研究者と、主観的な経験を持つAIシステムの潜在的な開発に関する意見と、そのようなシステムの扱いと統治の方法についての838人の全国代表の米国の参加者を調査しました。
そのようなシステムが特定の日付に存在する可能性を推定するように求められたとき、反応の中央値は2024年までに1%(AI研究者)、2034年までに25%と30%、および2100年ごとに70%と60%でした。
一般のメンバーは、主観的な経験を持つAIシステムが存在しない可能性が高いと考えていました(25%)AI研究者の中央値(10%)。
両方のグループは、AI主観的な経験を評価するために学際的な専門知識の必要性を認識していました。
このようなAIシステムの福祉保護への支援は反対を超えましたが、動物や環境の保護に対する支援よりもはるかに低いままでした。
道徳的およびガバナンスの問題に対する態度は、特にそのようなシステムを作成すべきかどうか、どのような権利または保護を受け取るべきかに関して、両方のグループで分割されました。
しかし、両方のグループの回答者の大多数は、主観的な経験を持つAIシステムからの潜在的なリスクに対する保護は現在AI開発者によって実装されるべきであることに同意しました。
全体として、これらの結果は、AIの研究者と国民の両方が、主観的な経験を持つAIシステムの出現を今世紀の可能性と見なしていることを示唆していますが、タイムラインと適切な対応についてはかなりの不確実性と不一致が残っています。

要約(オリジナル)

We surveyed 582 AI researchers who have published in leading AI venues and 838 nationally representative US participants about their views on the potential development of AI systems with subjective experience and how such systems should be treated and governed. When asked to estimate the chances that such systems will exist on specific dates, the median responses were 1% (AI researchers) and 5% (public) by 2024, 25% and 30% by 2034, and 70% and 60% by 2100, respectively. The median member of the public thought there was a higher chance that AI systems with subjective experience would never exist (25%) than the median AI researcher did (10%). Both groups perceived a need for multidisciplinary expertise to assess AI subjective experience. Although support for welfare protections for such AI systems exceeded opposition, it remained far lower than support for protections for animals or the environment. Attitudes toward moral and governance issues were divided in both groups, especially regarding whether such systems should be created and what rights or protections they should receive. Yet a majority of respondents in both groups agreed that safeguards against the potential risks from AI systems with subjective experience should be implemented by AI developers now, and if created, AI systems with subjective experience should treat others well, behave ethically, and be held accountable. Overall, these results suggest that both AI researchers and the public regard the emergence of AI systems with subjective experience as a possibility this century, though substantial uncertainty and disagreement remain about the timeline and appropriate response.

arxiv情報

著者 Noemi Dreksler,Lucius Caviola,David Chalmers,Carter Allen,Alex Rand,Joshua Lewis,Philip Waggoner,Kate Mays,Jeff Sebo
発行日 2025-06-13 16:53:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY | コメントする