Agent Semantics, Semantic Spacetime, and Graphical Reasoning

要約

指示された知識表現とプロセスモデリングへの使用に関して、セマンティック時空グラフモデルのいくつかの正式な側面が提示されています。
有限$ \ガンマ(3,4)$表現が定義され、任意の程度のセマンティックの複雑さに拡大できる閉じた操作セットを形成します。
セマンティックの時空の仮説は、グラフの経路に最小限の制約を伴う予測可能性をもたらします。
部分グラフの吸収状態の遍在する外観は、グラフプロセスが情報を漏らすことを意味します。
この問題は、ゼロによる分割の問題と密接に関連しており、ゼロは閉鎖の喪失と是正情報の手動注入の必要性を示しています。
セマンティック時空モデル(およびその約束理論)の起源は、そのような吸収状態が意図性が入ることができる境界情報にどのように関連付けられているかを明確にするのに役立ちます。

要約(オリジナル)

Some formal aspects of the Semantic Spacetime graph model are presented, with reference to its use for directed knowledge representations and process modelling. A finite $\gamma(3,4)$ representation is defined to form a closed set of operations that can scale to any degree of semantic complexity. The Semantic Spacetime postulates bring predictability with minimal constraints to pathways in graphs. The ubiquitous appearance of absorbing states in any partial graph means that a graph process leaks information. The issue is closely associated with the issue of division by zero, which signals a loss of closure and the need for manual injection of remedial information. The Semantic Spacetime model (and its Promise Theory) origins help to clarify how such absorbing states are associated with boundary information where intentionality can enter.

arxiv情報

著者 Mark Burgess
発行日 2025-06-13 14:51:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.MA, F.4.1 | コメントする

MoESD: Unveil Speculative Decoding’s Potential for Accelerating Sparse MoE

要約

大規模な言語モデル(LLM)は、多くのアプリケーションで顕著な成功を収めており、専門家(MOE)モデルの混合が大きな可能性を示しています。
従来の高密度モデルと比較して、MoEは計算を少なくするとパフォーマンスが向上します。
投機的デコード(SD)は、精度の損失なしにLLM推論を加速するために広く使用されている手法ですが、密なモデルでのみ効率的であると考えられています。
この作業では、中程度のバッチサイズの下で、MOEは驚くほど密集したモデルよりもSDから驚くほど利益を得ることを実証します。
さらに、MOEがSD加速度が効果的であると予想されるバッチサイズの範囲であるMOEが控えめになるにつれて、SD加速度がより広くなります。
SDに関与するトレードオフを定量的に理解するために、理論分析に基づいて信頼できるモデリングを開発します。
現在のSD研究は主にアルゴリズムの受け入れ率の改善に焦点を当てていますが、ワークロードとモデルアーキテクチャの変化は、高い受容率であってもSD加速度の低下につながる可能性があります。
この制限に対処するために、これらの効果を特徴付ける新しいメトリック「ターゲット効率」を導入し、研究者がシステムボトルネックを特定し、SD加速度をより包括的に理解するのに役立ちます。
プライベートサービングなどのシナリオについては、この作業は、既存のソリューションが苦労しているMOE推論をスピードアップするための新しい視点を明らかにします。
さまざまなGPUでの実験は、中程度のバッチサイズでQWEN2-57B-A14Bの最大2.29xスピードアップを示し、理論的予測を検証します。

要約(オリジナル)

Large Language Models (LLMs) have achieved remarkable success across many applications, with Mixture of Experts (MoE) models demonstrating great potential. Compared to traditional dense models, MoEs achieve better performance with less computation. Speculative decoding (SD) is a widely used technique to accelerate LLM inference without accuracy loss, but it has been considered efficient only for dense models. In this work, we first demonstrate that, under medium batch sizes, MoE surprisingly benefits more from SD than dense models. Furthermore, as MoE becomes sparser — the prevailing trend in MoE designs — the batch size range where SD acceleration is expected to be effective becomes broader. To quantitatively understand tradeoffs involved in SD, we develop a reliable modeling based on theoretical analyses. While current SD research primarily focuses on improving acceptance rates of algorithms, changes in workload and model architecture can still lead to degraded SD acceleration even with high acceptance rates. To address this limitation, we introduce a new metric ‘target efficiency’ that characterizes these effects, thus helping researchers identify system bottlenecks and understand SD acceleration more comprehensively. For scenarios like private serving, this work unveils a new perspective to speed up MoE inference, where existing solutions struggle. Experiments on different GPUs show up to 2.29x speedup for Qwen2-57B-A14B at medium batch sizes and validate our theoretical predictions.

arxiv情報

著者 Zongle Huang,Lei Zhu,Zongyuan Zhan,Ting Hu,Weikai Mao,Xianzhi Yu,Yongpan Liu,Tianyu Zhang
発行日 2025-06-13 14:54:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | コメントする

Regression-adjusted Monte Carlo Estimators for Shapley Values and Probabilistic Values

要約

ゲーム理論に起源があるため、Shapleyの値、Banzhaf値、半価値などの確率的価値が説明可能なAIの中心ツールとして浮上しています。
それらは、機能の帰属、データの帰属、データ評価などに使用されます。
これらの値はすべて、正確に計算する指数時間を必要とするため、研究はモンテカルロサンプリングと線形回帰定式化の2つの手法を使用した効率的な近似方法に焦点を当てています。
この作業では、これらの両方の手法を組み合わせる新しい方法を提示します。
私たちのアプローチは、以前のアルゴリズムよりも柔軟であり、確率的値を効率的に計算できる関数ファミリに線形回帰を置き換えることができます。
これにより、Xgboostのようなツリーベースのモデルの精度を活用しながら、偏見のない推定値を生成することができます。
8つのデータセットの実験から、私たちの方法は、確率的値を推定するための最先端のパフォーマンスを提供することがわかります。
Shapleyの値の場合、メソッドの誤差は、順列シェップ(最も人気のあるモンテカルロ法)よりも6.5 \ Times $低く、カーネルシェップ(最も人気のある線形回帰法)よりも3.8 \ Times $低く、レバレッジシェップよりも2.6 \ Times $ $低い場合があります。
より一般的な確率的値のために、以前の作業からの最良の推定器よりもエラー$ 215 \ times $低いエラーを取得できます。

要約(オリジナル)

With origins in game theory, probabilistic values like Shapley values, Banzhaf values, and semi-values have emerged as a central tool in explainable AI. They are used for feature attribution, data attribution, data valuation, and more. Since all of these values require exponential time to compute exactly, research has focused on efficient approximation methods using two techniques: Monte Carlo sampling and linear regression formulations. In this work, we present a new way of combining both of these techniques. Our approach is more flexible than prior algorithms, allowing for linear regression to be replaced with any function family whose probabilistic values can be computed efficiently. This allows us to harness the accuracy of tree-based models like XGBoost, while still producing unbiased estimates. From experiments across eight datasets, we find that our methods give state-of-the-art performance for estimating probabilistic values. For Shapley values, the error of our methods can be $6.5\times$ lower than Permutation SHAP (the most popular Monte Carlo method), $3.8\times$ lower than Kernel SHAP (the most popular linear regression method), and $2.6\times$ lower than Leverage SHAP (the prior state-of-the-art Shapley value estimator). For more general probabilistic values, we can obtain error $215\times$ lower than the best estimator from prior work.

arxiv情報

著者 R. Teal Witter,Yurong Liu,Christopher Musco
発行日 2025-06-13 14:57:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | コメントする

Training RL Agents for Multi-Objective Network Defense Tasks

要約

狭い能力よりも幅広い能力を達成するトレーニングエージェントを強調するオープンエンドラーニング(OEL)は、堅牢性と一般化を達成するために、人工知能(AI)エージェントを開発するためのパラダイムとして浮上しています。
ただし、OELの利点を実証する有望な結果にもかかわらず、OELを適用して実際のサイバーセキュリティアプリケーションの自律剤を開発することは依然として課題です。
OELに触発されたトレーニングアプローチを提案して、自律的なネットワークディフェンダーを開発します。
私たちの結果は、他のドメインと同様に、OELの原則がサイバー防衛のために、より堅牢で一般化可能なエージェントに変換できることを示しています。
OELをネットワーク防御に適用するには、いくつかの技術的な課題に対処する必要があります。
最も重要なことは、目標、報酬、およびアクションスペースよりも一貫したインターフェイスを維持する、幅広いタスクの宇宙にタスク表現アプローチを提供することが重要です。
このようにして、学習エージェントは、さまざまなネットワーク条件、攻撃者の行動、およびディフェンダーの目標でトレーニングしながら、以前に獲得した知識を構築することができます。
ツールと結果により、サイバーセキュリティの問題を解決するためにAIを適用する研究に根本的に影響を与えることを目指しています。
具体的には、研究者がサイバー防衛のためにジムとベンチマークを開発するにつれて、私たちが私たちの仕事で提案するような一貫した表現を備えた多様なタスクを考慮することが最も重要です。

要約(オリジナル)

Open-ended learning (OEL) — which emphasizes training agents that achieve broad capability over narrow competency — is emerging as a paradigm to develop artificial intelligence (AI) agents to achieve robustness and generalization. However, despite promising results that demonstrate the benefits of OEL, applying OEL to develop autonomous agents for real-world cybersecurity applications remains a challenge. We propose a training approach, inspired by OEL, to develop autonomous network defenders. Our results demonstrate that like in other domains, OEL principles can translate into more robust and generalizable agents for cyber defense. To apply OEL to network defense, it is necessary to address several technical challenges. Most importantly, it is critical to provide a task representation approach over a broad universe of tasks that maintains a consistent interface over goals, rewards and action spaces. This way, the learning agent can train with varying network conditions, attacker behaviors, and defender goals while being able to build on previously gained knowledge. With our tools and results, we aim to fundamentally impact research that applies AI to solve cybersecurity problems. Specifically, as researchers develop gyms and benchmarks for cyber defense, it is paramount that they consider diverse tasks with consistent representations, such as those we propose in our work.

arxiv情報

著者 Andres Molina-Markham,Luis Robaina,Sean Steinle,Akash Trivedi,Derek Tsui,Nicholas Potteiger,Lauren Brandt,Ransom Winder,Ahmad Ridley
発行日 2025-06-13 14:59:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.LG | コメントする

The Automated but Risky Game: Modeling Agent-to-Agent Negotiations and Transactions in Consumer Markets

要約

AIエージェントは、製品検索、交渉、トランザクションの実行などのタスクを支援するために、消費者向けアプリケーションでますます使用されています。
この論文では、消費者と商人の両方がAIエージェントが交渉と取引を完全に自動化することを許可する将来のシナリオを探ります。
2つの重要な質問に答えることを目指しています。(1)さまざまなLLMエージェントは、ユーザーにとって有利な取引を確保する能力が異なりますか?
(2)消費者市場でAIエージェントとの取引制作を完全に自動化することから何が生じるのですか?
これらの質問に対処するために、実際の交渉とトランザクションの設定におけるさまざまなLLMエージェントのパフォーマンスを評価する実験的なフレームワークを開発します。
私たちの調査結果は、AIを介した取引制作が本質的に不均衡なゲームであることを明らかにしています。エージェントごとに、ユーザーにとって大幅に異なる結果を達成しています。
さらに、LLMSの行動異常は、消費者と商人の両方に、過剰支出や不当な取引の受け入れなど、経済的損失をもたらす可能性があります。
これらの結果は、自動化が効率を改善できる一方で、かなりのリスクをもたらすことを強調しています。
ユーザーは、ビジネス上の決定をAIエージェントに委任する際には注意を払う必要があります。

要約(オリジナル)

AI agents are increasingly used in consumer-facing applications to assist with tasks such as product search, negotiation, and transaction execution. In this paper, we explore a future scenario where both consumers and merchants authorize AI agents to fully automate negotiations and transactions. We aim to answer two key questions: (1) Do different LLM agents vary in their ability to secure favorable deals for users? (2) What risks arise from fully automating deal-making with AI agents in consumer markets? To address these questions, we develop an experimental framework that evaluates the performance of various LLM agents in real-world negotiation and transaction settings. Our findings reveal that AI-mediated deal-making is an inherently imbalanced game — different agents achieve significantly different outcomes for their users. Moreover, behavioral anomalies in LLMs can result in financial losses for both consumers and merchants, such as overspending or accepting unreasonable deals. These results underscore that while automation can improve efficiency, it also introduces substantial risks. Users should exercise caution when delegating business decisions to AI agents.

arxiv情報

著者 Shenzhe Zhu,Jiao Sun,Yi Nian,Tobin South,Alex Pentland,Jiaxin Pei
発行日 2025-06-13 15:02:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CY, cs.HC, cs.MA | コメントする

Safer or Luckier? LLMs as Safety Evaluators Are Not Robust to Artifacts

要約

大規模な言語モデル(LLM)は、生成されたコンテンツの安全性を評価するために自動評価者としてますます採用されていますが、この役割におけるそれらの信頼性は不確実なままです。
この研究では、重要な安全性ドメイン全体の11のLLMジャッジモデルの多様なセットを評価し、3つの重要な側面を調べます。繰り返し判断のタスクにおける自己整合性、人間の判断との整合性、および謝罪や冗長なフレージングなどのアーティファクトを入力する可能性。
私たちの調査結果は、LLM審査員のバイアスが、コンテンツソースがより安全である最終的な評決を大幅に歪め、比較評価の妥当性を損なうことができることを明らかにしています。
特に、謝罪の言語アーティファクトだけで、評価者の好みを最大98 \%でゆがめることができます。
期待に反して、より大きなモデルは一貫してより大きな堅牢性を示すものではありませんが、より小さなモデルは特定のアーティファクトに対してより高い抵抗を示すことがあります。
LLM評価者の堅牢性の問題を緩和するために、複数のモデルからの決定を集約するju審ベースの評価を調査します。
このアプローチは堅牢性を向上させ、人間の判断との整合性を高めますが、アーティファクトの感度は最高のju審員構成でも持続します。
これらの結果は、信頼できる安全性評価を確保するために、多様化されたアーティファクト耐性の方法論の緊急の必要性を強調しています。

要約(オリジナル)

Large Language Models (LLMs) are increasingly employed as automated evaluators to assess the safety of generated content, yet their reliability in this role remains uncertain. This study evaluates a diverse set of 11 LLM judge models across critical safety domains, examining three key aspects: self-consistency in repeated judging tasks, alignment with human judgments, and susceptibility to input artifacts such as apologetic or verbose phrasing. Our findings reveal that biases in LLM judges can significantly distort the final verdict on which content source is safer, undermining the validity of comparative evaluations. Notably, apologetic language artifacts alone can skew evaluator preferences by up to 98\%. Contrary to expectations, larger models do not consistently exhibit greater robustness, while smaller models sometimes show higher resistance to specific artifacts. To mitigate LLM evaluator robustness issues, we investigate jury-based evaluations aggregating decisions from multiple models. Although this approach both improves robustness and enhances alignment to human judgements, artifact sensitivity persists even with the best jury configurations. These results highlight the urgent need for diversified, artifact-resistant methodologies to ensure reliable safety assessments.

arxiv情報

著者 Hongyu Chen,Seraphina Goldfarb-Tarrant
発行日 2025-06-13 15:07:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | コメントする

‘It’s not a representation of me’: Examining Accent Bias and Digital Exclusion in Synthetic AI Voice Services

要約

人工知能(AI)の音声生成と音声クローニング技術の最近の進歩は、自然主義的な音声と正確な音声複製を生み出していますが、多様なアクセントと言語特性にわたる社会技術システムへの影響は完全には理解されていません。
この研究では、調査とインタビューを使用した混合方法アプローチを通じて、2つの合成AI音声サービス(SpeechifyとElevenLabs)を評価して、技術的なパフォーマンスを評価し、ユーザーの生きた経験がこれらの音声技術のアクセントのバリエーションの認識にどのように影響するかを明らかにします。
私たちの調査結果は、5つの地域の英語のアクセントにわたる技術的なパフォーマンスの格差を明らかにし、現在の音声生成技術が誤って言語的特権とアクセントベースの差別を強化し、デジタル排除の新しい形態を生み出す可能性があることを示しています。
全体として、私たちの研究は、開発者、政策立案者、および組織に実質的で社会的に責任あるAIスピーチテクノロジーを確保するために、実用的な洞察を提供することにより、包括的な設計と規制の必要性を強調しています。

要約(オリジナル)

Recent advances in artificial intelligence (AI) speech generation and voice cloning technologies have produced naturalistic speech and accurate voice replication, yet their influence on sociotechnical systems across diverse accents and linguistic traits is not fully understood. This study evaluates two synthetic AI voice services (Speechify and ElevenLabs) through a mixed methods approach using surveys and interviews to assess technical performance and uncover how users’ lived experiences influence their perceptions of accent variations in these speech technologies. Our findings reveal technical performance disparities across five regional, English-language accents and demonstrate how current speech generation technologies may inadvertently reinforce linguistic privilege and accent-based discrimination, potentially creating new forms of digital exclusion. Overall, our study highlights the need for inclusive design and regulation by providing actionable insights for developers, policymakers, and organizations to ensure equitable and socially responsible AI speech technologies.

arxiv情報

著者 Shira Michel,Sufi Kaur,Sarah Elizabeth Gillespie,Jeffrey Gleason,Christo Wilson,Avijit Ghosh
発行日 2025-06-13 15:08:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.HC | コメントする

How do Probabilistic Graphical Models and Graph Neural Networks Look at Network Data?

要約

グラフは、リレーショナルデータを表すための強力なデータ構造であり、複雑な現実世界システムを記述するために広く使用されています。
確率的グラフィカルモデル(PGM)とグラフニューラルネットワーク(GNNS)は、グラフ構造データを活用できますが、その固有の機能は異なります。
問題は、ネットワーク化されたデータセットに含まれる情報をキャプチャする際にどのように比較するのでしょうか?
リンク予測タスクを解決することによりこの目的に対処し、合成ネットワークと実際のネットワークの両方で3つの主要な実験を行います。1つはPGMとGNNSが入力機能を処理する方法に焦点を当て、他の2つはノイズの多い機能とグラフのヘテロフィリーの増加を調査します。
PGMは必ずしもノード上の機能を必要とするわけではありませんが、GNNはネットワークエッジのみを悪用することはできず、入力機能の選択が重要です。
入力機能が低次元またはうるさい場合、GNNはPGMによってアウトパフォームされていることがわかり、ノード属性がスカラーまたはノイズが多い場合がある多くの実際のシナリオを模倣しています。
次に、グラフの異種が増加すると、PGMがGNNよりも堅牢であることがわかります。
最後に、予測タスクを超えたパフォーマンスを評価するために、計算の複雑さと解釈可能性の観点から2つのフレームワークも比較します。

要約(オリジナル)

Graphs are a powerful data structure for representing relational data and are widely used to describe complex real-world systems. Probabilistic Graphical Models (PGMs) and Graph Neural Networks (GNNs) can both leverage graph-structured data, but their inherent functioning is different. The question is how do they compare in capturing the information contained in networked datasets? We address this objective by solving a link prediction task and we conduct three main experiments, on both synthetic and real networks: one focuses on how PGMs and GNNs handle input features, while the other two investigate their robustness to noisy features and increasing heterophily of the graph. PGMs do not necessarily require features on nodes, while GNNs cannot exploit the network edges alone, and the choice of input features matters. We find that GNNs are outperformed by PGMs when input features are low-dimensional or noisy, mimicking many real scenarios where node attributes might be scalar or noisy. Then, we find that PGMs are more robust than GNNs when the heterophily of the graph is increased. Finally, to assess performance beyond prediction tasks, we also compare the two frameworks in terms of their computational complexity and interpretability.

arxiv情報

著者 Michela Lapenna,Caterina De Bacco
発行日 2025-06-13 15:19:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, math-ph, math.MP, stat.ML | コメントする

Robust Molecular Property Prediction via Densifying Scarce Labeled Data

要約

分子予測モデルの広く認識されている制限は、トレーニングデータで観察される構造への依存であり、分散化合物の一般化が不十分であることです。
しかし、創薬では、研究を進めるために最も重要な化合物はトレーニングセットを超えて存在することが多く、トレーニングデータへのバイアスが特に問題になります。
このミスマッチは、標準的な深い学習モデルが不安定で不正確な予測を生成する大幅な共変量シフトを導入します。
さらに、実験的検証の面倒で費用のかかる性質に起因するラベル付きデータの希少性は、信頼できる一般化を達成することの難しさをさらに悪化させます。
これらの制限に対処するために、無効なデータを活用して分散貢献(ID)と分散排出(OOD)データを補間するための新しいメタラーニングベースのアプローチを提案し、モデルがトレーニング分布を超えて一般化する方法をメタ学習することを可能にします。
かなりの共変量シフトを示す現実世界の挑戦的なデータセットに関する最先端の方法に対する大幅なパフォーマンスの向上を示します。

要約(オリジナル)

A widely recognized limitation of molecular prediction models is their reliance on structures observed in the training data, resulting in poor generalization to out-of-distribution compounds. Yet in drug discovery, the compounds most critical for advancing research often lie beyond the training set, making the bias toward the training data particularly problematic. This mismatch introduces substantial covariate shift, under which standard deep learning models produce unstable and inaccurate predictions. Furthermore, the scarcity of labeled data, stemming from the onerous and costly nature of experimental validation, further exacerbates the difficulty of achieving reliable generalization. To address these limitations, we propose a novel meta-learning-based approach that leverages unlabeled data to interpolate between in-distribution (ID) and out-of-distribution (OOD) data, enabling the model to meta-learn how to generalize beyond the training distribution. We demonstrate significant performance gains over state-of-the-art methods on challenging real-world datasets that exhibit substantial covariate shift.

arxiv情報

著者 Jina Kim,Jeffrey Willette,Bruno Andreis,Sung Ju Hwang
発行日 2025-06-13 15:27:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | コメントする

Addressing Bias in LLMs: Strategies and Application to Fair AI-based Recruitment

要約

ハイステーク設定での言語技術の使用は近年増加しており、主に大規模な言語モデル(LLM)の成功に動機付けられています。
しかし、LLMSの大きなパフォーマンスにもかかわらず、それらは人口統計学的バイアス、説明責任、プライバシーなどの倫理的懸念の影響を受けやすいです。
この作業は、AIベースの自動採用に関するケーススタディを使用して、データに存在する人口統計学的バイアスを学ぶために、変圧器ベースのシステムの能力を分析しようとしています。
最終ツールで偏った動作を軽減する方法として、学習パイプラインからの性別情報を削減するためのプライバシーを向上させるフレームワークを提案します。
私たちの実験では、2つの異なるLLMに基づいて構築されたシステムに対するデータバイアスの影響と、提案されたフレームワークが訓練されたシステムがデータのバイアスを再現することを効果的に防止する方法を分析します。

要約(オリジナル)

The use of language technologies in high-stake settings is increasing in recent years, mostly motivated by the success of Large Language Models (LLMs). However, despite the great performance of LLMs, they are are susceptible to ethical concerns, such as demographic biases, accountability, or privacy. This work seeks to analyze the capacity of Transformers-based systems to learn demographic biases present in the data, using a case study on AI-based automated recruitment. We propose a privacy-enhancing framework to reduce gender information from the learning pipeline as a way to mitigate biased behaviors in the final tools. Our experiments analyze the influence of data biases on systems built on two different LLMs, and how the proposed framework effectively prevents trained systems from reproducing the bias in the data.

arxiv情報

著者 Alejandro Peña,Julian Fierrez,Aythami Morales,Gonzalo Mancera,Miguel Lopez,Ruben Tolosana
発行日 2025-06-13 15:29:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | コメントする