NLP-Based .NET CLR Event Logs Analyzer

要約

この論文では、自然言語処理(NLP)アプローチに触発された新しい方法に基づいて、.NET CLRイベントログを分析するためのツールを提示します。
私たちの研究は、詳細なイベントログ分析を通じて、ソフトウェアシステムの効果的な監視と最適化の必要性の高まりに取り組んでいます。
イベントログにカスタマイズされた強化されたトークン化プロセスを使用して、BERTベースのアーキテクチャを利用しています。
Python、そのライブラリ、およびSQLiteデータベースを使用して開発されたこのツールは、学術目的で実験を行うことと、業界に登場するタスクを効率的に解決することの両方を可能にします。
私たちの実験は、イベントシーケンスの圧縮、繰り返しパターンの検出、異常の特定におけるアプローチの有効性を示しています。
訓練されたモデルは、異常検出の高精度が高い有望な結果を示しており、ソフトウェアシステムの信頼性と安定性を改善するNLPメソッドの可能性を示しています。

要約(オリジナル)

In this paper, we present a tool for analyzing .NET CLR event logs based on a novel method inspired by Natural Language Processing (NLP) approach. Our research addresses the growing need for effective monitoring and optimization of software systems through detailed event log analysis. We utilize a BERT-based architecture with an enhanced tokenization process customized to event logs. The tool, developed using Python, its libraries, and an SQLite database, allows both conducting experiments for academic purposes and efficiently solving industry-emerging tasks. Our experiments demonstrate the efficacy of our approach in compressing event sequences, detecting recurring patterns, and identifying anomalies. The trained model shows promising results, with a high accuracy rate in anomaly detection, which demonstrates the potential of NLP methods to improve the reliability and stability of software systems.

arxiv情報

著者 Maxim Stavtsev,Sergey Shershakov
発行日 2025-02-06 17:01:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.SE | NLP-Based .NET CLR Event Logs Analyzer はコメントを受け付けていません

Fully Autonomous AI Agents Should Not be Developed

要約

この論文は、完全に自律的なAIエージェントを開発すべきではないと主張しています。
このポジションを支持して、以前の科学文献と現在の製品マーケティングから構築して、さまざまなAIエージェントレベルを描き、それぞれの倫理的価値を詳述し、潜在的な利益とリスクのトレードオフを文書化します。
私たちの分析は、システムの自律性とともに人々に対するリスクが高まることを明らかにしています。ユーザーがAIエージェントに制御するほど、人々へのリスクが高くなります。
特に、人間の生活に影響を与え、さらなる価値に影響を与える安全リスクが特に懸念されます。

要約(オリジナル)

This paper argues that fully autonomous AI agents should not be developed. In support of this position, we build from prior scientific literature and current product marketing to delineate different AI agent levels and detail the ethical values at play in each, documenting trade-offs in potential benefits and risks. Our analysis reveals that risks to people increase with the autonomy of a system: The more control a user cedes to an AI agent, the more risks to people arise. Particularly concerning are safety risks, which affect human life and impact further values.

arxiv情報

著者 Margaret Mitchell,Avijit Ghosh,Alexandra Sasha Luccioni,Giada Pistilli
発行日 2025-02-06 17:04:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI | Fully Autonomous AI Agents Should Not be Developed はコメントを受け付けていません

Dark Distillation: Backdooring Distilled Datasets without Accessing Raw Data

要約

データセット蒸留(DD)は、トレーニング効率を高め、大きなデータセットをより小さな合成データに凝縮することにより帯域幅を減らします。
これにより、モデルは、生の完全なデータセットでトレーニングされたものに匹敵するパフォーマンスを実現でき、データ共有のために広く採用された方法になりました。
ただし、DDのセキュリティ上の懸念は未定のままです。
既存の研究では、通常、悪意のある行動は、バックドアが生データセットに注入される最初の蒸留プロセス中にデータセット所有者から発生すると想定しています。
対照的に、この作業は、より現実的で懸念される脅威に対処する最初の作業です。攻撃者は、データセット分布プロセスを傍受し、バックドアを蒸留データセットに注入し、ユーザーに再配布することができます。
蒸留データセットは以前はバックドア攻撃に対して耐性があると考えられていましたが、それらがそのような攻撃に対して脆弱なままであることを示しています。
さらに、攻撃者はバックドアを正常に挿入するために生データにアクセスする必要さえないことを示しています。
具体的には、私たちのアプローチは、蒸留データセットでトレーニングされたモデルから各クラスの概念アーキタイプを再構築します。
その後、バックドアをこれらのアーキタイプに注入して、蒸留データセットを更新します。
さらに、更新されたデータセットがバックドアを保持するだけでなく、元の最適化軌道を保持していることを確認し、生データセットの知識を維持します。
これを達成するために、ハイブリッド損失は、良性の最適化軌跡に沿ってバックドア情報を統合し、以前に学習した情報が忘れられないように設計されています。
広範な実験では、蒸留データセットがバックドア攻撃に対して非常に脆弱であり、さまざまな生データセット、蒸留方法、および下流のトレーニング戦略に普及するリスクがあることが示されています。
さらに、攻撃方法は効率的であり、特定のケースでは1分未満で悪意のある蒸留データセットを合成できます。

要約(オリジナル)

Dataset distillation (DD) enhances training efficiency and reduces bandwidth by condensing large datasets into smaller synthetic ones. It enables models to achieve performance comparable to those trained on the raw full dataset and has become a widely adopted method for data sharing. However, security concerns in DD remain underexplored. Existing studies typically assume that malicious behavior originates from dataset owners during the initial distillation process, where backdoors are injected into raw datasets. In contrast, this work is the first to address a more realistic and concerning threat: attackers may intercept the dataset distribution process, inject backdoors into the distilled datasets, and redistribute them to users. While distilled datasets were previously considered resistant to backdoor attacks, we demonstrate that they remain vulnerable to such attacks. Furthermore, we show that attackers do not even require access to any raw data to inject the backdoors successfully. Specifically, our approach reconstructs conceptual archetypes for each class from the model trained on the distilled dataset. Backdoors are then injected into these archetypes to update the distilled dataset. Moreover, we ensure the updated dataset not only retains the backdoor but also preserves the original optimization trajectory, thus maintaining the knowledge of the raw dataset. To achieve this, a hybrid loss is designed to integrate backdoor information along the benign optimization trajectory, ensuring that previously learned information is not forgotten. Extensive experiments demonstrate that distilled datasets are highly vulnerable to backdoor attacks, with risks pervasive across various raw datasets, distillation methods, and downstream training strategies. Moreover, our attack method is efficient, capable of synthesizing a malicious distilled dataset in under one minute in certain cases.

arxiv情報

著者 Ziyuan Yang,Ming Yan,Yi Zhang,Joey Tianyi Zhou
発行日 2025-02-06 17:14:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR | Dark Distillation: Backdooring Distilled Datasets without Accessing Raw Data はコメントを受け付けていません

XAttnMark: Learning Robust Audio Watermarking with Cross-Attention

要約

生成オーディオ合成と編集技術の急速な増殖は、著作権侵害、データの起源、およびディープフェイクオーディオによる誤報のspread延について大きな懸念を提起しました。
透かしは、感知できない、識別可能な、および追跡可能なマークをオーディオコンテンツに埋め込むことにより、積極的なソリューションを提供します。
WavmarkやAudiosealなどの最近のニューラルネットワークベースの透かしは、堅牢性と品質が向上しましたが、堅牢な検出と正確な帰属の両方を同時に達成するのに苦労しています。
このペーパーでは、発電機と検出器の間で部分的なパラメーター共有を活用することにより、このギャップ、効率的なメッセージ検索の交差メカニズム、および改善されたメッセージ分布のための時間的条件付けモジュールを活用することにより、このギャップを埋めるクロスアテンションの堅牢なオーディオウォーターマーク(Xattnmark)を紹介します。
さらに、微調整された聴覚マスキング効果をキャプチャし、透かしの知覚性を高める精神音響整列の時間周波数マスキング損失を提案します。
私たちのアプローチは、検出と帰属の両方で最先端のパフォーマンスを達成し、強力な編集強度を備えた挑戦的な生成編集を含む、広範囲のオーディオ変換に対する優れた堅牢性を示しています。
プロジェクトWebページは、https://liuyixin-louis.github.io/xattnmark/で入手できます。

要約(オリジナル)

The rapid proliferation of generative audio synthesis and editing technologies has raised significant concerns about copyright infringement, data provenance, and the spread of misinformation through deepfake audio. Watermarking offers a proactive solution by embedding imperceptible, identifiable, and traceable marks into audio content. While recent neural network-based watermarking methods like WavMark and AudioSeal have improved robustness and quality, they struggle to achieve both robust detection and accurate attribution simultaneously. This paper introduces Cross-Attention Robust Audio Watermark (XAttnMark), which bridges this gap by leveraging partial parameter sharing between the generator and the detector, a cross-attention mechanism for efficient message retrieval, and a temporal conditioning module for improved message distribution. Additionally, we propose a psychoacoustic-aligned temporal-frequency masking loss that captures fine-grained auditory masking effects, enhancing watermark imperceptibility. Our approach achieves state-of-the-art performance in both detection and attribution, demonstrating superior robustness against a wide range of audio transformations, including challenging generative editing with strong editing strength. The project webpage is available at https://liuyixin-louis.github.io/xattnmark/.

arxiv情報

著者 Yixin Liu,Lie Lu,Jihui Jin,Lichao Sun,Andrea Fanelli
発行日 2025-02-06 17:15:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.LG, cs.SD, eess.AS | XAttnMark: Learning Robust Audio Watermarking with Cross-Attention はコメントを受け付けていません

How Reliable are Causal Probing Interventions?

要約

因果調査は、さまざまな潜在特性の表現にどのように介入するかを調べることにより、基礎モデルを分析することを目的としています。
最近の作品は、いくつかの主要な因果調査方法の理論的根拠に疑問を投げかけていますが、実際にこれらの方法の有効性を体系的に評価する方法は不明でした。
これに対処するために、2つの重要な因果調査デシデラタを定義します。完全性(ターゲットプロパティの表現がどの程度徹底的に変換されているか)と選択性(非標的特性がどれほど影響を受けていないか)。
2つの間には固有のトレードオフがあり、それを信頼性、それらの高調波平均として定義することがわかります。
これらの量を測定および評価するための経験的分析フレームワークを導入し、主要な因果調査方法の異なるファミリー間で最初の直接的な比較を行うことができます(例:線形対非線形、または概念除去と反事実介入)。
(1)すべてのレイヤーにわたって信頼できる方法はありません。
(2)より信頼性の高い方法は、LLMの動作に大きな影響を与えます。
(3)非線形介入は、初期および中間層でより信頼性が高く、線形介入は後の層でより信頼性が高くなります。
(4)概念除去方法は、反事実的介入よりもはるかに信頼性が低く、因果調査への効果的なアプローチではない可能性があることを示唆しています。

要約(オリジナル)

Causal probing aims to analyze foundation models by examining how intervening on their representation of various latent properties impacts their outputs. Recent works have cast doubt on the theoretical basis of several leading causal probing methods, but it has been unclear how to systematically evaluate the effectiveness of these methods in practice. To address this, we define two key causal probing desiderata: completeness (how thoroughly the representation of the target property has been transformed) and selectivity (how little non-targeted properties have been impacted). We find that there is an inherent tradeoff between the two, which we define as reliability, their harmonic mean. We introduce an empirical analysis framework to measure and evaluate these quantities, allowing us to make the first direct comparisons between different families of leading causal probing methods (e.g., linear vs. nonlinear, or concept removal vs. counterfactual interventions). We find that: (1) no method is reliable across all layers; (2) more reliable methods have a greater impact on LLM behavior; (3) nonlinear interventions are more reliable in early and intermediate layers, and linear interventions are more reliable in later layers; and (4) concept removal methods are far less reliable than counterfactual interventions, suggesting that they may not be an effective approach to causal probing.

arxiv情報

著者 Marc Canby,Adam Davies,Chirag Rastogi,Julia Hockenmaier
発行日 2025-02-06 17:16:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG | How Reliable are Causal Probing Interventions? はコメントを受け付けていません

Efficient Nearest Neighbor based Uncertainty Estimation for Natural Language Processing Tasks

要約

モデル予測における信頼性は、現実の世界の安全性が重要なアプリケーションにとって重要です。
ただし、深いニューラルネットワークは、しばしば、誤解などの不確実性の推定の問題に悩まされています。
この研究では、$ k $ nearestの隣人の不確実性推定($ k $ nn-ue)を提案します。これは、近隣からの距離だけでなく、近隣のラベルの比率も使用する新しい不確実性推定方法です。
感情分析、自然言語の推論、および名前付きエンティティ認識に関する実験は、提案された方法が、いくつかのキャリブレーションと不確実性メトリックにおけるベースラインと最近の密度ベースの方法を上回ることを示しています。
さらに、私たちの分析は、近隣の近隣の検索手法が、適切に組み合わされたときに不確実性の推定パフォーマンスを大幅に分解することなく、推論オーバーヘッドを減らすことを示しています。

要約(オリジナル)

Trustworthiness in model predictions is crucial for safety-critical applications in the real world. However, deep neural networks often suffer from the issues of uncertainty estimation, such as miscalibration. In this study, we propose $k$-Nearest Neighbor Uncertainty Estimation ($k$NN-UE), which is a new uncertainty estimation method that uses not only the distances from the neighbors, but also the ratio of labels in the neighbors. Experiments on sentiment analysis, natural language inference, and named entity recognition show that our proposed method outperforms the baselines and recent density-based methods in several calibration and uncertainty metrics. Moreover, our analyses indicate that approximate nearest neighbor search techniques reduce the inference overhead without significantly degrading the uncertainty estimation performance when they are appropriately combined.

arxiv情報

著者 Wataru Hashimoto,Hidetaka Kamigaito,Taro Watanabe
発行日 2025-02-06 17:32:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG | Efficient Nearest Neighbor based Uncertainty Estimation for Natural Language Processing Tasks はコメントを受け付けていません

A Theoretical Framework for Data Efficient Multi-Source Transfer Learning Based on Cramér-Rao Bound

要約

マルチソース転送学習は、複数のソースタスクを活用することにより、実際の監視された学習シナリオにおけるデータ不足に対する効果的なソリューションを提供します。
この分野では、既存の作業は通常、トレーニング中のソースから利用可能なすべてのサンプルを使用します。これにより、トレーニング効率が制約され、最適ではない結果が生じる可能性があります。
これに対処するために、ターゲットモデルを共同でトレーニングするために各ソースタスクから必要なソースサンプルの最適な量は何ですか?
具体的には、クロスエントロピー損失と整列する一般化エラー測定を導入し、各ソースタスクの最適な転送量を決定するためにcram \ ‘er-raoに基づいて最小化します。
さらに、深いマルチソース転送学習モデルをトレーニングするための理論的結果を実装するために、アーキテクチャに依存しないおよびデータ効率の高いアルゴリズムOTQMを開発します。
多様なアーキテクチャと2つの実際のベンチマークデータセットに関する実験的研究は、提案されたアルゴリズムが精度とデータ効率の両方で最先端のアプローチを大幅に上回ることを示しています。
コードと補足資料は、https://anonymous.4open.science/r/materialsで入手できます。

要約(オリジナル)

Multi-source transfer learning provides an effective solution to data scarcity in real-world supervised learning scenarios by leveraging multiple source tasks. In this field, existing works typically use all available samples from sources in training, which constrains their training efficiency and may lead to suboptimal results. To address this, we propose a theoretical framework that answers the question: what is the optimal quantity of source samples needed from each source task to jointly train the target model? Specifically, we introduce a generalization error measure that aligns with cross-entropy loss, and minimize it based on the Cram\’er-Rao Bound to determine the optimal transfer quantity for each source task. Additionally, we develop an architecture-agnostic and data-efficient algorithm OTQMS to implement our theoretical results for training deep multi-source transfer learning models. Experimental studies on diverse architectures and two real-world benchmark datasets show that our proposed algorithm significantly outperforms state-of-the-art approaches in both accuracy and data efficiency. The code and supplementary materials are available in https://anonymous.4open.science/r/Materials.

arxiv情報

著者 Qingyue Zhang,Haohao Fu,Guanbo Huang,Yaoyuan Liang,Chang Chu,Tianren Peng,Yanru Wu,Qi Li,Yang Li,Shao-Lun Huang
発行日 2025-02-06 17:32:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG | A Theoretical Framework for Data Efficient Multi-Source Transfer Learning Based on Cramér-Rao Bound はコメントを受け付けていません

TriNER: A Series of Named Entity Recognition Models For Hindi, Bengali & Marathi

要約

インドの豊かな文化的および言語的多様性は、自然言語処理の領域(NLP)、特に名前付きエンティティ認識(NER)においてさまざまな課題をもたらします。
NERは、トークンを人、場所、組織、数などのさまざまなエンティティグループに識別して分類することを目的としたNLPタスクです。これにより、NERはコンテキストを使用する匿名化などのダウンストリームタスクに非常に役立ちます。
このペーパーでは、インドで最も話されている3つの言語、ヒンディー語、ベンガル語、マラーティー語の多言語NERモデルを構築するための作業について詳しく説明しています。
カスタムトランスモデルをトレーニングし、いくつかの事前に抑制されたモデルを微調整し、合計6つのエンティティグループに対して92.11のF1スコアを達成します。
この論文を通じて、3つの言語全体で、NERを実行するための単一のモデルを導入し、エンティティグループとタグ名の矛盾を大幅に削減することを目指しています。

要約(オリジナル)

India’s rich cultural and linguistic diversity poses various challenges in the domain of Natural Language Processing (NLP), particularly in Named Entity Recognition (NER). NER is a NLP task that aims to identify and classify tokens into different entity groups like Person, Location, Organization, Number, etc. This makes NER very useful for downstream tasks like context-aware anonymization. This paper details our work to build a multilingual NER model for the three most spoken languages in India – Hindi, Bengali & Marathi. We train a custom transformer model and fine tune a few pretrained models, achieving an F1 Score of 92.11 for a total of 6 entity groups. Through this paper, we aim to introduce a single model to perform NER and significantly reduce the inconsistencies in entity groups and tag names, across the three languages.

arxiv情報

著者 Mohammed Amaan Dhamaskar,Rasika Ransing
発行日 2025-02-06 17:37:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG | TriNER: A Series of Named Entity Recognition Models For Hindi, Bengali & Marathi はコメントを受け付けていません

Free Energy Risk Metrics for Systemically Safe AI: Gatekeeping Multi-Agent Study

要約

エージェントおよびマルチエージェントシステムのリスクを測定するための基盤として、自由エネルギー原則を調査します。
これらの原則から、さまざまなコンテキストやニーズに柔軟に対応できる累積リスク曝露メトリックを導入します。
これを、大量のデータにかかったり、任意に複雑な世界モデルを説明する安全なAIの他の一般的な理論と比較します。
私たちのフレームワークでは、利害関係者はシステムの結果よりも優先度を指定するだけで、リスクガバナンスと緩和のための簡単で透明な決定ルールを提供する必要があります。
このフレームワークは、世界モデルと選好モデルの両方の不確実性を自然に説明し、認識的および公理的に謙虚で、模範的で将来の根拠の意思決定を可能にします。
私たちは、オンラインでの方法で、近隣の集合的な安全性へのリスクを評価し、適切な場合に各車両のポリシーに介入するゲートキーパーによって運転ポリシーが媒介される、マルチエージェント車両を使用した単純化された自動運転車環境でこの新しいアプローチを実証します。
AV艦隊へのゲートキーパーの導入は、低い浸透であっても、システムの安全性の増加に関して有意な正の外部性を生成できることを示しています。

要約(オリジナル)

We investigate the Free Energy Principle as a foundation for measuring risk in agentic and multi-agent systems. From these principles we introduce a Cumulative Risk Exposure metric that is flexible to differing contexts and needs. We contrast this to other popular theories for safe AI that hinge on massive amounts of data or describing arbitrarily complex world models. In our framework, stakeholders need only specify their preferences over system outcomes, providing straightforward and transparent decision rules for risk governance and mitigation. This framework naturally accounts for uncertainty in both world model and preference model, allowing for decision-making that is epistemically and axiologically humble, parsimonious, and future-proof. We demonstrate this novel approach in a simplified autonomous vehicle environment with multi-agent vehicles whose driving policies are mediated by gatekeepers that evaluate, in an online fashion, the risk to the collective safety in their neighborhood, and intervene through each vehicle’s policy when appropriate. We show that the introduction of gatekeepers in an AV fleet, even at low penetration, can generate significant positive externalities in terms of increased system safety.

arxiv情報

著者 Michael Walters,Rafael Kaufmann,Justice Sefas,Thomas Kopinski
発行日 2025-02-06 17:38:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.MA, physics.data-an, stat.ML | Free Energy Risk Metrics for Systemically Safe AI: Gatekeeping Multi-Agent Study はコメントを受け付けていません

How does a Multilingual LM Handle Multiple Languages?

要約

多言語モデルは、自然言語処理の急速な進歩のために大幅に進歩しています。
多様な多言語データセットで訓練されたBloom 1.7Bのようなモデルは、言語のギャップを橋渡しすることを目指しています。
ただし、特に低リソース言語の言語知識をキャプチャする上での有効性は、未解決の問題のままです。
この研究では、多言語の理解、セマンティック表現、および言語間の知識移転におけるMLMS機能を批判的に調べます。
これらのモデルは高品質の言語ではうまく機能しますが、あまり表現されていない言語と格闘しています。
さらに、従来の評価方法は、多くの場合、内部の構文とセマンティックエンコーディングを見落としています。
この研究は、3つの目的を通じて重要な制限に対処しています。
まず、コサインの類似性を使用して一貫性のために多言語の単語埋め込みを分析することにより、セマンティックの類似性を評価します。
第二に、名前付きのエンティティ認識と文の類似性タスクを介してBloom-1.7BとQWEN2を調べて、それらの言語構造を理解します。
第三に、センチメント分析とテキスト分類において、高リソースから低リソース言語への一般化を評価することにより、言語間の知識移転を調査します。
言語の調査、パフォーマンスメトリック、視覚化を活用することにより、この研究はMLMの強みと制限に関する洞察を提供します。
調査結果は、多言語NLPモデルを強化し、高リソース言語と低リソース言語の両方のより良いサポートを確保し、それによって言語技術の包括性を促進することを目的としています。

要約(オリジナル)

Multilingual language models have significantly advanced due to rapid progress in natural language processing. Models like BLOOM 1.7B, trained on diverse multilingual datasets, aim to bridge linguistic gaps. However, their effectiveness in capturing linguistic knowledge, particularly for low-resource languages, remains an open question. This study critically examines MLMs capabilities in multilingual understanding, semantic representation, and cross-lingual knowledge transfer. While these models perform well for high-resource languages, they struggle with less-represented ones. Additionally, traditional evaluation methods often overlook their internal syntactic and semantic encoding. This research addresses key limitations through three objectives. First, it assesses semantic similarity by analyzing multilingual word embeddings for consistency using cosine similarity. Second, it examines BLOOM-1.7B and Qwen2 through Named Entity Recognition and sentence similarity tasks to understand their linguistic structures. Third, it explores cross-lingual knowledge transfer by evaluating generalization from high-resource to low-resource languages in sentiment analysis and text classification. By leveraging linguistic probing, performance metrics, and visualizations, this study provides insights into the strengths and limitations of MLMs. The findings aim to enhance multilingual NLP models, ensuring better support for both high- and low-resource languages, thereby promoting inclusivity in language technologies.

arxiv情報

著者 Santhosh Kakarla,Gautama Shastry Bulusu Venkata,Aishwarya Gaddam
発行日 2025-02-06 18:08:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | How does a Multilingual LM Handle Multiple Languages? はコメントを受け付けていません