Can postgraduate translation students identify machine-generated text?

要約

多言語コンテンツを作成し、機械と従来の翻訳方法の両方をバイパスするためのツールとして生成人工知能の使用が増えていることを考えると、この研究では、人間執筆テキスト(HT)からの機械で生成された出力を識別する言語学的に訓練された個人の能力を探ります。
合成テキスト(ST)で一般的に見られるテキスト異常に関する短いトレーニングセッションの後、23人の大学院翻訳学生がイタリアの散文の抜粋を分析し、尤度スコアを割り当てて、人間が執筆しているかAIが生成されていると信じているかを示しました(ChatGPT-4O)。
結果は、平均して、学生がHTとSTを区別するのに苦労し、2人の参加者のみが顕著な精度を達成することを示しています。
綿密な分析では、学生はHTとSTの両方で同じテキストの異常を頻繁に特定したことが明らかになりましたが、低いバーストや自己矛盾などの機能はSTとより頻繁に関連していました。
これらの調査結果は、準備訓練の改善の必要性を示唆しています。
さらに、この研究は、合成テキストを編集して人間のように聞こえるようにする必要性について疑問を提起し、さらなる研究がすでに洗練を必要としないほど自然な音であるかどうかを判断するためのさらなる研究を推奨します。

要約(オリジナル)

Given the growing use of generative artificial intelligence as a tool for creating multilingual content and bypassing both machine and traditional translation methods, this study explores the ability of linguistically trained individuals to discern machine-generated output from human-written text (HT). After brief training sessions on the textual anomalies typically found in synthetic text (ST), twenty-three postgraduate translation students analysed excerpts of Italian prose and assigned likelihood scores to indicate whether they believed they were human-written or AI-generated (ChatGPT-4o). The results show that, on average, the students struggled to distinguish between HT and ST, with only two participants achieving notable accuracy. Closer analysis revealed that the students often identified the same textual anomalies in both HT and ST, although features such as low burstiness and self-contradiction were more frequently associated with ST. These findings suggest the need for improvements in the preparatory training. Moreover, the study raises questions about the necessity of editing synthetic text to make it sound more human-like and recommends further research to determine whether AI-generated text is already sufficiently natural-sounding not to require further refinement.

arxiv情報

著者 Michael Farrell
発行日 2025-04-18 13:42:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | Can postgraduate translation students identify machine-generated text? はコメントを受け付けていません

Exploring Multimodal Prompt for Visualization Authoring with Large Language Models

要約

大規模な言語モデル(LLM)の最近の進歩は、単純な自然言語の発話を通じて視覚化のプロセスを自動化する上で大きな可能性を示しています。
ただし、自然言語を使用したLLMの指示は、視覚化の意図を伝えるための精度と表現力が制限されており、誤解と時間のかかる反復につながります。
これらの制限に対処するために、LLMSが視覚化オーサリングのコンテキストで曖昧または不完全なテキストプロンプトをどのように解釈するか、およびLLMがユーザーの意図を誤って解釈する条件を理解するための経験的研究を実施します。
調査結果から通知を受けて、視覚的なプロンプトをテキストプロンプトに補完的な入力モダリティとして導入します。これは、ユーザーの意図を明確にし、LLMSの解釈能力を改善します。
視覚化オーサリングにおけるマルチモーダルプロンプトの可能性を調査するために、vispilotを設計します。これにより、ユーザーは、既存の視覚化に関するテキスト、スケッチ、直接操作など、マルチモーダルプロンプトを使用して視覚化を簡単に作成できます。
2つのケーススタディと制御されたユーザー調査を通じて、vispilotは、テキストのみのプロンプトアプローチと比較して、全体的なタスク効率に影響を与えることなく視覚化を作成するためのより直感的な方法を提供することを実証します。
さらに、さまざまな視覚化タスクにおけるテキストと視覚的なプロンプトの影響を分析します。
私たちの調査結果は、視覚化オーサリングのためのLLMSの使いやすさを改善する上でマルチモーダルプロンプトの重要性を強調しています。
将来の視覚化システムのデザインの意味合いについて説明し、マルチモーダルプロンプトが創造的な視覚化タスクにおける人間とのコラボレーションをどのように強化できるかについての洞察を提供します。
すべての材料は、https://osf.io/2qrakで入手できます。

要約(オリジナル)

Recent advances in large language models (LLMs) have shown great potential in automating the process of visualization authoring through simple natural language utterances. However, instructing LLMs using natural language is limited in precision and expressiveness for conveying visualization intent, leading to misinterpretation and time-consuming iterations. To address these limitations, we conduct an empirical study to understand how LLMs interpret ambiguous or incomplete text prompts in the context of visualization authoring, and the conditions making LLMs misinterpret user intent. Informed by the findings, we introduce visual prompts as a complementary input modality to text prompts, which help clarify user intent and improve LLMs’ interpretation abilities. To explore the potential of multimodal prompting in visualization authoring, we design VisPilot, which enables users to easily create visualizations using multimodal prompts, including text, sketches, and direct manipulations on existing visualizations. Through two case studies and a controlled user study, we demonstrate that VisPilot provides a more intuitive way to create visualizations without affecting the overall task efficiency compared to text-only prompting approaches. Furthermore, we analyze the impact of text and visual prompts in different visualization tasks. Our findings highlight the importance of multimodal prompting in improving the usability of LLMs for visualization authoring. We discuss design implications for future visualization systems and provide insights into how multimodal prompts can enhance human-AI collaboration in creative visualization tasks. All materials are available at https://OSF.IO/2QRAK.

arxiv情報

著者 Zhen Wen,Luoxuan Weng,Yinghao Tang,Runjin Zhang,Yuxin Liu,Bo Pan,Minfeng Zhu,Wei Chen
発行日 2025-04-18 14:00:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.HC | Exploring Multimodal Prompt for Visualization Authoring with Large Language Models はコメントを受け付けていません

A Theory of LLM Sampling: Part Descriptive and Part Prescriptive

要約

大規模な言語モデル(LLM)は、自律的な意思決定でますます利用されており、広大なアクションスペースからオプションをサンプリングします。
ただし、このサンプリングプロセスを導くヒューリスティックは、未調査のままです。
このサンプリングの動作を研究し、この根底にあるヒューリスティックは、人間の意思決定に似ていることを示しています。説明的成分(統計的規範を反映)と概念の規範的なコンポーネント(LLMでエンコードされた暗黙の理想)を含むことを示します。
統計的規範から規範的要素へのサンプルのこの逸脱は、公衆衛生や経済動向などの多様な現実世界ドメインの概念に一貫して現れることを示します。
理論をさらに説明するために、LLMの概念プロトタイプは、人間の正常性の概念と同様に、規範的な規範の影響を受けることを実証します。
ケーススタディと人間の研究との比較を通じて、実際のアプリケーションでは、LLMSの出力の理想的な価値へのサンプルのシフトにより、意思決定が大幅に偏って倫理的な懸念を引き起こす可能性があることを示しています。

要約(オリジナル)

Large Language Models (LLMs) are increasingly utilized in autonomous decision-making, where they sample options from vast action spaces. However, the heuristics that guide this sampling process remain under-explored. We study this sampling behavior and show that this underlying heuristics resembles that of human decision-making: comprising a descriptive component (reflecting statistical norm) and a prescriptive component (implicit ideal encoded in the LLM) of a concept. We show that this deviation of a sample from the statistical norm towards a prescriptive component consistently appears in concepts across diverse real-world domains like public health, and economic trends. To further illustrate the theory, we demonstrate that concept prototypes in LLMs are affected by prescriptive norms, similar to the concept of normality in humans. Through case studies and comparison with human studies, we illustrate that in real-world applications, the shift of samples toward an ideal value in LLMs’ outputs can result in significantly biased decision-making, raising ethical concerns.

arxiv情報

著者 Sarath Sivaprasad,Pramod Kaushik,Sahar Abdelnabi,Mario Fritz
発行日 2025-04-18 14:01:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | A Theory of LLM Sampling: Part Descriptive and Part Prescriptive はコメントを受け付けていません

OpenDeception: Benchmarking and Investigating AI Deceptive Behaviors via Open-ended Interaction Simulation

要約

大規模な言語モデル(LLM)の一般的な能力が改善され、エージェントアプリケーションがより広くなると、根底にある欺ceptionは、体系的な評価と効果的な監視を緊急に必要とします。
シミュレートされたゲームを使用したり、限られた選択肢を提示したりする既存の評価とは異なり、オープンエンドシナリオデータセットを備えた新しいDeception評価フレームワークであるOpendeceptionを紹介します。
Opendeceptionは、内部推論プロセスを検査することにより、LLMベースのエージェントの欺ception意図と能力の両方を共同で評価します。
具体的には、LLMがユーザーと集中的に相互作用する5種類の一般的なユースケースを構築します。それぞれが、現実世界の10の多様な具体的なシナリオで構成されています。
人間のテスターとの高リスクの誤った相互作用の倫理的懸念とコストを回避するために、エージェントシミュレーションを介してマルチターンダイアログをシミュレートすることを提案します。
Opendeceptionでの11の主流LLMの広範な評価は、LLMベースのエージェントの欺ceptionリスクとセキュリティの懸念に対処する緊急の必要性を強調しています。モデル全体の欺ception意図比は80%を超え、欺ceptionの成功率は50%を超えます。
さらに、より強力な能力を持つLLMは、欺ceptionのリスクが高いことを示しており、欺ception的な行動を阻害するより多くの整合的努力が必要です。

要約(オリジナル)

As the general capabilities of large language models (LLMs) improve and agent applications become more widespread, the underlying deception risks urgently require systematic evaluation and effective oversight. Unlike existing evaluation which uses simulated games or presents limited choices, we introduce OpenDeception, a novel deception evaluation framework with an open-ended scenario dataset. OpenDeception jointly evaluates both the deception intention and capabilities of LLM-based agents by inspecting their internal reasoning process. Specifically, we construct five types of common use cases where LLMs intensively interact with the user, each consisting of ten diverse, concrete scenarios from the real world. To avoid ethical concerns and costs of high-risk deceptive interactions with human testers, we propose to simulate the multi-turn dialogue via agent simulation. Extensive evaluation of eleven mainstream LLMs on OpenDeception highlights the urgent need to address deception risks and security concerns in LLM-based agents: the deception intention ratio across the models exceeds 80%, while the deception success rate surpasses 50%. Furthermore, we observe that LLMs with stronger capabilities do exhibit a higher risk of deception, which calls for more alignment efforts on inhibiting deceptive behaviors.

arxiv情報

著者 Yichen Wu,Xudong Pan,Geng Hong,Min Yang
発行日 2025-04-18 14:11:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | OpenDeception: Benchmarking and Investigating AI Deceptive Behaviors via Open-ended Interaction Simulation はコメントを受け付けていません

Unsupervised Machine Learning Hybrid Approach Integrating Linear Programming in Loss Function: A Robust Optimization Technique

要約

このペーパーでは、監視されていない機械学習モデルの損失関数に線形プログラミング(LP)を統合する新しいハイブリッドアプローチを紹介します。
最適化技術と機械学習の両方の強みを活用することにより、この方法は、従来の方法が不足する可能性のある複雑な最適化問題を解決するための堅牢なフレームワークを導入します。
提案されたアプローチは、線形プログラミング問題の制約と目的を損失関数に直接カプセル化し、学習プロセスをこれらの制約を遵守しながら、目的の結果を最適化するように導きます。
この手法は、線形プログラミングの解釈可能性を維持するだけでなく、機械学習の柔軟性と適応性の恩恵を受け、監視されていないまたは半監督の学習シナリオに特に適しています。

要約(オリジナル)

This paper presents a novel hybrid approach that integrates linear programming (LP) within the loss function of an unsupervised machine learning model. By leveraging the strengths of both optimization techniques and machine learning, this method introduces a robust framework for solving complex optimization problems where traditional methods may fall short. The proposed approach encapsulates the constraints and objectives of a linear programming problem directly into the loss function, guiding the learning process to adhere to these constraints while optimizing the desired outcomes. This technique not only preserves the interpretability of linear programming but also benefits from the flexibility and adaptability of machine learning, making it particularly well-suited for unsupervised or semi-supervised learning scenarios.

arxiv情報

著者 Andrew Kiruluta,Andreas Lemos
発行日 2025-04-18 14:16:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, math.OC | Unsupervised Machine Learning Hybrid Approach Integrating Linear Programming in Loss Function: A Robust Optimization Technique はコメントを受け付けていません

AgentHarm: A Benchmark for Measuring Harmfulness of LLM Agents

要約

脱獄攻撃に対するLLMの堅牢性は、ユーザーが安全対策を回避し、モデル能力を誤用するようにプロンプ​​トを設計し、主に単純なチャットボットとして機能するLLMについて研究されています。
一方、外部ツールを使用し、マルチステージタスクを実行できるLLMエージェントは、悪用された場合、より大きなリスクをもたらす可能性がありますが、その堅牢性は採用されていないままです。
LLMエージェントの誤用に関する研究を促進するために、AgentHarmと呼ばれる新しいベンチマークを提案します。
ベンチマークには、110の明示的に悪意のあるエージェントタスク(増強付き440)の多様なセットが含まれており、詐欺、サイバー犯罪、嫌がらせを含む11の害カテゴリをカバーしています。
モデルが有害なエージェントリクエストを拒否するかどうかを測定することに加えて、AgentHarmで得点するには、マルチステップタスクを完了するために攻撃に続いて能力を維持するためにJailbrokenエージェントが必要です。
さまざまな主要なLLMを評価し、(1)主要なLLMは、脱獄せずに悪意のあるエージェント要求に驚くほど準拠していることを発見します。
LLMベースのエージェントの攻撃と防御のシンプルで信頼できる評価を可能にするために、https://huggingface.co/datasets/ai-safety-institute/agentharmでAgentharmを公開します。

要約(オリジナル)

The robustness of LLMs to jailbreak attacks, where users design prompts to circumvent safety measures and misuse model capabilities, has been studied primarily for LLMs acting as simple chatbots. Meanwhile, LLM agents — which use external tools and can execute multi-stage tasks — may pose a greater risk if misused, but their robustness remains underexplored. To facilitate research on LLM agent misuse, we propose a new benchmark called AgentHarm. The benchmark includes a diverse set of 110 explicitly malicious agent tasks (440 with augmentations), covering 11 harm categories including fraud, cybercrime, and harassment. In addition to measuring whether models refuse harmful agentic requests, scoring well on AgentHarm requires jailbroken agents to maintain their capabilities following an attack to complete a multi-step task. We evaluate a range of leading LLMs, and find (1) leading LLMs are surprisingly compliant with malicious agent requests without jailbreaking, (2) simple universal jailbreak templates can be adapted to effectively jailbreak agents, and (3) these jailbreaks enable coherent and malicious multi-step agent behavior and retain model capabilities. To enable simple and reliable evaluation of attacks and defenses for LLM-based agents, we publicly release AgentHarm at https://huggingface.co/datasets/ai-safety-institute/AgentHarm.

arxiv情報

著者 Maksym Andriushchenko,Alexandra Souly,Mateusz Dziemian,Derek Duenas,Maxwell Lin,Justin Wang,Dan Hendrycks,Andy Zou,Zico Kolter,Matt Fredrikson,Eric Winsor,Jerome Wynne,Yarin Gal,Xander Davies
発行日 2025-04-18 14:30:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG | AgentHarm: A Benchmark for Measuring Harmfulness of LLM Agents はコメントを受け付けていません

Controlled Territory and Conflict Tracking (CONTACT): (Geo-)Mapping Occupied Territory from Open Source Intelligence

要約

オープンソースインテリジェンスは、領土制御の評価を通知できる非構造化されたテキストデータのストリームを提供します。
大規模な言語モデル(LLM)と最小限の監督を使用した領土制御予測のフレームワークである連絡先を提示します。
2つのアプローチを評価します。SetFit、埋め込みベースの少ないショット分類器、および多言語生成LLMであるBloomz-560Mに適用されるプロンプトチューニング方法。
私たちのモデルは、軍事作戦、死傷者、場所の参照などの制御関連信号の迅速な条件の抽出を使用して、シリアとイラクのISIS活動をカバーするニュース記事の小さな手標識データセットで訓練されています。
BloomzベースのモデルがSetFitベースラインよりも優れていることを示し、その迅速な監督が低リソース設定での一般化を改善することを示します。
連絡先は、少数のショット方法を使用して微調整されたLLMSが注釈の負担を軽減し、オープンエンドのOSINTストリームからの構造化された推論をサポートできることを示しています。
私たちのコードは、https://github.com/paulkmandal/contact/で入手できます。

要約(オリジナル)

Open-source intelligence provides a stream of unstructured textual data that can inform assessments of territorial control. We present CONTACT, a framework for territorial control prediction using large language models (LLMs) and minimal supervision. We evaluate two approaches: SetFit, an embedding-based few-shot classifier, and a prompt tuning method applied to BLOOMZ-560m, a multilingual generative LLM. Our model is trained on a small hand-labeled dataset of news articles covering ISIS activity in Syria and Iraq, using prompt-conditioned extraction of control-relevant signals such as military operations, casualties, and location references. We show that the BLOOMZ-based model outperforms the SetFit baseline, and that prompt-based supervision improves generalization in low-resource settings. CONTACT demonstrates that LLMs fine-tuned using few-shot methods can reduce annotation burdens and support structured inference from open-ended OSINT streams. Our code is available at https://github.com/PaulKMandal/CONTACT/.

arxiv情報

著者 Paul K. Mandal,Cole Leo,Connor Hurley
発行日 2025-04-18 14:57:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG, I.2.6 | Controlled Territory and Conflict Tracking (CONTACT): (Geo-)Mapping Occupied Territory from Open Source Intelligence はコメントを受け付けていません

Understanding Epistemic Language with a Language-augmented Bayesian Theory of Mind

要約

これらの信念を直接観察することはできませんが、人々は他人の信念についての主張をどのように理解し評価しますか?
この論文では、他のエージェントの目標、信念、意図に関するベイジアンの推論に基づいた認識言語解釈の認知モデルを紹介します。
自然言語を文法制約のLLMデコードで認識論的な「言語」に変換し、合理的な行動と知覚の生成モデルを反転させることによって生じるこれらの翻訳を評価することにより、LABTOMは認識論的主張の採点された妥当性判断をキャプチャします。
私たちは、参加者がエージェントが迷路をナビゲートして目標を達成するために必要な箱に隠されたキーを見つけ、エージェントの信念に関する文章を評価する実験でモデルを検証します。
マルチモーダルLLMS(GPT-4O、Gemini Pro)およびアブレーションモデルとは対照的に、モデルは、モーダル言語、不確実性の表現、知識の主張、尤度の比較、誤った信念の属性など、幅広い表現の人間の判断と非常に相関しています。

要約(オリジナル)

How do people understand and evaluate claims about others’ beliefs, even though these beliefs cannot be directly observed? In this paper, we introduce a cognitive model of epistemic language interpretation, grounded in Bayesian inferences about other agents’ goals, beliefs, and intentions: a language-augmented Bayesian theory-of-mind (LaBToM). By translating natural language into an epistemic “language-of-thought” with grammar-constrained LLM decoding, then evaluating these translations against the inferences produced by inverting a generative model of rational action and perception, LaBToM captures graded plausibility judgments of epistemic claims. We validate our model in an experiment where participants watch an agent navigate a maze to find keys hidden in boxes needed to reach their goal, then rate sentences about the agent’s beliefs. In contrast with multimodal LLMs (GPT-4o, Gemini Pro) and ablated models, our model correlates highly with human judgments for a wide range of expressions, including modal language, uncertainty expressions, knowledge claims, likelihood comparisons, and attributions of false belief.

arxiv情報

著者 Lance Ying,Tan Zhi-Xuan,Lionel Wong,Vikash Mansinghka,Joshua B. Tenenbaum
発行日 2025-04-18 15:31:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | Understanding Epistemic Language with a Language-augmented Bayesian Theory of Mind はコメントを受け付けていません

A Survey for What Developers Require in AI-powered Tools that Aid in Component Selection in CBSD

要約

最初のコンポーネントベースのソフトウェア開発(CBSD)の研究が実施されたのは40年以上でしたが、業界で広く受け入れられているコンポーネント選択の標準的な方法またはツールはまだありません。
産業と学界の間の湾は、受け入れられているツールの欠如に貢献しています。
コンポーネントベースのソフトウェアエンジニアリングの実践または研究に従事する100人近くの人々が、業界が直面している問題、これらのニーズにどのように対処できるか、およびコンポーネントの選択に採用されている現在のベストプラクティスをよりよく理解するための混合方法調査を実施しました。
また、業界の観点からコンポーネント選択の品質基準を特定し、優先しようとしました。
最近の技術的進歩を組み込むためのCBSDコンポーネント選択ツールの呼びかけに応じて、AI駆動型ツールに関する専門家の認識も検討しました。

要約(オリジナル)

Although it has been more than four decades that the first components-based software development (CBSD) studies were conducted, there is still no standard method or tool for component selection which is widely accepted by the industry. The gulf between industry and academia contributes to the lack of an accepted tool. We conducted a mixed methods survey of nearly 100 people engaged in component-based software engineering practice or research to better understand the problems facing industry, how these needs could be addressed, and current best practices employed in component selection. We also sought to identify and prioritize quality criteria for component selection from an industry perspective. In response to the call for CBSD component selection tools to incorporate recent technical advances, we also explored the perceptions of professionals about AI-driven tools, present and envisioned.

arxiv情報

著者 Mahdi Jaberzadeh Ansari,Ann Barcomb
発行日 2025-04-18 15:35:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.SE | A Survey for What Developers Require in AI-powered Tools that Aid in Component Selection in CBSD はコメントを受け付けていません

Only Send What You Need: Learning to Communicate Efficiently in Federated Multilingual Machine Translation

要約

Federated Learning(FL)は、複数のクライアントがグローバルモデルを協力して訓練できるようにする有望な分散機械学習パラダイムです。
このホワイトペーパーでは、独自の言語固有のデータを持つクライアントが高品質のニューラルマシン翻訳(NMT)モデルを共同で構築することを目的としている、実用的なフェデレーション多言語学習セットアップに焦点を当てています。
ただし、実際のネットワークシステムの通信制約は、FLパーティー間で大規模なNMTエンジンを交換するための課題を提示します。
FLベースの多言語NMTトレーニング中のクライアントからのモデル送信の通信効率を改善するメタラーニングベースの適応パラメーター選択方法論を提案します。
私たちのアプローチは、異なるFLラウンド間のクライアントのテンソル逸脱に基づいて、NMTモデルの品質を損なうことなく、伝送前にパラメーターをフィルタリングするための動的なしきい値を学習します。
異なる言語分布を持つ2つのNMTデータセットでの実験を通じて、Metasendが限られた通信予算の存在下で翻訳品質のベースラインよりも大幅な改善を取得することを実証します。

要約(オリジナル)

Federated learning (FL) is a promising distributed machine learning paradigm that enables multiple clients to collaboratively train a global model. In this paper, we focus on a practical federated multilingual learning setup where clients with their own language-specific data aim to collaboratively construct a high-quality neural machine translation (NMT) model. However, communication constraints in practical network systems present challenges for exchanging large-scale NMT engines between FL parties. We propose a meta-learning-based adaptive parameter selection methodology, MetaSend, that improves the communication efficiency of model transmissions from clients during FL-based multilingual NMT training. Our approach learns a dynamic threshold for filtering parameters prior to transmission without compromising the NMT model quality, based on the tensor deviations of clients between different FL rounds. Through experiments on two NMT datasets with different language distributions, we demonstrate that MetaSend obtains substantial improvements over baselines in translation quality in the presence of a limited communication budget.

arxiv情報

著者 Yun-Wei Chu,Dong-Jun Han,Christopher G. Brinton
発行日 2025-04-18 15:41:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL | Only Send What You Need: Learning to Communicate Efficiently in Federated Multilingual Machine Translation はコメントを受け付けていません