Towards Collaborative Anti-Money Laundering Among Financial Institutions

要約

マネーロンダリングは、違法行為から得られた収入を合法化するプロセスであり、そのため、ソースを危険にさらすことなく、経済の金銭的流れへの参入を促進します。
アンチマネーロンダリング(AML)を実施するために、そのような活動を正確かつ確実に特定することが重要です。
AMLへのかなりの努力にもかかわらず、このような活動の多くはまだ検出されません。
ルールベースの方法が最初に導入され、現在の検出システムでまだ広く使用されています。
機械学習の増加に伴い、グラフベースの学習方法は、送金グラフの分析を通じて違法アカウントを検出する際に顕著になりました。
それにもかかわらず、これらの方法は一般に、トランザクショングラフが集中化されていると想定していますが、実際には、マネーロンダリング活動は通常複数の金融機関に及びます。
規制、法律、商業、顧客のプライバシーの懸念により、機関はデータを共有せず、実際の使用法を制限する傾向があります。
この論文では、ローカルデータのセキュリティとプライバシーを保護しながら、複数の機関よりもAMLの実行をサポートする最初のアルゴリズムを提案します。
評価するために、世界最大のモバイル決済プラットフォームであるAlipayからのデジタルトランザクションを含む現実世界のデータセットであるAlipay-ECBを、eコマースバンク(ECB)からのトランザクションとともに構築します。
データセットには、2億を超えるアカウントと3億のアカウントが含まれており、施設内トランザクションとAlipayとECBの間の取引の両方をカバーしています。
これにより、分析に利用できる最大の実世界のトランザクショングラフになります。
実験結果は、私たちの方法がクロス施設のマネーロンダリングサブグループを効果的に識別できることを示しています。
さらに、合成データセットでの実験は、私たちの方法が効率的であり、数百万のトランザクションを備えたデータセットでは数分しか必要としないことを示しています。

要約(オリジナル)

Money laundering is the process that intends to legalize the income derived from illicit activities, thus facilitating their entry into the monetary flow of the economy without jeopardizing their source. It is crucial to identify such activities accurately and reliably in order to enforce anti-money laundering (AML). Despite considerable efforts to AML, a large number of such activities still go undetected. Rule-based methods were first introduced and are still widely used in current detection systems. With the rise of machine learning, graph-based learning methods have gained prominence in detecting illicit accounts through the analysis of money transfer graphs. Nevertheless, these methods generally assume that the transaction graph is centralized, whereas in practice, money laundering activities usually span multiple financial institutions. Due to regulatory, legal, commercial, and customer privacy concerns, institutions tend not to share data, restricting their utility in practical usage. In this paper, we propose the first algorithm that supports performing AML over multiple institutions while protecting the security and privacy of local data. To evaluate, we construct Alipay-ECB, a real-world dataset comprising digital transactions from Alipay, the world’s largest mobile payment platform, alongside transactions from E-Commerce Bank (ECB). The dataset includes over 200 million accounts and 300 million transactions, covering both intra-institution transactions and those between Alipay and ECB. This makes it the largest real-world transaction graph available for analysis. The experimental results demonstrate that our methods can effectively identify cross-institution money laundering subgroups. Additionally, experiments on synthetic datasets also demonstrate that our method is efficient, requiring only a few minutes on datasets with millions of transactions.

arxiv情報

著者 Zhihua Tian,Yuan Ding,Wenjie Qu,Xiang Yu,Enchao Gong,Jiaheng Zhang,Jian Liu,Kui Ren
発行日 2025-06-02 14:06:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CY, cs.LG, cs.SI | Towards Collaborative Anti-Money Laundering Among Financial Institutions はコメントを受け付けていません

Optimizing the Training Schedule of Multilingual NMT using Reinforcement Learning

要約

多言語NMTは、同じ言語ファミリの高リソース言語(HRL)からのデータが利用可能な場合、低リソース言語(LRL)を翻訳するための実行可能なソリューションです。
ただし、トレーニングスケジュール、つまり言語の提示の順序は、そのようなシステムの品質に影響を与えます。
ここでは、多面的な翻訳設定で、強化学習を使用してNMTのトレーニングスケジュールを最適化する2つのアルゴリズムを適用することを提案します。
前者は、単一言語または多言語開発サブセットの損失に基づいて、各アクションのリターンの指数関数的にスムーズな推定を使用しますが、後者は、受け取った報酬とともに、システムの異なる状態で選択されたアクションの歴史から訓練された追加のニューラルネットワークを使用して報酬を使用して報酬を推定します。
LRLSとHRLSを使用した8対1の翻訳データセットでは、2番目の方法では、LRL対HRLバッチのプレゼンテーションの数を調整することにより、単一言語バッチのランダム選択とシャッフル多言語バッチの両方に関してBLEとCOMETのスコアを改善します。

要約(オリジナル)

Multilingual NMT is a viable solution for translating low-resource languages (LRLs) when data from high-resource languages (HRLs) from the same language family is available. However, the training schedule, i.e. the order of presentation of languages, has an impact on the quality of such systems. Here, in a many-to-one translation setting, we propose to apply two algorithms that use reinforcement learning to optimize the training schedule of NMT: (1) Teacher-Student Curriculum Learning and (2) Deep Q Network. The former uses an exponentially smoothed estimate of the returns of each action based on the loss on monolingual or multilingual development subsets, while the latter estimates rewards using an additional neural network trained from the history of actions selected in different states of the system, together with the rewards received. On a 8-to-1 translation dataset with LRLs and HRLs, our second method improves BLEU and COMET scores with respect to both random selection of monolingual batches and shuffled multilingual batches, by adjusting the number of presentations of LRL vs. HRL batches.

arxiv情報

著者 Alexis Allemann,Àlex R. Atrio,Andrei Popescu-Belis
発行日 2025-06-02 07:35:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Optimizing the Training Schedule of Multilingual NMT using Reinforcement Learning はコメントを受け付けていません

An End-to-End Approach for Child Reading Assessment in the Xhosa Language

要約

子どものリテラシーは、個人の人生のその後の段階での人生転帰の強力な予測因子です。
これは、これらの地域のリテラシーレベルと高収入のレベルとの間のギャップを埋めるために、脆弱な低所得および中所得集団への対象となる介入の必要性を示しています。
この取り組みでは、読書評価はこれらのプログラムの有効性を測定するための重要なツールを提供し、AIはこのタスクで教育者をサポートするための信頼できる経済的ツールになります。
低リソース言語での子どもの音声のための正確な自動読み取り評価システムの開発は、データが限られていることと子供の声のユニークな音響特性により、重大な課題をもたらします。
この研究は、南アフリカで話されている言語であるXhosaに焦点を当て、子どもの音声認識能力を促進します。
Xhosaの子供向け音声サンプルで構成される新しいデータセットを提示します。
データセットはリクエストに応じて利用可能で、10語と文字が含まれています。これは、初期級読書評価(EGRA)システムの一部です。
各録音には、複数のマーカーによるオンラインで費用対効果の高いアプローチがラベル付けされており、サブサンプルは独立したEGRAレビュアーによって検証されます。
このデータセットは、3つの微調整された最先端のエンドツーエンドモデル、WAV2VEC 2.0、Hubert、およびWhisperで評価されます。
結果は、これらのモデルのパフォーマンスが、利用可能なトレーニングデータの量とバランスによって大きな影響を受ける可能性があることを示しています。これは、費用対効果の高い大規模なデータセットコレクションの基本です。
さらに、我々の実験では、利用可能なサンプルの数が制約されている場合でも、一度に複数のクラスでトレーニングすることにより、WAV2VEC 2.0のパフォーマンスが改善されることを示しています。

要約(オリジナル)

Child literacy is a strong predictor of life outcomes at the subsequent stages of an individual’s life. This points to a need for targeted interventions in vulnerable low and middle income populations to help bridge the gap between literacy levels in these regions and high income ones. In this effort, reading assessments provide an important tool to measure the effectiveness of these programs and AI can be a reliable and economical tool to support educators with this task. Developing accurate automatic reading assessment systems for child speech in low-resource languages poses significant challenges due to limited data and the unique acoustic properties of children’s voices. This study focuses on Xhosa, a language spoken in South Africa, to advance child speech recognition capabilities. We present a novel dataset composed of child speech samples in Xhosa. The dataset is available upon request and contains ten words and letters, which are part of the Early Grade Reading Assessment (EGRA) system. Each recording is labeled with an online and cost-effective approach by multiple markers and a subsample is validated by an independent EGRA reviewer. This dataset is evaluated with three fine-tuned state-of-the-art end-to-end models: wav2vec 2.0, HuBERT, and Whisper. The results indicate that the performance of these models can be significantly influenced by the amount and balancing of the available training data, which is fundamental for cost-effective large dataset collection. Furthermore, our experiments indicate that the wav2vec 2.0 performance is improved by training on multiple classes at a time, even when the number of available samples is constrained.

arxiv情報

著者 Sergio Chevtchenko,Nikhil Navas,Rafaella Vale,Franco Ubaudi,Sipumelele Lucwaba,Cally Ardington,Soheil Afshar,Mark Antoniou,Saeed Afshar
発行日 2025-06-02 07:47:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG | An End-to-End Approach for Child Reading Assessment in the Xhosa Language はコメントを受け付けていません

NUTSHELL: A Dataset for Abstract Generation from Scientific Talks

要約

科学的コミュニケーションは、特にアクセス、要約、およびコンテンツの生成を支援するために、自然言語処理において注目を集めています。
この分野での新たな用途の1つは、記録された科学的プレゼンテーションからアブストラクトを自動的に生成することを目的としたスピーチツーアブストラクト生成(SAG)です。
SAGにより、研究者は会議の講演に効率的に関与することができますが、大規模なデータセットが不足しているため、進歩は制限されています。
このギャップに対処するために、 *ACL Conference Talksの新しいマルチモーダルデータセットであるNutshellを紹介します。
SAGの強力なベースラインを確立し、自動メトリックと人間の判断の両方を使用して、生成された要約の品質を評価します。
私たちの結果は、SAGの課題を強調し、一言ではトレーニングの利点を示しています。
オープンライセンス(CC-by 4.0)の下でNutshellをリリースすることにより、SAGでの研究を進め、改善されたモデルと評価方法の開発を促進することを目指しています。

要約(オリジナル)

Scientific communication is receiving increasing attention in natural language processing, especially to help researches access, summarize, and generate content. One emerging application in this area is Speech-to-Abstract Generation (SAG), which aims to automatically generate abstracts from recorded scientific presentations. SAG enables researchers to efficiently engage with conference talks, but progress has been limited by a lack of large-scale datasets. To address this gap, we introduce NUTSHELL, a novel multimodal dataset of *ACL conference talks paired with their corresponding abstracts. We establish strong baselines for SAG and evaluate the quality of generated abstracts using both automatic metrics and human judgments. Our results highlight the challenges of SAG and demonstrate the benefits of training on NUTSHELL. By releasing NUTSHELL under an open license (CC-BY 4.0), we aim to advance research in SAG and foster the development of improved models and evaluation methods.

arxiv情報

著者 Maike Züfle,Sara Papi,Beatrice Savoldi,Marco Gaido,Luisa Bentivogli,Jan Niehues
発行日 2025-06-02 07:51:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | NUTSHELL: A Dataset for Abstract Generation from Scientific Talks はコメントを受け付けていません

Subword models struggle with word learning, but surprisal hides it

要約

心理言語学的な語彙決定タスクを使用して、サブワードおよびキャラクター言語モデルで単語学習を研究します。
サブワードLMSは、単語や非単語を高い精度で識別するのに苦労していますが、キャラクターLMSはこのタスクを簡単かつ一貫して解決します。
さらなるコンテキストで提供された場合にのみ、サブワードLMSが文字モデルと同様に実行されます。
さらに、単語レベルおよび構文学習軌跡を見ると、両方のプロセスが文字LMSで分離可能であることがわかります。
単語学習は構文学習前に行われますが、両方ともサブワードLMSで同時に発生します。
これにより、言語の獲得をモデル化するためのサブワードLMSの妥当性に関する疑問が生じ、文字LMSを構文レベル以下の研究プロセスを研究するための実行可能な代替手段として位置付けます。

要約(オリジナル)

We study word learning in subword and character language models with the psycholinguistic lexical decision task. While subword LMs struggle to discern words and non-words with high accuracy, character LMs solve this task easily and consistently. Only when supplied with further contexts do subword LMs perform similarly to character models. Additionally, when looking at word-level and syntactic learning trajectories, we find that both processes are separable in character LMs. Word learning happens before syntactic learning, whereas both occur simultaneously in subword LMs. This raises questions about the adequacy of subword LMs for modeling language acquisition and positions character LMs as a viable alternative to study processes below the syntactic level.

arxiv情報

著者 Bastian Bunzeck,Sina Zarrieß
発行日 2025-06-02 08:05:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Subword models struggle with word learning, but surprisal hides it はコメントを受け付けていません

Guiding Reasoning in Small Language Models with LLM Assistance

要約

小言語モデル(SLM)の限られた推論能力は、深く、マルチステップの論理的控除を要求するタスクに対する適合性に疑問を投げかけます。
このペーパーでは、Small Reasons、Large Hints(Smart)と呼ばれるフレームワークを紹介します。これは、大規模な言語モデル(LLMS)からのターゲットガイダンスでSLMの推論を選択的に増強します。
認知的足場の概念に触発されたSmartは、スコアベースの評価を採用して不確実な推論ステップを特定し、必要な場合にのみ修正LLM生成の推論を注入します。
構造化された推論を最適なポリシー検索としてフレーミングすることにより、私たちのアプローチは、徹底的なサンプリングなしで正しいソリューションに向けて推論の軌跡を導きます。
数学的推論データセットに関する実験は、ターゲットを絞った外部足場がパフォーマンスを大幅に改善し、SLMとLLMの両方を共同で使用して、SLMだけが現在解決できない複雑な推論タスクに取り組む方法を開くことを示しています。

要約(オリジナル)

The limited reasoning capabilities of small language models (SLMs) cast doubt on their suitability for tasks demanding deep, multi-step logical deduction. This paper introduces a framework called Small Reasons, Large Hints (SMART), which selectively augments SLM reasoning with targeted guidance from large language models (LLMs). Inspired by the concept of cognitive scaffolding, SMART employs a score-based evaluation to identify uncertain reasoning steps and injects corrective LLM-generated reasoning only when necessary. By framing structured reasoning as an optimal policy search, our approach steers the reasoning trajectory toward correct solutions without exhaustive sampling. Our experiments on mathematical reasoning datasets demonstrate that targeted external scaffolding significantly improves performance, paving the way for collaborative use of both SLM and LLM to tackle complex reasoning tasks that are currently unsolvable by SLMs alone.

arxiv情報

著者 Yujin Kim,Euiin Yi,Minu Kim,Se-Young Yun,Taehyeon Kim
発行日 2025-06-02 08:10:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Guiding Reasoning in Small Language Models with LLM Assistance はコメントを受け付けていません

EdiText: Controllable Coarse-to-Fine Text Editing with Diffusion Language Models

要約

参照テキストをさまざまなスケールで望ましい属性に変更する制御可能なテキスト編集方法であるEditextを提案します。
テキスト編集の程度で幅広い調整を可能にするSDEDITベースの編集手法を統合します。
さらに、リファレンステキストの微妙な制御を可能にする自己条件に基づいて、新しい細かいレベルの編集方法を紹介します。
SDEDITアプローチと統合されたこのきめの細かい方法を単独で編集できますが、Editextは目的の範囲内で正確な調整を行うことができます。
Editextは、毒性制御や感情制御など、さまざまなタスクにわたって広範なレベルで参照テキストを堅牢に調整するための制御可能性を示しています。

要約(オリジナル)

We propose EdiText, a controllable text editing method that modifies the reference text to desired attributes at various scales. We integrate an SDEdit-based editing technique that allows for broad adjustments in the degree of text editing. Additionally, we introduce a novel fine-level editing method based on self-conditioning, which allows subtle control of reference text. While being capable of editing on its own, this fine-grained method, integrated with the SDEdit approach, enables EdiText to make precise adjustments within the desired range. EdiText demonstrates its controllability to robustly adjust reference text at a broad range of levels across various tasks, including toxicity control and sentiment control.

arxiv情報

著者 Che Hyun Lee,Heeseung Kim,Jiheum Yeom,Sungroh Yoon
発行日 2025-06-02 08:12:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG | EdiText: Controllable Coarse-to-Fine Text Editing with Diffusion Language Models はコメントを受け付けていません

STRICTA: Structured Reasoning in Critical Text Assessment for Peer Review and Beyond

要約

重要なテキスト評価は、ファクトチェック、ピアレビュー、エッセイグレーディングなど、多くの専門家活動の中心にあります。
しかし、既存の作業は、重要なテキスト評価をブラックボックスの問題として扱い、解釈可能性と人間とのコラボレーションを制限しています。
このギャップを埋めるために、テキスト評価を明示的で段階的な推論プロセスとしてモデル化するための新しい仕様フレームワークである重要なテキスト評価(Stricta)に構造化された推論を導入します。
Strictaは、評価を因果関係の理論に関する相互接続された推論ステップのグラフに分解します(Pearl、1995)。
このグラフは、専門家の相互作用データに基づいて入力されており、評価プロセスを研究し、人間とのコラボレーションを促進するために使用されます。
私たちは正式にStrictaを定義し、生物医学の紙評価に関する研究に適用し、20を超える論文で約40人の生物医学の専門家から4000を超える推論ステップのデータセットをもたらします。
このデータセットを使用して、重要なテキスト評価における専門家の推論を経験的に研究し、LLMがこれらのワークフロー内で専門家を模倣してサポートできるかどうかを調査します。
結果のツールとデータセットは、テキスト評価、ピアレビュー、それ以降の共同専門家の推論を研究する方法を開きます。

要約(オリジナル)

Critical text assessment is at the core of many expert activities, such as fact-checking, peer review, and essay grading. Yet, existing work treats critical text assessment as a black box problem, limiting interpretability and human-AI collaboration. To close this gap, we introduce Structured Reasoning In Critical Text Assessment (STRICTA), a novel specification framework to model text assessment as an explicit, step-wise reasoning process. STRICTA breaks down the assessment into a graph of interconnected reasoning steps drawing on causality theory (Pearl, 1995). This graph is populated based on expert interaction data and used to study the assessment process and facilitate human-AI collaboration. We formally define STRICTA and apply it in a study on biomedical paper assessment, resulting in a dataset of over 4000 reasoning steps from roughly 40 biomedical experts on more than 20 papers. We use this dataset to empirically study expert reasoning in critical text assessment, and investigate if LLMs are able to imitate and support experts within these workflows. The resulting tools and datasets pave the way for studying collaborative expert-AI reasoning in text assessment, in peer review and beyond.

arxiv情報

著者 Nils Dycke,Matej Zečević,Ilia Kuznetsov,Beatrix Suess,Kristian Kersting,Iryna Gurevych
発行日 2025-06-02 08:18:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | STRICTA: Structured Reasoning in Critical Text Assessment for Peer Review and Beyond はコメントを受け付けていません

Position: It’s Time to Act on the Risk of Efficient Personalized Text Generation

要約

高品質のオープンソース生成AIテキストモデル(口語的に:LLMS)の最近の急増と、効率的な微調整技術は、特定の個人のニーズに合わせたテキストを生成し、オープンソーセモデルを独自のデータを洗練することにより、執筆スタイルを模倣する可能性のある高品質のパーソナライズされたモデルを作成する可能性を開きました。
このようなモデルを作成するテクノロジーは個人がアクセスでき、そのようなモデルのトレーニングと実行は、消費者グレードのハードウェアで安く実行できます。
これらの進歩は使いやすさとプライバシーにとって大きな利益ですが、このポジションペーパーは、特定の個人になりすましていることの実際的な実現可能性も新しい安全リスクをもたらすと主張しています。
たとえば、このテクノロジーにより、少量の公的に利用可能なテキストに基づいて、または個人自身がAIテキスト検出を逃れるために、フィッシングメールまたは不正なソーシャルメディアアカウントの作成を可能にします。
私たちはさらに、これらのリスクは、画像、音声、ビデオディープフェイクなどの他のなりすまし攻撃の大いに議論されているリスクを補完し、それとは異なり、大規模な研究コミュニティ、または現在の世代のオープンソースモデルによって適切に対処されていないと主張します。

要約(オリジナル)

The recent surge in high-quality open-source Generative AI text models (colloquially: LLMs), as well as efficient finetuning techniques, have opened the possibility of creating high-quality personalized models that generate text attuned to a specific individual’s needs and are capable of credibly imitating their writing style by refining an open-source model with that person’s own data. The technology to create such models is accessible to private individuals, and training and running such models can be done cheaply on consumer-grade hardware. While these advancements are a huge gain for usability and privacy, this position paper argues that the practical feasibility of impersonating specific individuals also introduces novel safety risks. For instance, this technology enables the creation of phishing emails or fraudulent social media accounts, based on small amounts of publicly available text, or by the individuals themselves to escape AI text detection. We further argue that these risks are complementary to – and distinct from – the much-discussed risks of other impersonation attacks such as image, voice, or video deepfakes, and are not adequately addressed by the larger research community, or the current generation of open- and closed-source models.

arxiv情報

著者 Eugenia Iofinova,Andrej Jovanovic,Dan Alistarh
発行日 2025-06-02 08:49:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CY | Position: It’s Time to Act on the Risk of Efficient Personalized Text Generation はコメントを受け付けていません

Non-literal Understanding of Number Words by Language Models

要約

人間は自然に数字を非文字で解釈し、コンテキスト、世界の知識、スピーカーの意図を簡単に組み合わせて解釈します。
大規模な言語モデル(LLM)が同様に数字を解釈し、誇張および実用的なハロー効果に焦点を当てているかどうかを調査します。
人間のデータとの体系的な比較および実用的な推論の計算モデルを通じて、LLMは人間の解釈から顕著な方法で分岐することがわかります。
合理的な音声行為のフレームワークに基づいた実用的な推論をテスト可能なコンポーネントに分解することにより、LLM処理が人間の認知から分岐する場所を特定することにより – 事前の知識ではなく、それと推論することです。
この洞察は、ターゲットを絞ったソリューションを開発することにつながります。RSAモデルに触発されたチェーンオブサボートプロンプトは、LLMSの解釈をより人間のようにします。
私たちの研究は、計算認知モデルがAIヒトの違いを診断し、より人間のような言語理解能力の開発を導く方法を示しています。

要約(オリジナル)

Humans naturally interpret numbers non-literally, effortlessly combining context, world knowledge, and speaker intent. We investigate whether large language models (LLMs) interpret numbers similarly, focusing on hyperbole and pragmatic halo effects. Through systematic comparison with human data and computational models of pragmatic reasoning, we find that LLMs diverge from human interpretation in striking ways. By decomposing pragmatic reasoning into testable components, grounded in the Rational Speech Act framework, we pinpoint where LLM processing diverges from human cognition — not in prior knowledge, but in reasoning with it. This insight leads us to develop a targeted solution — chain-of-thought prompting inspired by an RSA model makes LLMs’ interpretations more human-like. Our work demonstrates how computational cognitive models can both diagnose AI-human differences and guide development of more human-like language understanding capabilities.

arxiv情報

著者 Polina Tsvilodub,Kanishk Gandhi,Haoran Zhao,Jan-Philipp Fränken,Michael Franke,Noah D. Goodman
発行日 2025-06-02 09:56:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Non-literal Understanding of Number Words by Language Models はコメントを受け付けていません