Lexical categories of stem-forming roots in Mapudüngun verb forms

要約

Mapuche言語の形態学的分析のための計算システムを開発し、さまざまな著者やスタイルのテキストで評価した後、このツールを実装するための基礎として使用されるソースの言語的仮定を検証する必要がありました。
現在の研究では、主な焦点は、形態学的分析システムの開発に使用されるソースで口頭で認識されているMapud \ ‘Ungun Rootsの語彙カテゴリ分類にあります。
この語彙カテゴリ改訂の結果は、検証されたらすぐに実装されるため、計算分析装置に直接利益をもたらします。
さらに、これらの結果がマプチェ語の語彙カテゴリに関するいくつかの不確実性を明確にするのに役立つことが期待されています。
この作業は、真の口頭根の原子価を特定するための予備的なタスクに対処します。その結果は、この記事を補完する後続の研究で提示されます。

要約(オリジナル)

After developing a computational system for morphological analysis of the Mapuche language, and evaluating it with texts from various authors and styles, it became necessary to verify the linguistic assumptions of the source used as the basis for implementing this tool. In the present work, the primary focus is on the lexical category classification of Mapud\’ungun roots recognised as verbal in the source utilised for the development of the morphological analysis system. The results of this lexical category revision directly benefit the computational analyser, as they are implemented as soon as they are verified. Additionally, it is hoped that these results will help clarify some uncertainties about lexical categories in the Mapuche language. This work addresses a preliminary task to identify the valency of true verbal roots, the results of which will be presented in a subsequent work that complements this article.

arxiv情報

著者 Andrés Chandía
発行日 2025-02-11 15:10:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Lexical categories of stem-forming roots in Mapudüngun verb forms はコメントを受け付けていません

Exploring Mobile Touch Interaction with Large Language Models

要約

現在、モバイルデバイスでテキスト編集のために大規模な言語モデル(LLM)と対話するには、ユーザーがライティング環境から抜け出し、会話型AIインターフェイスに切り替える必要があります。
この論文では、テキストで直接実行されたタッチジェスチャーを介してLLMを制御することを提案します。
最初に、基本的なタッチ入力とテキスト変換をカバーする設計スペースをチャートします。
このスペースでは、視覚的なフィードバックループを使用して、2つの制御マッピングを具体的に調査します。
この概念は、3つのフィードバックデザインを比較するユーザー調査(n = 14)で評価します。視覚化なし、テキストの長さのインジケーター、長さ +ワードインジケーターです。
結果は、LLMSのタッチベースの制御が実行可能かつユーザーフレンドリーであり、長さ +ワードインジケーターがテキスト生成の管理に最も効果的であることを証明することを示しています。
この作業は、タッチデバイス上のLLMとのジェスチャーベースの相互作用をさらに研究するための基盤を築きます。

要約(オリジナル)

Interacting with Large Language Models (LLMs) for text editing on mobile devices currently requires users to break out of their writing environment and switch to a conversational AI interface. In this paper, we propose to control the LLM via touch gestures performed directly on the text. We first chart a design space that covers fundamental touch input and text transformations. In this space, we then concretely explore two control mappings: spread-to-generate and pinch-to-shorten, with visual feedback loops. We evaluate this concept in a user study (N=14) that compares three feedback designs: no visualisation, text length indicator, and length + word indicator. The results demonstrate that touch-based control of LLMs is both feasible and user-friendly, with the length + word indicator proving most effective for managing text generation. This work lays the foundation for further research into gesture-based interaction with LLMs on touch devices.

arxiv情報

著者 Tim Zindulka,Jannek Sekowski,Florian Lehmann,Daniel Buschek
発行日 2025-02-11 15:17:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.HC, H.5.2 | Exploring Mobile Touch Interaction with Large Language Models はコメントを受け付けていません

BiaSWE: An Expert Annotated Dataset for Misogyny Detection in Swedish

要約

この研究では、スウェーデン語での女性嫌悪検出に合わせて調整された専門家に認定されたデータセットであるBiasweを作成するプロセスを紹介します。
スウェーデン語の女性嫌悪の文化的および言語的特異性に対処するために、私たちは社会科学や人文科学の専門家と協力しました。
学際的なチームは、スウェーデンの文脈で女性嫌悪のニュアンスを捉えるために、ドメインの知識と言語の専門知識の両方を組み込んだ厳格な注釈プロセスを開発しました。
この方法論により、データセットは文化的に関連性があるだけでなく、低リソース言語のバイアス検出におけるより広範な努力とも一致することが保証されます。
データセットは、注釈ガイドラインとともに、さらなる研究に公開されています。

要約(オリジナル)

In this study, we introduce the process for creating BiaSWE, an expert-annotated dataset tailored for misogyny detection in the Swedish language. To address the cultural and linguistic specificity of misogyny in Swedish, we collaborated with experts from the social sciences and humanities. Our interdisciplinary team developed a rigorous annotation process, incorporating both domain knowledge and language expertise, to capture the nuances of misogyny in a Swedish context. This methodology ensures that the dataset is not only culturally relevant but also aligned with broader efforts in bias detection for low-resource languages. The dataset, along with the annotation guidelines, is publicly available for further research.

arxiv情報

著者 Kätriin Kukk,Danila Petrelli,Judit Casademont,Eric J. W. Orlowski,Michał Dzieliński,Maria Jacobson
発行日 2025-02-11 15:25:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | BiaSWE: An Expert Annotated Dataset for Misogyny Detection in Swedish はコメントを受け付けていません

FoQA: A Faroese Question-Answering Dataset

要約

大規模な言語モデル(LLMS)とヒューマン検証を組み合わせた半自動アプローチを使用して作成された2,000サンプルを使用したファローズ抽出質問(QA)データセットであるFOQAを提示します。
データセットは、最初のQA生成にGPT-4ターボを使用してファローズウィキペディアの記事から生成され、その後、複雑さとネイティブスピーカーの検証を増やすためにrephrasingが続き、品質を確保します。
LLMSやBERTを含む複数のモデルにわたってFOQAのベースラインパフォーマンスメトリックを提供し、ファローのQAパフォーマンスを評価する際の有効性を示しています。
データセットは、3つのバージョンでリリースされます。2,000サンプルの検証済みセット、10,001のすべての生成サンプルの完全なセット、エラー分析のために2,395の拒否サンプルのセットです。

要約(オリジナル)

We present FoQA, a Faroese extractive question-answering (QA) dataset with 2,000 samples, created using a semi-automated approach combining Large Language Models (LLMs) and human validation. The dataset was generated from Faroese Wikipedia articles using GPT-4-turbo for initial QA generation, followed by question rephrasing to increase complexity and native speaker validation to ensure quality. We provide baseline performance metrics for FoQA across multiple models, including LLMs and BERT, demonstrating its effectiveness in evaluating Faroese QA performance. The dataset is released in three versions: a validated set of 2,000 samples, a complete set of all 10,001 generated samples, and a set of 2,395 rejected samples for error analysis.

arxiv情報

著者 Annika Simonsen,Dan Saattrup Nielsen,Hafsteinn Einarsson
発行日 2025-02-11 15:33:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG | FoQA: A Faroese Question-Answering Dataset はコメントを受け付けていません

Swan and ArabicMTEB: Dialect-Aware, Arabic-Centric, Cross-Lingual, and Cross-Cultural Embedding Models and Benchmarks

要約

アラビア語を中心とした埋め込みモデルのファミリーである{\ bf Swan}を紹介し、小規模および大規模なユースケースの両方に対処します。
白鳥には、ArbertV2に基づく白鳥の小さいバリエーションと、前提条件のアラビア語の大手言語モデルであるArmistral上に構築されたSwan-Largeの2つのバリアントが含まれています。
これらのモデルを評価するために、8つの多様なタスクと94データセットにまたがる94のデータセットをカバーし、言語間、多次直腸、多型、多文化のアラビア語のテキストの埋め込みを評価する包括的なベンチマークスイートであるArabicMTebを提案します。
Swan-Largeは最新の結果を達成し、ほとんどのアラビア語のタスクで多言語-E5-Largeを上回り、Swan-Smallは一貫して多言語E5ベースを上回ります。
私たちの広範な評価は、白鳥のモデルが方言的および文化的に認識しており、さまざまなアラビア語のドメインで優れている一方で、大きな金融効率を提供していることを示しています。
この作業は、アラビア語のモデリングの分野を大幅に進め、アラビア語の自然言語処理における将来の研究とアプリケーションに貴重なリソースを提供します。
モデルとベンチマークは、githubページで入手できます:\ href {https://github.com/ubc-nlp/swan} {https://github.com/ubc-nlp/swan}

要約(オリジナル)

We introduce {\bf Swan}, a family of embedding models centred around the Arabic language, addressing both small-scale and large-scale use cases. Swan includes two variants: Swan-Small, based on ARBERTv2, and Swan-Large, built on ArMistral, a pretrained Arabic large language model. To evaluate these models, we propose ArabicMTEB, a comprehensive benchmark suite that assesses cross-lingual, multi-dialectal, multi-domain, and multi-cultural Arabic text embedding performance, covering eight diverse tasks and spanning 94 datasets. Swan-Large achieves state-of-the-art results, outperforming Multilingual-E5-large in most Arabic tasks, while the Swan-Small consistently surpasses Multilingual-E5-base. Our extensive evaluations demonstrate that Swan models are both dialectally and culturally aware, excelling across various Arabic domains while offering significant monetary efficiency. This work significantly advances the field of Arabic language modelling and provides valuable resources for future research and applications in Arabic natural language processing. Our models and benchmark are available at our GitHub page: \href{https://github.com/UBC-NLP/swan}{https://github.com/UBC-NLP/swan}

arxiv情報

著者 Gagan Bhatia,El Moatez Billah Nagoudi,Abdellah El Mekki,Fakhraddin Alwajih,Muhammad Abdul-Mageed
発行日 2025-02-11 15:36:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Swan and ArabicMTEB: Dialect-Aware, Arabic-Centric, Cross-Lingual, and Cross-Cultural Embedding Models and Benchmarks はコメントを受け付けていません

Your Absorbing Discrete Diffusion Secretly Models the Conditional Distributions of Clean Data

要約

吸収プロセスを備えた離散拡散モデルは、言語モデリングに有望を示しています。
推定される重要な量は、コンクリートスコアと呼ばれるすべてのタイムステップでの2つの推移状態の周辺確率の間の比率です。
この論文では、吸収拡散のコンクリートスコアが、クリーンデータの条件付き確率として表現できることを明らかにし、分析形式の時間依存スカラーを掛けます。
この発見に動機付けられて、我々は、時間に依存しない条件付き確率を特徴付ける時間条件なしの専用拡散モデルである、吸収する吸収性離散拡散(RADD)を再分析することを提案します。
その単純さに加えて、RADDは、サンプリング間隔でノイズの多いサンプルが変更されていない場合に、時間非依存ネットワークの出力をキャッシュすることにより、機能評価の数(NFE)を減らすことができます。
条件付き分布の新しい視点に基づいて構築され、吸収する離散拡散とあらゆるオーダーの自己回帰モデル(AO-arms)をさらに統一し、拡散モデルの負の対数尤度の上限が予想されるネガティブログとして解釈できることを示しています。
– AO-Armsの視点。
さらに、当社のRADDモデルは、GPT-2スケールで5つのゼロショット言語モデリングベンチマーク(困惑で測定)で拡散モデル間でSOTAパフォーマンスを実現します。
私たちのコードは、https://github.com/ml-gsai/raddで入手できます。

要約(オリジナル)

Discrete diffusion models with absorbing processes have shown promise in language modeling. The key quantities to be estimated are the ratios between the marginal probabilities of two transitive states at all timesteps, called the concrete score. In this paper, we reveal that the concrete score in absorbing diffusion can be expressed as conditional probabilities of clean data, multiplied by a time-dependent scalar in an analytic form. Motivated by this finding, we propose reparameterized absorbing discrete diffusion (RADD), a dedicated diffusion model without time-condition that characterizes the time-independent conditional probabilities. Besides its simplicity, RADD can reduce the number of function evaluations (NFEs) by caching the output of the time-independent network when the noisy sample remains unchanged in a sampling interval, which enables sampling acceleration. Built upon the new perspective of conditional distributions, we further unify absorbing discrete diffusion and any-order autoregressive models (AO-ARMs), showing that the upper bound on the negative log-likelihood for the diffusion model can be interpreted as an expected negative log-likelihood for AO-ARMs. Further, our RADD models achieve SOTA performance among diffusion models on 5 zero-shot language modeling benchmarks (measured by perplexity) at the GPT-2 scale. Our code is available at https://github.com/ML-GSAI/RADD.

arxiv情報

著者 Jingyang Ou,Shen Nie,Kaiwen Xue,Fengqi Zhu,Jiacheng Sun,Zhenguo Li,Chongxuan Li
発行日 2025-02-11 15:42:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG | Your Absorbing Discrete Diffusion Secretly Models the Conditional Distributions of Clean Data はコメントを受け付けていません

Enhancing Financial Time-Series Forecasting with Retrieval-Augmented Large Language Models

要約

財務時代の予測における重要なタスクである在庫運動予測は、広大で複雑なデータセットから重要な影響要因を特定して取得することに依存しています。
ただし、従来のテキストトレーニングまたは数値の類似性ベースの検索方法は、多くの場合、財務データの複雑さを処理するのに苦労しています。
これに対処するために、財務時代シリーズの予測向けに特別に設計された最初の検索された生成(RAG)フレームワークを提案します。
私たちのフレームワークには、3つの重要な革新が組み込まれています。バックボーンとしての微調整された1B大手言語モデル(Stockllm)、LLMフィードバックによって強化された新しい候補選択方法、クエリと歴史的に重要なシーケンスの類似性を最大化するトレーニング目標です。
これらの進歩により、レトリバーであるFinseerが意味のあるパターンを明らかにしながら、複雑な金融データセットのノイズを効果的に最小限に抑えることができます。
堅牢な評価をサポートするために、金融指標と過去の株価を統合する新しいデータセットも構築します。
実験結果は、RAGフレームワークがベースラインストックルムとランダム検索方法の両方よりも優れていることを示しており、その有効性を示しています。
Finseerは、Retriverとして、BigData22ベンチマークで8%高い精度を達成し、既存の検索方法と比較してよりインパクトのあるシーケンスを取得します。
この作業は、財務予測におけるカスタマイズされた検索モデルの重要性を強調し、この分野での将来の研究のための斬新でスケーラブルなフレームワークを提供します。

要約(オリジナル)

Stock movement prediction, a critical task in financial time-series forecasting, relies on identifying and retrieving key influencing factors from vast and complex datasets. However, traditional text-trained or numeric similarity-based retrieval methods often struggle to handle the intricacies of financial data. To address this, we propose the first retrieval-augmented generation (RAG) framework specifically designed for financial time-series forecasting. Our framework incorporates three key innovations: a fine-tuned 1B large language model (StockLLM) as its backbone, a novel candidate selection method enhanced by LLM feedback, and a training objective that maximizes the similarity between queries and historically significant sequences. These advancements enable our retriever, FinSeer, to uncover meaningful patterns while effectively minimizing noise in complex financial datasets. To support robust evaluation, we also construct new datasets that integrate financial indicators and historical stock prices. Experimental results demonstrate that our RAG framework outperforms both the baseline StockLLM and random retrieval methods, showcasing its effectiveness. FinSeer, as the retriever, achieves an 8% higher accuracy on the BIGDATA22 benchmark and retrieves more impactful sequences compared to existing retrieval methods. This work highlights the importance of tailored retrieval models in financial forecasting and provides a novel, scalable framework for future research in the field.

arxiv情報

著者 Mengxi Xiao,Zihao Jiang,Lingfei Qian,Zhengyu Chen,Yueru He,Yijing Xu,Yuecheng Jiang,Dong Li,Ruey-Ling Weng,Min Peng,Jimin Huang,Sophia Ananiadou,Qianqian Xie
発行日 2025-02-11 15:45:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Enhancing Financial Time-Series Forecasting with Retrieval-Augmented Large Language Models はコメントを受け付けていません

A Practical Method for Generating String Counterfactuals

要約

言語モデルの表現空間(LMS)を対象とした介入は、モデルの行動に影響を与える効果的な手段として浮上しています。
このような方法は、たとえば、モデルの表現内の性別などの人口統計情報のエンコードを排除または変更し、そうすることで反事実的な表現を作成するために採用されています。
ただし、介入は表現空間内で機能するため、テキストのどの側面が変更されるかを正確に理解することは、課題をもたらします。
このホワイトペーパーでは、表現を反事実を文字列反事実に変換する方法を示します。
このアプローチにより、特定の表現空間介入に対応する言語変化を分析し、特定の概念をエンコードするために使用される機能を解釈できることを実証します。
さらに、結果の反事実を使用して、データ増強を通じて分類におけるバイアスを緩和することができます。

要約(オリジナル)

Interventions targeting the representation space of language models (LMs) have emerged as an effective means to influence model behavior. Such methods are employed, for example, to eliminate or alter the encoding of demographic information such as gender within the model’s representations and, in so doing, create a counterfactual representation. However, because the intervention operates within the representation space, understanding precisely what aspects of the text it modifies poses a challenge. In this paper, we give a method to convert representation counterfactuals into string counterfactuals. We demonstrate that this approach enables us to analyze the linguistic alterations corresponding to a given representation space intervention and to interpret the features utilized to encode a specific concept. Moreover, the resulting counterfactuals can be used to mitigate bias in classification through data augmentation.

arxiv情報

著者 Matan Avitan,Ryan Cotterell,Yoav Goldberg,Shauli Ravfogel
発行日 2025-02-11 16:03:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CY, cs.LG | A Practical Method for Generating String Counterfactuals はコメントを受け付けていません

Auto-Drafting Police Reports from Noisy ASR Outputs: A Trust-Centered LLM Approach

要約

法律の信頼を促進することと、役員と民間人の両方の権利を保護することとの微妙なバランスを達成することは、今日の世界における緊急の研究と製品の課題として引き続き出現し続けています。
公平性と透明性を追求するために、この研究は、複雑な、ノイズ状、およびマルチロールの対話データからドラフトを警察に報告するように設計された革新的なAI駆動型システムを提示します。
私たちのアプローチは、法執行機関の相互作用の重要な要素を知的に抽出し、ドラフトにそれらを含め、品質が高いだけでなく、説明責任と手続き上の明確さを強化する構造化された物語を生み出します。
このフレームワークは、レポートプロセスを変革する可能性を秘めており、将来のポリシング慣行におけるより大きな監視、一貫性、および公平性を確保します。
私たちのシステムのデモビデオは、https://drive.google.com/file/d/1kbrsggr8e3b5xpsblrchrgrgj- y-kpchno/view?usp =共有でアクセスできます。

要約(オリジナル)

Achieving a delicate balance between fostering trust in law en- forcement and protecting the rights of both officers and civilians continues to emerge as a pressing research and product challenge in the world today. In the pursuit of fairness and transparency, this study presents an innovative AI-driven system designed to generate police report drafts from complex, noisy, and multi-role dialogue data. Our approach intelligently extracts key elements of law enforcement interactions and includes them in the draft, producing structured narratives that are not only high in quality but also reinforce accountability and procedural clarity. This frame- work holds the potential to transform the reporting process, ensur- ing greater oversight, consistency, and fairness in future policing practices. A demonstration video of our system can be accessed at https://drive.google.com/file/d/1kBrsGGR8e3B5xPSblrchRGj- Y-kpCHNO/view?usp=sharing

arxiv情報

著者 Param Kulkarni,Yingchi Liu,Hao-Ming Fu,Shaohua Yang,Isuru Gunasekara,Matt Peloquin,Noah Spitzer-Williams,Xiaotian Zhou,Xiaozhong Liu,Zhengping Ji,Yasser Ibrahim
発行日 2025-02-11 16:27:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Auto-Drafting Police Reports from Noisy ASR Outputs: A Trust-Centered LLM Approach はコメントを受け付けていません

exHarmony: Authorship and Citations for Benchmarking the Reviewer Assignment Problem

要約

ピアレビュープロセスは、学術的な仕事の質と信頼性を確保するために重要ですが、適切なレビュアーを割り当てることは依然として重要な課題です。
従来の手動方法は労働集約的であり、しばしば効果がなく、非建設的または偏ったレビューにつながります。
このペーパーでは、レビュアーの割り当て問題(RAP)を検索タスクとして再想像することにより、これらの課題に対処するように設計された、呼び出(eharmony)を紹介するベンチマークを紹介します。
Openalexからの広範なデータを利用して、原稿に適したレビューアの潜在的な指標として、著者、最も類似の専門家、引用関係を考慮する新しいアプローチを提案します。
このアプローチにより、明示的なラベルを必要とせずにレビュー担当者の割り当て問題を評価するための標準のベンチマークデータセットを開発できます。
従来の語彙マッチング、静的神経埋め込み、文脈化された神経埋め込みなど、さまざまな方法をベンチマークし、RAPのコンテキストで関連性と多様性の両方を評価する評価メトリックを導入します。
私たちの結果は、従来の方法は合理的にうまく機能するが、学術文献で訓練された文脈化された埋め込みが最高のパフォーマンスを示していることを示しています。
この調査結果は、レビュー担当者の割り当ての多様性と有効性を高めるためのさらなる研究の重要性を強調しています。

要約(オリジナル)

The peer review process is crucial for ensuring the quality and reliability of scholarly work, yet assigning suitable reviewers remains a significant challenge. Traditional manual methods are labor-intensive and often ineffective, leading to nonconstructive or biased reviews. This paper introduces the exHarmony (eHarmony but for connecting experts to manuscripts) benchmark, designed to address these challenges by re-imagining the Reviewer Assignment Problem (RAP) as a retrieval task. Utilizing the extensive data from OpenAlex, we propose a novel approach that considers a host of signals from the authors, most similar experts, and the citation relations as potential indicators for a suitable reviewer for a manuscript. This approach allows us to develop a standard benchmark dataset for evaluating the reviewer assignment problem without needing explicit labels. We benchmark various methods, including traditional lexical matching, static neural embeddings, and contextualized neural embeddings, and introduce evaluation metrics that assess both relevance and diversity in the context of RAP. Our results indicate that while traditional methods perform reasonably well, contextualized embeddings trained on scholarly literature show the best performance. The findings underscore the importance of further research to enhance the diversity and effectiveness of reviewer assignments.

arxiv情報

著者 Sajad Ebrahimi,Sara Salamat,Negar Arabzadeh,Mahdi Bashari,Ebrahim Bagheri
発行日 2025-02-11 16:35:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.IR | exHarmony: Authorship and Citations for Benchmarking the Reviewer Assignment Problem はコメントを受け付けていません