Addressing Emotion Bias in Music Emotion Recognition and Generation with Frechet Audio Distance

要約

音楽感情の複雑な性質は、特に単一のオーディオエンコーダー、感情分類器、または評価メトリックに依存する場合、認識と生成の両方に固有のバイアスをもたらします。
この作業では、リファレンスフリー評価メトリックであるFrechet Audio Distance(FAD)とともに、多様なオーディオエンコーダーを採用して、音楽感情認識(MER)と感情的な音楽生成(EMG)に関する研究を実施しています。
私たちの研究は、MERのベンチマーク評価から始まり、単一のオーディオエンコーダーを使用することの制限と、異なる測定で観察される格差を強調しています。
次に、複数のエンコーダーから派生したFADを使用してMERパフォーマンスを評価することを提案し、音楽感情のより客観的な尺度を提供します。
さらに、生成された音楽感情の変動性と顕著性の両方を改善し、それによってそのリアリズムを高めるために設計された強化されたEMGアプローチを導入します。
さらに、EMGモデルを2つのベースラインモデルと比較して、実際の音楽と合成音楽で伝えられる感情間のリアリズムの違いを調査します。
実験結果は、MERとEMGの両方の感情バイアスの問題を強調し、FADおよび多様なオーディオエンコーダーを使用して音楽の感情をより客観的かつ効果的に評価する可能性を示しています。

要約(オリジナル)

The complex nature of musical emotion introduces inherent bias in both recognition and generation, particularly when relying on a single audio encoder, emotion classifier, or evaluation metric. In this work, we conduct a study on Music Emotion Recognition (MER) and Emotional Music Generation (EMG), employing diverse audio encoders alongside Frechet Audio Distance (FAD), a reference-free evaluation metric. Our study begins with a benchmark evaluation of MER, highlighting the limitations of using a single audio encoder and the disparities observed across different measurements. We then propose assessing MER performance using FAD derived from multiple encoders to provide a more objective measure of musical emotion. Furthermore, we introduce an enhanced EMG approach designed to improve both the variability and prominence of generated musical emotion, thereby enhancing its realism. Additionally, we investigate the differences in realism between the emotions conveyed in real and synthetic music, comparing our EMG model against two baseline models. Experimental results underscore the issue of emotion bias in both MER and EMG and demonstrate the potential of using FAD and diverse audio encoders to evaluate musical emotion more objectively and effectively.

arxiv情報

著者 Yuanchao Li,Azalea Gui,Dimitra Emmanouilidou,Hannes Gamper
発行日 2025-04-30 13:21:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.MM, cs.SD, eess.AS | Addressing Emotion Bias in Music Emotion Recognition and Generation with Frechet Audio Distance はコメントを受け付けていません

Meeseeks: An Iterative Benchmark Evaluating LLMs Multi-Turn Instruction-Following Ability

要約

指示に正確に従う機能は、大規模な言語モデル(LLM)が実際のアプリケーションで信頼できるエージェントとして機能するための基本です。
既存の命令に従うベンチマークは、自己修正を許可することなく、各ターンに新しい要件を導入するか、繰り返しのフィードバックプロセスを通じて現実的な人間との相互作用をシミュレートします。
この設計により、モデルは特定の要件障害に基づいて自己修正でき、実際のユーザーエンドの使用パターンをよりよく反映します。
ベンチマークは、意図認識、粒状コンテンツ検証、出力構造検証の3つの次元に編成された38の機能タグを備えた包括的な評価システムを実装しています。
LLMS全体の厳密な評価を通じて、MeeSeeksは、実際のアプリケーションでLLMSの指導に応じる機能に関する貴重な洞察を提供します。

要約(オリジナル)

The ability to follow instructions accurately is fundamental for Large Language Models (LLMs) to serve as reliable agents in real-world applications. While existing instruction-following benchmarks are either single-turn or introduce new requirements in each turn without allowing self-correction, Meeseeks simulates realistic human-LLM interactions through an iterative feedback process. This design enables models to self-correct based on specific requirement failures, better reflecting real-world user-end usage patterns. The benchmark implements a comprehensive evaluation system with 38 capability tags organized across three dimensions: Intent Recognition, Granular Content Validation, and Output Structure Validation. Through rigorous evaluation across LLMs, Meeseeks provides valuable insights into LLMs’ instruction-following capabilities in practical applications.

arxiv情報

著者 Jiaming Wang
発行日 2025-04-30 13:28:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Meeseeks: An Iterative Benchmark Evaluating LLMs Multi-Turn Instruction-Following Ability はコメントを受け付けていません

20min-XD: A Comparable Corpus of Swiss News Articles

要約

20分間のXD(20分間の文書レベル)、フランスのドキュメントレベルのニュース記事のドキュメントレベルの同等のコーパスを紹介します。
データセットは、セマンティックの類似性に基づいて自動的に整列されている2015年から2024年にかけて、約15,000の記事ペアで構成されています。
データ収集プロセスとアライメント方法論について詳しく説明します。
さらに、コーパスの定性的および定量的分析を提供します。
結果のデータセットは、ほぼ翻訳から緩やかに関連する記事に至るまで、幅広い言語間類似性を示し、さまざまなNLPアプリケーションや幅広い言語的動機付けの研究に役立ちます。
ドキュメントおよび文に合ったバージョンと、説明された実験用のコードでデータセットを公開します。

要約(オリジナル)

We present 20min-XD (20 Minuten cross-lingual document-level), a French-German, document-level comparable corpus of news articles, sourced from the Swiss online news outlet 20 Minuten/20 minutes. Our dataset comprises around 15,000 article pairs spanning 2015 to 2024, automatically aligned based on semantic similarity. We detail the data collection process and alignment methodology. Furthermore, we provide a qualitative and quantitative analysis of the corpus. The resulting dataset exhibits a broad spectrum of cross-lingual similarity, ranging from near-translations to loosely related articles, making it valuable for various NLP applications and broad linguistically motivated studies. We publicly release the dataset in document- and sentence-aligned versions and code for the described experiments.

arxiv情報

著者 Michelle Wastl,Jannis Vamvas,Selena Calleri,Rico Sennrich
発行日 2025-04-30 14:16:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | 20min-XD: A Comparable Corpus of Swiss News Articles はコメントを受け付けていません

Investigating the Effect of Parallel Data in the Cross-Lingual Transfer for Vision-Language Encoders

要約

下流タスクのほとんどの事前訓練を受けたビジョン言語(VL)モデルとトレーニングデータは、英語でのみ利用できます。
したがって、多言語VLタスクは、横断的転送を使用して解決されます。多言語の事前訓練モデルを微調整するか、並列データを使用してテキストエンコーダーを転送します。
代替アプローチを研究します。並列データを使用して、すでに訓練されたエンコーダーを転送します。
並列データの効果:ドメインと言語の数を調査します。
私たちの結果は、機械翻訳されたタスクデータでさえ、平均して、キャプションのような本物の並列データが一部の言語でそれを上回ったことを示しています。
さらに、ほとんどの言語は多言語トレーニングの恩恵を受けることを示しています。

要約(オリジナル)

Most pre-trained Vision-Language (VL) models and training data for the downstream tasks are only available in English. Therefore, multilingual VL tasks are solved using cross-lingual transfer: fine-tune a multilingual pre-trained model or transfer the text encoder using parallel data. We study the alternative approach: transferring an already trained encoder using parallel data. We investigate the effect of parallel data: domain and the number of languages, which were out of focus in previous work. Our results show that even machine-translated task data are the best on average, caption-like authentic parallel data outperformed it in some languages. Further, we show that most languages benefit from multilingual training.

arxiv情報

著者 Andrei-Alexandru Manea,Jindřich Libovický
発行日 2025-04-30 14:19:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Investigating the Effect of Parallel Data in the Cross-Lingual Transfer for Vision-Language Encoders はコメントを受け付けていません

VisualPuzzles: Decoupling Multimodal Reasoning Evaluation from Domain Knowledge

要約

現在のマルチモーダルベンチマークは、多くの場合、推論とドメイン固有の知識を混同し、非専門家の設定で一般的な推論能力を分離および評価することを困難にします。
これに対処するために、VisualPuzzlesを導入します。これは、視覚的な推論をターゲットにしながら、専門的な知識への依存を意図的に最小限に抑えるベンチマークです。
VisualPuzzlesは、アルゴリズム、類推、演ductive、帰納的、および空間的推論の5つのカテゴリにまたがる多様な質問で構成されています。
私たちの質問の主な原因の1つは、中国の公務員試験からの論理的推論の質問を手動で翻訳することです。
実験では、視覚的パズルには、MMMUなどのベンチマークと比較して、視覚的なドメイン固有の知識とより複雑な推論が必要であり、本物のマルチモーダル推論をよりよく評価できるようにすることが示されています。
評価によると、最先端のマルチモーダルな大手言語モデルは、視覚的パズルの人間のパフォーマンスに一貫して遅れをとっており、知識集約型ベンチマークの強力なパフォーマンスは、必ずしも推論に焦点を合わせた知識の光のタスクの成功につながるわけではありません。
さらに、推論計算のスケールアップ(「思考」モードを使用して)などの推論の強化は、モデルとタスクタイプ間で一貫性のない利益をもたらし、モデルサイズとパフォーマンスの間に明確な相関関係は観察されません。
また、モデルは、知識に重点を置いたベンチマークと比較して、視覚的パズルの異なる推論と応答パターンを示すことを発見しました。
VisualPuzzlesは、事実上のリコールやドメインの知識を超えて、推論機能を評価するためのより明確なレンズを提供します。

要約(オリジナル)

Current multimodal benchmarks often conflate reasoning with domain-specific knowledge, making it difficult to isolate and evaluate general reasoning abilities in non-expert settings. To address this, we introduce VisualPuzzles, a benchmark that targets visual reasoning while deliberately minimizing reliance on specialized knowledge. VisualPuzzles consists of diverse questions spanning five categories: algorithmic, analogical, deductive, inductive, and spatial reasoning. One major source of our questions is manually translated logical reasoning questions from the Chinese Civil Service Examination. Experiments show that VisualPuzzles requires significantly less intensive domain-specific knowledge and more complex reasoning compared to benchmarks like MMMU, enabling us to better evaluate genuine multimodal reasoning. Evaluations show that state-of-the-art multimodal large language models consistently lag behind human performance on VisualPuzzles, and that strong performance on knowledge-intensive benchmarks does not necessarily translate to success on reasoning-focused, knowledge-light tasks. Additionally, reasoning enhancements such as scaling up inference compute (with ‘thinking’ modes) yield inconsistent gains across models and task types, and we observe no clear correlation between model size and performance. We also found that models exhibit different reasoning and answering patterns on VisualPuzzles compared to benchmarks with heavier emphasis on knowledge. VisualPuzzles offers a clearer lens through which to evaluate reasoning capabilities beyond factual recall and domain knowledge.

arxiv情報

著者 Yueqi Song,Tianyue Ou,Yibo Kong,Zecheng Li,Graham Neubig,Xiang Yue
発行日 2025-04-30 14:45:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | VisualPuzzles: Decoupling Multimodal Reasoning Evaluation from Domain Knowledge はコメントを受け付けていません

LLMs and Finetuning: Benchmarking cross-domain performance for hate speech detection

要約

オンラインコミュニケーションの進化する景観では、ヘイトスピーチの検出は、デジタルプラットフォームの多様性によってさらに悪化した、恐ろしい課題のままです。
この研究では、ヘイトスピーチを特定する際に、事前に訓練された大型言語モデル(LLM)の有効性と適応性を調査し、2つの中心的な質問に対処します。(1)モデルのパフォーマンスは、微調整およびトレーニングパラメーターにどの程度依存しますか?
(3)一般化の可能性に影響を与えるデータセットまたはモデルの特定の機能は何ですか?
この実験は、LLMSが事前に除去されなくても、最先端よりも大きな利点を提供することを示しています。
通常の最小二乗分析では、細粒のヘイトスピーチラベルを使用したトレーニングの利点は、データセットサイズの増加とともに洗い流されることを示唆しています。
私たちの研究は、ヘイトスピーチ検出のための大規模な言語モデル(LLM)の可能性を実証していますが、特に結果の妥当性と再現性に関して、いくつかの制限が残っています。
私たちは、実験で直面した課題についての徹底的な議論で締めくくり、この種のベンチマーク実験を設計する将来の学者に推奨されるベストプラクティスを提供します。

要約(オリジナル)

In the evolving landscape of online communication, hate speech detection remains a formidable challenge, further compounded by the diversity of digital platforms. This study investigates the effectiveness and adaptability of pre-trained and fine-tuned Large Language Models (LLMs) in identifying hate speech, to address two central questions: (1) To what extent does the model performance depend on the fine-tuning and training parameters?, (2) To what extent do models generalize to cross-domain hate speech detection? and (3) What are the specific features of the datasets or models that influence the generalization potential? The experiment shows that LLMs offer a huge advantage over the state-of-the-art even without pretraining. Ordinary least squares analyses suggest that the advantage of training with fine-grained hate speech labels is washed away with the increase in dataset size. While our research demonstrates the potential of large language models (LLMs) for hate speech detection, several limitations remain, particularly regarding the validity and the reproducibility of the results. We conclude with an exhaustive discussion of the challenges we faced in our experimentation and offer recommended best practices for future scholars designing benchmarking experiments of this kind.

arxiv情報

著者 Ahmad Nasir,Aadish Sharma,Kokil Jaidka,Saifuddin Ahmed
発行日 2025-04-30 14:53:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | LLMs and Finetuning: Benchmarking cross-domain performance for hate speech detection はコメントを受け付けていません

Mapping Trustworthiness in Large Language Models: A Bibliometric Analysis Bridging Theory to Practice

要約

大規模な言語モデル(LLMS)の急速な増殖は、信頼性、透明性、公平性、倫理的整合の問題に及ぶ、信頼性に関する差し迫った懸念を提起しました。
さまざまなドメインでのLLMの採用が増加しているにもかかわらず、実際に信頼性を運用する方法についてのコンセンサスが不足しています。
この研究は、2019年から2025年までの2,006の出版物の書誌マッピング分析を実施することにより、理論的議論と実装のギャップを埋めます。共著者ネットワーク、キーワード共起分析、テーマの進化追跡を通じて、主要な研究動向、影響力のある著者、およびLLMの信頼性の一般的な定義を特定します。
さらに、68のコアペーパーの系統的レビューが行われ、信頼の概念化とその実際的な意味を調べます。
私たちの調査結果は、LLMSの信頼性が既存の組織の信頼フレームワークを通じてフレーム化されることが多く、能力、慈悲、誠実さなどの次元を強調することを明らかにしています。
ただし、これらの原則を具体的な開発戦略に変換することには大きなギャップがあります。
これに対処するために、検索された生成(RAG)、説明可能性技術、トレーニング後の監査を含むLLMライフサイクル全体の20の信頼性向上技術の構造マッピングを提案します。
実用的な戦略で書誌洞察を合成することにより、この研究は、より透明性があり、説明責任があり、倫理的に整合したLLMを促進し、現実世界のアプリケーションでの責任のある展開を確保することに貢献します。

要約(オリジナル)

The rapid proliferation of Large Language Models (LLMs) has raised pressing concerns regarding their trustworthiness, spanning issues of reliability, transparency, fairness, and ethical alignment. Despite the increasing adoption of LLMs across various domains, there remains a lack of consensus on how to operationalize trustworthiness in practice. This study bridges the gap between theoretical discussions and implementation by conducting a bibliometric mapping analysis of 2,006 publications from 2019 to 2025. Through co-authorship networks, keyword co-occurrence analysis, and thematic evolution tracking, we identify key research trends, influential authors, and prevailing definitions of LLM trustworthiness. Additionally, a systematic review of 68 core papers is conducted to examine conceptualizations of trust and their practical implications. Our findings reveal that trustworthiness in LLMs is often framed through existing organizational trust frameworks, emphasizing dimensions such as ability, benevolence, and integrity. However, a significant gap exists in translating these principles into concrete development strategies. To address this, we propose a structured mapping of 20 trust-enhancing techniques across the LLM lifecycle, including retrieval-augmented generation (RAG), explainability techniques, and post-training audits. By synthesizing bibliometric insights with practical strategies, this study contributes towards fostering more transparent, accountable, and ethically aligned LLMs, ensuring their responsible deployment in real-world applications.

arxiv情報

著者 José Siqueira de Cerqueira,Kai-Kristian Kemell,Muhammad Waseem,Rebekah Rousi,Nannan Xi,Juho Hamari,Pekka Abrahamsson
発行日 2025-04-30 15:04:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CY | Mapping Trustworthiness in Large Language Models: A Bibliometric Analysis Bridging Theory to Practice はコメントを受け付けていません

Adsorb-Agent: Autonomous Identification of Stable Adsorption Configurations via Large Language Model Agent

要約

吸着エネルギーは触媒における重要な反応性記述子であり、最適な触媒の効率的なスクリーニングを可能にします。
ただし、吸着エネルギーを決定するには、通常、多数の吸着性触媒構成を評価する必要があります。
現在のアルゴリズムアプローチは、吸着部位と構成の徹底的な列挙に依存しているため、プロセスが計算的に集中し、グローバルな最小エネルギーの識別を本質的に保証しません。
この作業では、グローバルな最小吸着エネルギーに対応するシステム固有の安定した吸着構成を効率的に識別するように設計された、大規模な言語モデル(LLM)エージェントであるAdSorb-Agentを紹介します。
Adsorb-Agentは、吸着エネルギーを保持する可能性のある吸着構成を戦略的に調査するために、組み込みの知識と緊急推論能力を活用します。
網羅的なサンプリングへの依存を減らすことにより、吸着エネルギー予測の精度を改善しながら、必要な初期構成の数を大幅に減らします。
さまざまな複雑さを含む20の代表システムにわたるAdsorb-Agentのパフォーマンスを評価します。
AdSorb-Agentは、システムの83.7%で同等の吸着エネルギーを正常に識別し、システムの35%で実際のグローバル最小値に近いエネルギーを達成しますが、従来の方法よりも初期構成が大幅に少なくなります。
その能力は、複雑なシステムで特に明白であり、金属間表面を含むシステムの46.7%と、吸着分子が大きいシステムの66.7%の吸着エネルギーが低いことを識別します。
これらの結果は、計算コストを削減し、吸着エネルギーの予測の信頼性を改善することにより、触媒発見を加速する吸着剤の可能性を示しています。

要約(オリジナル)

Adsorption energy is a key reactivity descriptor in catalysis, enabling efficient screening for optimal catalysts. However, determining adsorption energy typically requires evaluating numerous adsorbate-catalyst configurations. Current algorithmic approaches rely on exhaustive enumeration of adsorption sites and configurations, which makes the process computationally intensive and does not inherently guarantee the identification of the global minimum energy. In this work, we introduce Adsorb-Agent, a Large Language Model (LLM) agent designed to efficiently identify system-specific stable adsorption configurations corresponding to the global minimum adsorption energy. Adsorb-Agent leverages its built-in knowledge and emergent reasoning capabilities to strategically explore adsorption configurations likely to hold adsorption energy. By reducing the reliance on exhaustive sampling, it significantly decreases the number of initial configurations required while improving the accuracy of adsorption energy predictions. We evaluate Adsorb-Agent’s performance across twenty representative systems encompassing a range of complexities. The Adsorb-Agent successfully identifies comparable adsorption energies for 83.7% of the systems and achieves lower energies, closer to the actual global minimum, for 35% of the systems, while requiring significantly fewer initial configurations than conventional methods. Its capability is particularly evident in complex systems, where it identifies lower adsorption energies for 46.7% of systems involving intermetallic surfaces and 66.7% of systems with large adsorbate molecules. These results demonstrate the potential of Adsorb-Agent to accelerate catalyst discovery by reducing computational costs and improving the reliability of adsorption energy predictions.

arxiv情報

著者 Janghoon Ock,Tirtha Vinchurkar,Yayati Jadhav,Amir Barati Farimani
発行日 2025-04-30 15:05:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cond-mat.mtrl-sci, cs.CL | Adsorb-Agent: Autonomous Identification of Stable Adsorption Configurations via Large Language Model Agent はコメントを受け付けていません

Extracting and Transferring Abilities For Building Multi-lingual Ability-enhanced Large Language Models

要約

大規模な言語モデル(LLMS)の広範なアプリケーションにとって、多言語能力転送がますます重要になっています。
既存の作業は、低リソース言語では利用できない場合がある多言語能力関連データでのトレーニングに大きく依存しています。
それを解決するために、Maetと名付けられた多言語能力抽出および転送アプローチを提案します。
私たちの重要なアイデアは、LLMSから言語に依存しない能力関連の重みを分解して抽出し、トレーニングなしで単純な追加および減算操作により異なる言語でそれらを転送することです。
特に、私たちのMAETは抽出段階と伝達段階で構成されています。
抽出段階では、最初に特定の能力に高く関連する重要なニューロンを見つけ、次に導入可能な能力固有の重みを抽出するためにそれらを使用します。
転送段階では、能力関連のパラメーターテンソルをさらに選択し、言語的および能力固有の重みに基づいてマージング戦略を設計し、多言語能力強化LLMを構築します。
提案されたアプローチの有効性を実証するために、高リソースの舌と低リソースの舌シナリオの両方で数学的および科学的タスクに関する広範な実験を実施します。
実験結果は、MAETが高度な能力を効果的かつ効率的に抽出して転送し、トレーニングベースのベースライン方法を上回ることができることを示しています。
私たちのコードとデータは、https://github.com/rucaibox/maetで入手できます。

要約(オリジナル)

Multi-lingual ability transfer has become increasingly important for the broad application of large language models (LLMs). Existing work highly relies on training with the multi-lingual ability-related data, which may be not available for low-resource languages. To solve it, we propose a Multi-lingual Ability Extraction and Transfer approach, named as MAET. Our key idea is to decompose and extract language-agnostic ability-related weights from LLMs, and transfer them across different languages by simple addition and subtraction operations without training. Specially, our MAET consists of the extraction and transfer stages. In the extraction stage, we firstly locate key neurons that are highly related to specific abilities, and then employ them to extract the transferable ability-specific weights. In the transfer stage, we further select the ability-related parameter tensors, and design the merging strategy based on the linguistic and ability specific weights, to build the multi-lingual ability-enhanced LLM. To demonstrate the effectiveness of our proposed approach, we conduct extensive experiments on mathematical and scientific tasks in both high-resource lingual and low-resource lingual scenarios. Experiment results have shown that MAET can effectively and efficiently extract and transfer the advanced abilities, and outperform training-based baseline methods. Our code and data are available at https://github.com/RUCAIBox/MAET.

arxiv情報

著者 Zhipeng Chen,Kun Zhou,Liang Song,Wayne Xin Zhao,Bingning Wang,Weipeng Chen,Ji-Rong Wen
発行日 2025-04-30 15:32:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Extracting and Transferring Abilities For Building Multi-lingual Ability-enhanced Large Language Models はコメントを受け付けていません

Investigating Literary Motifs in Ancient and Medieval Novels with Large Language Models

要約

ギリシャの架空の物語は、西暦15世紀から15世紀半ばまでの愛の小説やロマンスとしばしば呼ばれ、特に特定の文学モチーフの使用において、多くの点で長い間類似していると考えられてきました。
微調整された大規模な言語モデルの使用を適用することにより、この研究は、このコーパスのテキストが共通しているモチーフと、どのように互いに異なるかを正確に調査することを目的としています。
結果は、一部のモチーフはコーパス全体で持続しますが、他のモチーフは頻度で変動し、特定の傾向または外部の影響を示していることを示しています。
結論的には、この方法は、定義と定性分析の両方のデータを提供し、定義の定義に従って文学的なモチーフを適切に抽出することを証明しています。

要約(オリジナル)

The Greek fictional narratives often termed love novels or romances, ranging from the first century CE to the middle of the 15th century, have long been considered as similar in many ways, not least in the use of particular literary motifs. By applying the use of fine-tuned large language models, this study aims to investigate which motifs exactly that the texts in this corpus have in common, and in which ways they differ from each other. The results show that while some motifs persist throughout the corpus, others fluctuate in frequency, indicating certain trends or external influences. Conclusively, the method proves to adequately extract literary motifs according to a set definition, providing data for both quantitative and qualitative analyses.

arxiv情報

著者 Emelie Hallenberg
発行日 2025-04-30 15:39:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Investigating Literary Motifs in Ancient and Medieval Novels with Large Language Models はコメントを受け付けていません