Synthetic Data Augmentation for Cross-domain Implicit Discourse Relation Recognition

要約

暗黙の談話関係認識(IDRR) – 2つのテキストスパン間の暗黙のコヒーレンス関係を識別するタスク – には、深い意味的な理解が必要です。
最近の研究では、ゼロまたは少数のショットアプローチが監視されたモデルに大幅に遅れていることが示されていますが、LLMSは合成データ増強に役立つ可能性があります。ここでは、LLMは指定されたコヒーレンス関係に続いて2番目の引数を生成します。
このアプローチをクロスドメインの設定で適用し、無効なターゲットドメインデータを使用して談話の継続を生成し、ソースドメインラベルのデータでトレーニングされたベースモデルを適応させました。
大規模なテストセットで実施された評価により、アプローチのさまざまなバリエーションが大幅な改善をもたらさないことが明らかになりました。
LLMSは、IDRRの有用なサンプルを生成できないことが多く、IDRRモデルを評価する際に統計的有意性と比較可能性の両方を考慮することの重要性を強調することが多いと結論付けています。

要約(オリジナル)

Implicit discourse relation recognition (IDRR) — the task of identifying the implicit coherence relation between two text spans — requires deep semantic understanding. Recent studies have shown that zero- or few-shot approaches significantly lag behind supervised models, but LLMs may be useful for synthetic data augmentation, where LLMs generate a second argument following a specified coherence relation. We applied this approach in a cross-domain setting, generating discourse continuations using unlabelled target-domain data to adapt a base model which was trained on source-domain labelled data. Evaluations conducted on a large-scale test set revealed that different variations of the approach did not result in any significant improvements. We conclude that LLMs often fail to generate useful samples for IDRR, and emphasize the importance of considering both statistical significance and comparability when evaluating IDRR models.

arxiv情報

著者 Frances Yung,Varsha Suresh,Zaynab Reza,Mansoor Ahmad,Vera Demberg
発行日 2025-03-26 14:41:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Synthetic Data Augmentation for Cross-domain Implicit Discourse Relation Recognition はコメントを受け付けていません

100% Elimination of Hallucinations on RAGTruth for GPT-4 and GPT-3.5 Turbo

要約

大規模な言語モデル(LLMS)における幻覚の問題は、企業やその他のハイステークスアプリケーションにおけるAIの採用に対する重要な障壁のままです。
検索された生成(RAG)システムの進歩にもかかわらず、現在の最先端の方法は、関連する正確なコンテキストが提供されたとしても、忠実で事実上正しい出力を生成する際に80%以上の精度を達成できません。
この作業では、入力前にクエリとコンテキストデータを再フォーマットすることにより、LLMSで100%の幻覚のない応答を達成する新しい系統的アプローチであるAcuraiを紹介します。
LLMの内部表現、名詞眼の優位性の重要性、離散官能ユニット(DFU)の役割を深く理解することで、Acuraiは入力コンテキストと生成された出力の間の整合を保証します。
Ragtruth Corpusを使用してこの方法を検証し、GPT-4とGPT-3.5ターボの両方の100%の幻覚を排除する能力を示しています。
Acuraiは、信頼できるAIシステムの開発において重要な一歩をマークし、一貫した正確で忠実なAI応答を達成するための新しい基準を設定しています。

要約(オリジナル)

The issue of hallucinations in large language models (LLMs) remains a critical barrier to the adoption of AI in enterprise and other high-stakes applications. Despite advancements in retrieval-augmented generation (RAG) systems, current state-of-the-art methods fail to achieve more than 80% accuracy in generating faithful and factually correct outputs, even when provided with relevant and accurate context. In this work, we introduce Acurai, a novel systematic approach that achieves 100% hallucination-free responses in LLMs by reformatting queries and context data prior to input. Leveraging a deep understanding of LLM internal representations, the importance of noun-phrase dominance, and the role of discrete functional units (DFUs), Acurai ensures alignment between input context and generated output. We validate this method using the RAGTruth corpus, demonstrating its ability to eliminate 100% hallucinations for both GPT-4 and GPT-3.5 Turbo. Acurai sets a new standard for achieving consistent, accurate, and faithful AI responses, marking a significant step forward in the development of trustworthy AI systems.

arxiv情報

著者 Michael C. Wood,Adam A. Forbes
発行日 2025-03-26 15:18:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | 100% Elimination of Hallucinations on RAGTruth for GPT-4 and GPT-3.5 Turbo はコメントを受け付けていません

PVLens: Enhancing Pharmacovigilance Through Automated Label Extraction

要約

信頼できる医薬品安全リファレンスデータベースは薬物学生に不可欠ですが、Siderのような既存のリソースは時代遅れで静的です。
FDA構造製品ラベル(SPL)からラベル付きの安全情報を抽出し、MEDDRAにマップという用語を抽出する自動システムであるPVLENSを導入します。
PVLENSは、Webベースのレビューツールを通じて、自動化を専門家の監視と統合します。
97の薬物ラベルに対する検証では、PVLENSは0.882のF1スコアを達成し、高いリコール(0.983)と中程度の精度(0.799)を獲得しました。
Siderに代わるスケーラブルでより正確で継続的に更新された代替品を提供することにより、PVLensは、精度と同時期の洞察を改善して、リアルタイムのPharamcovigilanceを強化します。

要約(オリジナル)

Reliable drug safety reference databases are essential for pharmacovigilance, yet existing resources like SIDER are outdated and static. We introduce PVLens, an automated system that extracts labeled safety information from FDA Structured Product Labels (SPLs) and maps terms to MedDRA. PVLens integrates automation with expert oversight through a web-based review tool. In validation against 97 drug labels, PVLens achieved an F1 score of 0.882, with high recall (0.983) and moderate precision (0.799). By offering a scalable, more accurate and continuously updated alternative to SIDER, PVLens enhances real-time pharamcovigilance with improved accuracy and contemporaneous insights.

arxiv情報

著者 Jeffery L Painter,Gregory E Powell,Andrew Bate
発行日 2025-03-26 15:33:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG, J.3 | PVLens: Enhancing Pharmacovigilance Through Automated Label Extraction はコメントを受け付けていません

Unlocking Efficient Long-to-Short LLM Reasoning with Model Merging

要約

System 1からSystem 2の大規模な言語モデル(LLMS)の推論への移行は、意図的で反復的な思考を通じて複雑なタスクを処理する際の大幅な進歩を示しています。
ただし、モデルが考え過ぎる傾向があり、出力の質を比例して改善することなく冗長な推論ステップを生成する傾向があるため、この進捗は効率性のコストでしばしば発生します。
長期的な(L2S)推論は、この課題の有望な解決策として浮上しており、推論の深さと実際の効率のバランスをとることを目指しています。
監視された微調整(SFT)、補強学習(RL)、迅速なエンジニアリングなどの既存のアプローチは、潜在能力を示していますが、計算上の高価であるか不安定です。
一方、モデルのマージは、システム1モデルの迅速な考えの機能をシステム2モデルの系統的推論と統合することにより、費用対効果の高い堅牢な代替品を提供します。
この作業では、L2Sの推論のモデル合併、タスクベクトルベース、SVDベース、アクティベーションに基づいたマージを含む多様な方法論を調査する包括的な経験的研究を提示します。
私たちの実験では、モデルのマージがベースラインのパフォーマンスを維持または改善しながら、平均応答長を最大55%減らすことができることが明らかになりました。
また、モデルスケールと1.5B/7B/14B/32Bモデルでの広範な評価とのマージの有効性との強い相関関係を特定します。
さらに、自己批判的で自己修正するマージモデルの能力、およびタスクの複雑さに基づく適応応答長を調査します。
私たちの調査結果は、L2S推論の非常に効率的で効果的なパラダイムとしてマージされるモデルを強調し、システム2の推論の堅牢性を維持しながら、考え直しの問題に対する実用的な解決策を提供します。
この作品は、github https://github.com/hahahawu/long-to-short-via-model-mergingにあります。

要約(オリジナル)

The transition from System 1 to System 2 reasoning in large language models (LLMs) has marked significant advancements in handling complex tasks through deliberate, iterative thinking. However, this progress often comes at the cost of efficiency, as models tend to overthink, generating redundant reasoning steps without proportional improvements in output quality. Long-to-Short (L2S) reasoning has emerged as a promising solution to this challenge, aiming to balance reasoning depth with practical efficiency. While existing approaches, such as supervised fine-tuning (SFT), reinforcement learning (RL), and prompt engineering, have shown potential, they are either computationally expensive or unstable. Model merging, on the other hand, offers a cost-effective and robust alternative by integrating the quick-thinking capabilities of System 1 models with the methodical reasoning of System 2 models. In this work, we present a comprehensive empirical study on model merging for L2S reasoning, exploring diverse methodologies, including task-vector-based, SVD-based, and activation-informed merging. Our experiments reveal that model merging can reduce average response length by up to 55% while preserving or even improving baseline performance. We also identify a strong correlation between model scale and merging efficacy with extensive evaluations on 1.5B/7B/14B/32B models. Furthermore, we investigate the merged model’s ability to self-critique and self-correct, as well as its adaptive response length based on task complexity. Our findings highlight model merging as a highly efficient and effective paradigm for L2S reasoning, offering a practical solution to the overthinking problem while maintaining the robustness of System 2 reasoning. This work can be found on Github https://github.com/hahahawu/Long-to-Short-via-Model-Merging.

arxiv情報

著者 Han Wu,Yuxuan Yao,Shuqi Liu,Zehua Liu,Xiaojin Fu,Xiongwei Han,Xing Li,Hui-Ling Zhen,Tao Zhong,Mingxuan Yuan
発行日 2025-03-26 15:34:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Unlocking Efficient Long-to-Short LLM Reasoning with Model Merging はコメントを受け付けていません

Latent Convergence Modulation in Large Language Models: A Novel Approach to Iterative Contextual Realignment

要約

トークン予測の安定性は、早期推論ステップの軽度の変動が拡張されたシーケンス上で重要なセマンティックドリフトにつながることが多い、自己回帰生成モデルの課題のままです。
隠された状態遷移を調節するために構造化された変調メカニズムが導入され、生成的柔軟性を維持しながら、潜在的な表現軌道が以前のコンテキスト依存関係と整合したままであることを保証しました。
変調フレームワークは、トランスベースのアーキテクチャ内で機能するように設計されており、外部メモリ依存関係や広範なアーキテクチャの変更を課すことなく、表現の進化を動的に制約します。
実証的評価により、構造化された潜在的な調整が困惑の変動、エントロピーの分散、および語彙不安定の削減に寄与し、長型のテキスト生成の一貫性を改善することが実証されました。
勾配伝播の安定性がさらに分析され、変調プロセスがよりスムーズな最適化経路につながり、連続した推論ステップ全体で体重更新の不安定な変動を軽減することを明らかにしました。
変調プロセスの計算効率が評価され、変圧器ベースのアーキテクチャ内での統合により、既存の最適化フレームワークとの互換性を維持しながら、限界オーバーヘッドのみが導入されたことが示されました。
構造化された変調の制約は、構文の変動にも影響を与え、バランスの取れた文の長さ分布を維持しながら過度の繰り返しを防ぎました。
ベースラインモデルに対する比較評価は、発音の分解能、論理的一貫性、および自己回帰テキスト生成タスク全体のコンテキストアライメントを改善する上で、制御された潜在状態の進化の役割を強化しました。

要約(オリジナル)

Token prediction stability remains a challenge in autoregressive generative models, where minor variations in early inference steps often lead to significant semantic drift over extended sequences. A structured modulation mechanism was introduced to regulate hidden state transitions, ensuring that latent representation trajectories remain aligned with prior contextual dependencies while preserving generative flexibility. The modulation framework was designed to function within transformer-based architectures, dynamically constraining representation evolution without imposing external memory dependencies or extensive architectural modifications. Empirical evaluations demonstrated that structured latent adjustments contributed to reductions in perplexity fluctuations, entropy variance, and lexical instability, improving coherence in long-form text generation. Gradient propagation stability was further analyzed, revealing that the modulation process led to smoother optimization pathways, mitigating erratic fluctuations in weight updates across successive inference steps. The computational efficiency of the modulation process was assessed, showing that its integration within transformer-based architectures introduced only marginal overhead while maintaining compatibility with existing optimization frameworks. The structured modulation constraints also influenced syntactic variation, preventing excessive repetition while maintaining balanced sentence length distributions. Comparative evaluations against baseline models reinforced the role of controlled latent state evolution in improving pronoun resolution, logical consistency, and contextual alignment across autoregressive text generation tasks.

arxiv情報

著者 Patricia Porretta,Sylvester Pakenham,Huxley Ainsworth,Gregory Chatten,Godfrey Allerton,Simon Hollingsworth,Vance Periwinkle
発行日 2025-03-26 15:53:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Latent Convergence Modulation in Large Language Models: A Novel Approach to Iterative Contextual Realignment はコメントを受け付けていません

Probabilistic Lexical Manifold Construction in Large Language Models via Hierarchical Vector Field Interpolation

要約

階層ベクトルフィールド補間は、語彙表現のための構造化された確率的フレームワークを導入し、単語の埋め込みが離散トークンマッピングに制約されるのではなく、連続的多様体をスムーズに遷移するようにします。
提案された方法論は、単語表現がトポロジーの一貫性に従うと確率的関数空間を構築し、トランスベースの埋め込みで一般的に観察される表現の不連続性を緩和します。
経験的評価により、確率的制約は、文脈関係を改善することにより語彙的一貫性を高め、複数の言語分布における意味的安定性の改善につながることが明らかになりました。
発散最小化技術の適用により、補間埋め込みは、大規模な実装の計算可能性を維持しながら、確率的一貫性を維持することが保証されます。
実験的発見は、補間された語彙マニホールドが表現密度アライメントを改善し、コンテキスト埋め込み分布の異方性歪みを減らすことを示しています。
標準的な変圧器ベースのモデルとの比較分析は、特に細粒のセマンティック分化を必要とするタスクで、構造化された補間がより安定した表現をもたらすことを強調しています。
埋め込みの発散の統計的評価は、確率論的な語彙多様体が、文脈的抽象化のさまざまなスケール全体にわたって一貫性を維持しながら、表現の矛盾を減らすことを確認します。
計算効率の評価により、補間はマイナーな処理オーバーヘッドを導入する一方で、構造化された表現学習アプローチは実用的な展開のためにスケーラブルのままであることが明らかになりました。

要約(オリジナル)

Hierarchical vector field interpolation introduces a structured probabilistic framework for lexical representation, ensuring that word embeddings transition smoothly across a continuous manifold rather than being constrained to discrete token mappings. The proposed methodology constructs a probabilistic function space where word representations adhere to topological consistency, mitigating representational discontinuities commonly observed in transformer-based embeddings. Empirical evaluations reveal that probabilistic constraints enhance lexical coherence by refining contextual relationships, leading to improvements in semantic stability across multiple linguistic distributions. The application of divergence minimization techniques ensures that interpolated embeddings maintain probabilistic consistency while preserving computational feasibility for large-scale implementations. Experimental findings demonstrate that interpolated lexical manifolds improve representation density alignment, reducing anisotropic distortions in contextual embedding distributions. Comparative analyses with standard transformer-based models highlight that structured interpolation yields more stable representations, particularly in tasks requiring fine-grained semantic differentiation. The statistical evaluation of embedding divergence confirms that probabilistic lexical manifolds reduce representational inconsistencies while maintaining coherence across varying scales of contextual abstraction. An assessment of computational efficiency reveals that while interpolation introduces minor processing overhead, the structured representation learning approach remains scalable for practical deployment.

arxiv情報

著者 Clive Pendleton,Ewan Harrington,Giles Fairbrother,Jasper Arkwright,Nigel Fenwick,Richard Katrix
発行日 2025-03-26 15:56:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Probabilistic Lexical Manifold Construction in Large Language Models via Hierarchical Vector Field Interpolation はコメントを受け付けていません

TAMA: A Human-AI Collaborative Thematic Analysis Framework Using Multi-Agent LLMs for Clinical Interviews

要約

テーマ分析(TA)は、構造化されていないテキストデータで潜在的な意味を明らかにするために広く使用されている定性的アプローチです。
TAはヘルスケアで貴重な洞察を提供しますが、リソース集約型です。
大規模な言語モデル(LLM)がTAを実行するために導入されていますが、ヘルスケアでのアプリケーションは未開拓のままです。
ここでは、臨床インタビューのためにマルチエージェントLLMSを使用した、Tama:Human-Ai-AIの共同テーマ分析フレームワークを提案します。
エージェント間の構造化された会話を通じて、マルチエージェントシステムのスケーラビリティとコヒーレンスを活用し、TAの心臓専門家の専門知識を調整します。
まれな先天性心疾患である冠動脈(AAOCA)の異常な大動脈起源を持つ子供の親からのインタビュー転写産物を使用して、タマが既存のLLM支援TAアプローチを上回り、より高いテーマのヒット率、カバレッジ、特徴を達成することを実証します。
Tamaは、マニュアルワークロードを大幅に削減しながら品質を高めることにより、マルチエージェントLLMシステムをループ内統合で活用することにより、臨床環境で自動化されたTAの強力な可能性を実証しています。

要約(オリジナル)

Thematic analysis (TA) is a widely used qualitative approach for uncovering latent meanings in unstructured text data. TA provides valuable insights in healthcare but is resource-intensive. Large Language Models (LLMs) have been introduced to perform TA, yet their applications in healthcare remain unexplored. Here, we propose TAMA: A Human-AI Collaborative Thematic Analysis framework using Multi-Agent LLMs for clinical interviews. We leverage the scalability and coherence of multi-agent systems through structured conversations between agents and coordinate the expertise of cardiac experts in TA. Using interview transcripts from parents of children with Anomalous Aortic Origin of a Coronary Artery (AAOCA), a rare congenital heart disease, we demonstrate that TAMA outperforms existing LLM-assisted TA approaches, achieving higher thematic hit rate, coverage, and distinctiveness. TAMA demonstrates strong potential for automated TA in clinical settings by leveraging multi-agent LLM systems with human-in-the-loop integration by enhancing quality while significantly reducing manual workload.

arxiv情報

著者 Huimin Xu,Seungjun Yi,Terence Lim,Jiawei Xu,Andrew Well,Carlos Mery,Aidong Zhang,Yuji Zhang,Heng Ji,Keshav Pingali,Yan Leng,Ying Ding
発行日 2025-03-26 15:58:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.HC | TAMA: A Human-AI Collaborative Thematic Analysis Framework Using Multi-Agent LLMs for Clinical Interviews はコメントを受け付けていません

Lexical Manifold Reconfiguration in Large Language Models: A Novel Architectural Approach for Contextual Modulation

要約

トークン埋め込みのコンテキスト適応は、言語モデルが一貫性を維持し、拡張されたテキストシーケンスにわたって意味関係を維持する方法を決定する上で中心的な役割を果たします。
静的埋め込みは、しばしば語彙の柔軟性に制約を課し、複雑な文構造またはドメイン固有の用語シフトに直面した場合、最適ではないパフォーマンスにつながります。
この制限に対処するために、連続した幾何学的変換を通じてトークンの埋め込みを動的に再構成するために構造化されたアプローチが開発され、進化する談話構造に応じて表現が進化するようにしました。
字句ベースの変換メカニズムが統合され、語彙位置を調節し、さまざまなテキストコンテキスト全体で言語関係を維持しながら、埋め込みが制御されたシフトを受けることができました。
実証的評価により、再構成を埋め込むことで、特に構造化されたドメイン適応テキスト生成タスクにおいて、困惑の削減、語彙的一貫性の向上、および文レベルの連続性が向上することが実証されました。
埋め込みドリフトの比較分析は、動的に再構築された表現がより強力なコンテキストの一貫性を維持し、言語モデリング出力の流encyさを維持しながらトークン依存性の不整合を減らすことを示しました。
計算オーバーヘッド評価により、埋め込みの反復改良によりトレーニングの複雑さが増加している一方で、推論は効率的なままであり、リアルタイム生成の実用的な実現可能性を確保することが確認されました。
複数のデータセットにわたる評価により、動的に変調された埋め込みがより広範な語彙の多様性を示し、繰り返しのトークンパターンを減らし、より適応性のある表現学習プロセスを可能にすることがさらに実証されました。

要約(オリジナル)

Contextual adaptation in token embeddings plays a central role in determining how well language models maintain coherence and retain semantic relationships over extended text sequences. Static embeddings often impose constraints on lexical flexibility, leading to suboptimal performance when faced with complex sentence structures or domain-specific terminology shifts. To address this limitation, a structured approach was developed for dynamically reconfiguring token embeddings through continuous geometric transformations, ensuring that representations evolved in response to evolving discourse structures. A manifold-based transformation mechanism was integrated to regulate lexical positioning, allowing embeddings to undergo controlled shifts while preserving linguistic relationships across varying textual contexts. Empirical evaluations demonstrated that embedding reconfiguration contributed to reductions in perplexity, improved lexical coherence, and enhanced sentence-level continuity, particularly in structured and domain-adaptive text generation tasks. Comparative analyses of embedding drift indicated that dynamically restructured representations maintained stronger contextual consistency, reducing misalignment in token dependencies while preserving fluency in language modeling outputs. Computational overhead assessments confirmed that while training complexity increased due to the iterative refinement of embeddings, inference remained efficient, ensuring practical feasibility for real-time generation. Evaluations across multiple datasets further demonstrated that dynamically modulated embeddings exhibited broader lexical diversity, reducing repetitive token patterns and enabling a more adaptable representation learning process.

arxiv情報

著者 Koinis Vassilis,Godfrey Milbourne,Harriet Featherstone,Xanthe Peverell,Yorick Bletchley,Zachary Montford
発行日 2025-03-26 15:58:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Lexical Manifold Reconfiguration in Large Language Models: A Novel Architectural Approach for Contextual Modulation はコメントを受け付けていません

Comparing Styles across Languages: A Cross-Cultural Exploration of Politeness

要約

言語間でスタイルがどのように異なるかを理解することは、人間とコンピューターの両方をトレーニングして、文化的に適切なテキストを生成するのに有利です。
多言語のLMSからスタイルの違いを抽出し、言語間でスタイルを比較するための説明フレームワークを紹介します。
私たちのフレームワーク(1)は、あらゆる言語で包括的なスタイルのLexicaを生成し、(2)LMSからの特徴の重要性を、同等の語彙カテゴリに統合します。
このフレームワークを適用して、礼儀正しさを比較し、最初の全体的な多言語の礼儀正しさのデータセットを作成し、4つの言語によって礼儀正しさがどのように変化するかを調査します。
私たちのアプローチにより、明確な言語カテゴリが文体的なバリエーションにどのように貢献するかを効果的に評価し、世界中で人々がどのように異なってコミュニケーションするかについて解釈可能な洞察を提供します。

要約(オリジナル)

Understanding how styles differ across languages is advantageous for training both humans and computers to generate culturally appropriate text. We introduce an explanation framework to extract stylistic differences from multilingual LMs and compare styles across languages. Our framework (1) generates comprehensive style lexica in any language and (2) consolidates feature importances from LMs into comparable lexical categories. We apply this framework to compare politeness, creating the first holistic multilingual politeness dataset and exploring how politeness varies across four languages. Our approach enables an effective evaluation of how distinct linguistic categories contribute to stylistic variations and provides interpretable insights into how people communicate differently around the world.

arxiv情報

著者 Shreya Havaldar,Matthew Pressimone,Eric Wong,Lyle Ungar
発行日 2025-03-26 16:04:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | Comparing Styles across Languages: A Cross-Cultural Exploration of Politeness はコメントを受け付けていません

UniEDU: A Unified Language and Vision Assistant for Education Applications

要約

K-12の学生向けの教育資料は、テキストや画像などの複数のモダリティで構成されており、これらの資料の微妙な情報を完全に理解するためのモデルの課題を提起します。
この論文では、知識の推奨、知識の追跡、時間コスト予測、ユーザーの回答予測など、さまざまな教育アプリケーション向けに設計された統一言語とビジョンアシスタントUneieduをすべて単一のモデル内に提案します。
従来のタスク固有のモデルとは異なり、Uneieduは、強力な一般化機能を維持しながら、複数の教育タスクに及ぶ統一されたソリューションを提供します。
その適応性により、多様な学習環境での実際の展開に適しています。
さらに、Unieduは、完全に微調整されたモデルと比較して最小限の劣化で競争力のあるパフォーマンスを維持しながら、効率の約300%の増加を大幅に削減することにより、業界規模の展開に最適化されています。
この作業は、教育の進化する要求に合わせて調整された汎用性の高いAIシステムを作成するための重要なステップを表しています。

要約(オリジナル)

Education materials for K-12 students often consist of multiple modalities, such as text and images, posing challenges for models to fully understand nuanced information in these materials. In this paper, we propose a unified language and vision assistant UniEDU designed for various educational applications, including knowledge recommendation, knowledge tracing, time cost prediction, and user answer prediction, all within a single model. Unlike conventional task-specific models, UniEDU offers a unified solution that excels across multiple educational tasks while maintaining strong generalization capabilities. Its adaptability makes it well-suited for real-world deployment in diverse learning environments. Furthermore, UniEDU is optimized for industry-scale deployment by significantly reducing computational overhead-achieving approximately a 300\% increase in efficiency-while maintaining competitive performance with minimal degradation compared to fully fine-tuned models. This work represents a significant step toward creating versatile AI systems tailored to the evolving demands of education.

arxiv情報

著者 Zhendong Chu,Jian Xie,Shen Wang,Zichao Wang,Qingsong Wen
発行日 2025-03-26 16:33:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL | UniEDU: A Unified Language and Vision Assistant for Education Applications はコメントを受け付けていません