Efficient Multi-Task Inferencing with a Shared Backbone and Lightweight Task-Specific Adapters for Automatic Scoring

要約

教育における人工知能 (AI) の統合には、パフォーマンス、適応性、コストのバランスをとったスケーラブルで効率的なフレームワークが必要です。
このペーパーでは、タスク固有の微調整のための軽量 LoRA アダプターで強化された共有バックボーン モデル アーキテクチャを提案することで、これらのニーズに対処し、27 の相互に排他的なタスクにわたる生徒の回答の自動採点を対象としています。
このフレームワークは、GPU メモリ消費量を 60%、推論レイテンシーを 40% 削減しながら、競争力のあるパフォーマンス (完全に微調整されたモデルの平均 QWK 0.888 と比較して 0.848) を達成することで、大幅な効率の向上を示しています。
このアプローチは、教育タスク用の言語モデルの改善、コストを重視した導入のための責任あるイノベーションの創出、評価ワークフローの合理化による教育者のサポートというワークショップの焦点と一致しています。
この調査結果は、自動採点システムの公平性と透明性を維持しながら、学習成果を向上させるスケーラブルな AI の可能性を強調しています。

要約(オリジナル)

The integration of Artificial Intelligence (AI) in education requires scalable and efficient frameworks that balance performance, adaptability, and cost. This paper addresses these needs by proposing a shared backbone model architecture enhanced with lightweight LoRA adapters for task-specific fine-tuning, targeting the automated scoring of student responses across 27 mutually exclusive tasks. By achieving competitive performance (average QWK of 0.848 compared to 0.888 for fully fine-tuned models) while reducing GPU memory consumption by 60% and inference latency by 40%, the framework demonstrates significant efficiency gains. This approach aligns with the workshops’ focus on improving language models for educational tasks, creating responsible innovations for cost-sensitive deployment, and supporting educators by streamlining assessment workflows. The findings underscore the potential of scalable AI to enhance learning outcomes while maintaining fairness and transparency in automated scoring systems.

arxiv情報

著者 Ehsan Latif,Xiaoming Zhai
発行日 2024-12-30 16:34:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク