要約
私たちの研究は、この分野の重要なベンチマークとして機能するグラフベースの関係推論トランスフォーマー (GRIT) の分析と改善に焦点を当てています。
私たちは、PISC-fine データセットを使用して包括的なアブレーション研究を実施し、GRITv2 の効率とパフォーマンスの向上を見つけて調査します。
私たちの研究により、PISC 関係データセットに新しい最先端の関係認識モデルが提供されました。
GRIT モデルにいくつかの機能を導入し、GRITv2-L (大) と GRITv2-S (小) の 2 つのバージョンで新しいベンチマークを分析します。
私たちが提案する GRITv2-L は関係認識に関する既存の手法を上回り、GRITv2-S は GRITv2-L とのパフォーマンス差が 2% 以内にあります。GRITv2-L のモデル サイズとパラメータは GRITv2-L の 0.0625 倍しかありません。
さらに、リソースに制約のあるプラットフォームに効率的なモデルをデプロイするために重要な領域であるモデル圧縮のニーズにも対応します。
量子化技術を適用することで、GRITv2-S のサイズを 22MB に効率的に削減し、主力の OnePlus 12 モバイルにデプロイしました。このパフォーマンスは依然として PISC ファイン ベンチマークを上回っており、モバイル デバイス上でのモデルの実用的な実行可能性と効率の向上が強調されています。
要約(オリジナル)
Our research focuses on the analysis and improvement of the Graph-based Relation Inference Transformer (GRIT), which serves as an important benchmark in the field. We conduct a comprehensive ablation study using the PISC-fine dataset, to find and explore improvement in efficiency and performance of GRITv2. Our research has provided a new state-of-the-art relation recognition model on the PISC relation dataset. We introduce several features in the GRIT model and analyse our new benchmarks in two versions: GRITv2-L (large) and GRITv2-S (small). Our proposed GRITv2-L surpasses existing methods on relation recognition and the GRITv2-S is within 2% performance gap of GRITv2-L, which has only 0.0625x the model size and parameters of GRITv2-L. Furthermore, we also address the need for model compression, an area crucial for deploying efficient models on resource-constrained platforms. By applying quantization techniques, we efficiently reduced the GRITv2-S size to 22MB and deployed it on the flagship OnePlus 12 mobile which still surpasses the PISC-fine benchmarks in performance, highlighting the practical viability and improved efficiency of our model on mobile devices.
arxiv情報
著者 | N K Sagar Reddy,Neeraj Kasera,Avinash Thakur |
発行日 | 2024-03-11 16:49:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google