JaSPICE: Automatic Evaluation Metric Using Predicate-Argument Structures for Image Captioning Models

要約

画像キャプションの研究は、BLEU や METEOR などの自動評価指標に大きく依存しています。
しかし、このような n グラムベースの指標は人間の評価との相関性が低いことがわかっており、英語用の SPICE などの代替指標が提案されています。
ただし、他の言語については同等の指標は確立されていません。
そこで本研究では、シーングラフに基づいて日本語字幕を評価する自動評価指標JaSPICEを提案する。
提案手法は依存関係と述語引数構造からシーングラフを生成し,同義語を用いてグラフを拡張する.
STAIR Captions と PFN-PIC でトレーニングされた 10 個の画像キャプション モデルを使用して実験を実施し、103,170 件の人による評価を含む七味データセットを構築しました。
結果は、人間の評価との相関係数に関して、私たちの指標がベースライン指標を上回っていることを示しました。

要約(オリジナル)

Image captioning studies heavily rely on automatic evaluation metrics such as BLEU and METEOR. However, such n-gram-based metrics have been shown to correlate poorly with human evaluation, leading to the proposal of alternative metrics such as SPICE for English; however, no equivalent metrics have been established for other languages. Therefore, in this study, we propose an automatic evaluation metric called JaSPICE, which evaluates Japanese captions based on scene graphs. The proposed method generates a scene graph from dependencies and the predicate-argument structure, and extends the graph using synonyms. We conducted experiments employing 10 image captioning models trained on STAIR Captions and PFN-PIC and constructed the Shichimi dataset, which contains 103,170 human evaluations. The results showed that our metric outperformed the baseline metrics for the correlation coefficient with the human evaluation.

arxiv情報

著者 Yuiga Wada,Kanta Kaneda,Komei Sugiura
発行日 2023-11-07 18:33:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CV パーマリンク