BERTopic for Topic Modeling of Hindi Short Texts: A Comparative Study

要約

ヒンディー語などの母国語の短いテキスト データが現代のメディアに登場することが増えているため、そのようなデータに基づいてトピックをモデリングするための堅牢な方法の重要性が高まっています。
この研究では、既存の研究では十分に調査されていない領域であるヒンディー語の短文のモデリングにおける BERTopic のパフォーマンスを調査します。
BERTopic はコンテキスト埋め込みを使用してデータ内の意味関係をキャプチャできるため、特に短くて多様なテキストの場合、従来のモデルよりも効果的になる可能性があります。
6 つの異なるドキュメント埋め込みモデルを使用して BERTopic を評価し、潜在ディリクレ割り当て (LDA)、非負行列分解 (NMF)、潜在意味索引付け (LSI)、トピック モデルの加法正則化などの 8 つの確立されたトピック モデリング手法とそのパフォーマンスを比較します。
(ARTM)、確率的潜在意味分析 (PLSA)、埋め込みトピック モデル (ETM)、複合トピック
モデル (CTM)、および Top2Vec。
モデルは、さまざまなトピック数にわたる一貫性スコアを使用して評価されます。
私たちの結果は、短いヒンディー語テキストから一貫したトピックをキャプチャする点で、BERTopic が他のモデルよりも常に優れていることを明らかにしました。

要約(オリジナル)

As short text data in native languages like Hindi increasingly appear in modern media, robust methods for topic modeling on such data have gained importance. This study investigates the performance of BERTopic in modeling Hindi short texts, an area that has been under-explored in existing research. Using contextual embeddings, BERTopic can capture semantic relationships in data, making it potentially more effective than traditional models, especially for short and diverse texts. We evaluate BERTopic using 6 different document embedding models and compare its performance against 8 established topic modeling techniques, such as Latent Dirichlet Allocation (LDA), Non-negative Matrix Factorization (NMF), Latent Semantic Indexing (LSI), Additive Regularization of Topic Models (ARTM), Probabilistic Latent Semantic Analysis (PLSA), Embedded Topic Model (ETM), Combined Topic Model (CTM), and Top2Vec. The models are assessed using coherence scores across a range of topic counts. Our results reveal that BERTopic consistently outperforms other models in capturing coherent topics from short Hindi texts.

arxiv情報

著者 Atharva Mutsaddi,Anvi Jamkhande,Aryan Thakre,Yashodhara Haribhakta
発行日 2025-01-07 14:53:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.IR, cs.LG, H.2.8 パーマリンク