要約
Common Crawl (CC) コーパスは、2008 年以降にキャプチャされた 9.5 ペタバイト以上のデータを含む最大のオープン Web クロール データセットです。このデータセットは、大規模な言語モデルのトレーニングに役立つため、望ましくない (望ましくない) コンテンツについて研究され、抽出されています。
小規模なドメイン固有のデータセットの場合。
ただし、私たちの知る限り、注釈付き地理空間データのソースとして CC を使用することに特化した研究はありません。
このペーパーでは、CC にある GPX ファイルから注釈付きのユーザー生成トラックを抽出する効率的なパイプラインと、その結果として得られる、人が書いた説明と 6 つの最新の CC リリースの MultiLineString ベクトル データの 1,416 のペアを含むマルチモーダル データセットを紹介します。
このデータセットは、人々の屋外活動パターンや人々が屋外体験について話す方法を研究するために使用できるほか、軌跡生成やトラック注釈モデルの開発、または合成的に生成されたルートの代わりに他のさまざまな問題にも使用できます。
再現可能なコードは GitHub で入手できます: https://github.com/ilyankou/cc-gpx
要約(オリジナル)
The Common Crawl (CC) corpus is the largest open web crawl dataset containing 9.5+ petabytes of data captured since 2008. The dataset is instrumental in training large language models, and as such it has been studied for (un)desirable content, and distilled for smaller, domain-specific datasets. However, to our knowledge, no research has been dedicated to using CC as a source of annotated geospatial data. In this paper, we introduce an efficient pipeline to extract annotated user-generated tracks from GPX files found in CC, and the resulting multimodal dataset with 1,416 pairings of human-written descriptions and MultiLineString vector data from the 6 most recent CC releases. The dataset can be used to study people’s outdoor activity patterns, the way people talk about their outdoor experiences, as well as for developing trajectory generation or track annotation models, or for various other problems in place of synthetically generated routes. Our reproducible code is available on GitHub: https://github.com/ilyankou/cc-gpx
arxiv情報
著者 | Ilya Ilyankou,Meihui Wang,Stefano Cavazzi,James Haworth |
発行日 | 2024-08-29 16:57:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google