AdaptLIL: A Gaze-Adaptive Visualization for Ontology Mapping

要約

このペーパーでは、主な入力ソースとして視線を使用する、リアルタイムの適応型リンク インデント リスト オントロジー マッピング視覚化である AdaptLIL を紹介します。
このシステムは、リアルタイム システム、ディープ ラーニング、および Web 開発アプリケーションのマルチモーダルな組み合わせを通じて、個々のユーザーの視線のみに基づいてリンク インデント リスト オントロジー視覚化のペアワイズ マッピングへのグラフィカル オーバーレイ (適応) を独自に削減します。

要約(オリジナル)

This paper showcases AdaptLIL, a real-time adaptive link-indented list ontology mapping visualization that uses eye gaze as the primary input source. Through a multimodal combination of real-time systems, deep learning, and web development applications, this system uniquely curtails graphical overlays (adaptations) to pairwise mappings of link-indented list ontology visualizations for individual users based solely on their eye gaze.

arxiv情報

著者 Nicholas Chow,Bo Fu
発行日 2024-11-18 17:47:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.HC, H.5.2 パーマリンク