要約
視覚障害のある人々が自然なシーンの複雑さのために周囲の環境を知覚することは困難な作業です。
したがって、彼らの個人的および社会的活動は非常に限られています。
このペーパーでは、ウェアラブルデバイスで直面している現在のシーンをキャプチャし、デバイスを介して分析結果を取得できるようにすることにより、周囲の環境をよりよく理解するのに役立つ大規模なビジョン言語モデル(LVLM)ベースの環境知覚システムを紹介します。
視覚障害のある人々は、画面を長く押してLVLM出力をアクティブにし、画面をタップまたはスワイプすることでセグメンテーションモデルから生じるシーンのオブジェクトのカテゴリを取得し、画面をダブルタップすることで興味のあるオブジェクトの詳細な説明を取得することにより、シーンのグローバルな説明を取得できます。
視覚障害のある人々が世界をより正確に知覚するのを助けるために、このホワイトペーパーでは、RGB画像のセグメンテーション結果を外部知識としてLVLMの入力に組み込むことを提案して、LVLMの幻覚を減らします。
教皇、MME、およびLlava-QA90に関する技術実験は、Qwen-VL-chatと比較してシステムがシーンのより正確な説明を提供できることを示しています。探索的実験は、システムが周囲の環境を効果的に知覚する視覚障害者に役立つことを示しています。
要約(オリジナル)
It is a challenging task for visually impaired people to perceive their surrounding environment due to the complexity of the natural scenes. Their personal and social activities are thus highly limited. This paper introduces a Large Vision-Language Model(LVLM) based environment perception system which helps them to better understand the surrounding environment, by capturing the current scene they face with a wearable device, and then letting them retrieve the analysis results through the device. The visually impaired people could acquire a global description of the scene by long pressing the screen to activate the LVLM output, retrieve the categories of the objects in the scene resulting from a segmentation model by tapping or swiping the screen, and get a detailed description of the objects they are interested in by double-tapping the screen. To help visually impaired people more accurately perceive the world, this paper proposes incorporating the segmentation result of the RGB image as external knowledge into the input of LVLM to reduce the LVLM’s hallucination. Technical experiments on POPE, MME and LLaVA-QA90 show that the system could provide a more accurate description of the scene compared to Qwen-VL-Chat, exploratory experiments show that the system helps visually impaired people to perceive the surrounding environment effectively.
arxiv情報
著者 | Zezhou Chen,Zhaoxiang Liu,Kai Wang,Kohou Wang,Shiguo Lian |
発行日 | 2025-04-25 02:46:22+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google