Monitoring Viewer Attention During Online Ads

要約

今日、ビデオ広告は多数のオンラインプラットフォームに広がり、世界中の何百万人もの視聴者によって視聴されています。
Big Brandsは、自宅や仕事から広告を視聴するためにオンラインで募集された視聴者の顔の反応を分析することにより、新しい広告の好みと購入の意図を評価します。
このアプローチは自然主義的な反応を捉えていますが、テレビで演奏する映画、同僚の話、モバイル通知など、参加者の環境に固有の気晴らしの影響を受けやすいです。
不注意な参加者は、広告テストプロセスを歪めないように、フラグを立てて排除する必要があります。
このペーパーでは、オンライン広告中に視聴者の注意を監視するためのアーキテクチャを紹介します。
2つの動作分析ツールキットを活用します。
Affdex 2.0およびSmarteye SDKは、表情、ヘッドポーズ、および視線の方向を網羅する低レベルの顔の特徴を抽出します。
次に、これらの機能を組み合わせて、スクリーンプレーンの推定視線、あくび、スピーキングなどを含む高レベルの機能を抽出します。これにより、4つの主要なディストラクタの識別が可能になります。
画面外の視線、眠気、話し、無人の画面。
当社のアーキテクチャは、デバイスの種類(デスクトップまたはモバイル)に従って視線設定を調整します。
最初に特定のディストラクタに注釈が付けられたデータセットでアーキテクチャを検証し、次にさまざまなディストラクタを使用した実際の広告テストデータセットで検証します。
提案されたアーキテクチャは、デスクトップデバイスとモバイルデバイスの両方で気晴らしを検出する有望な結果を示しています。

要約(オリジナル)

Nowadays, video ads spread through numerous online platforms, and are being watched by millions of viewers worldwide. Big brands gauge the liking and purchase intent of their new ads, by analyzing the facial responses of viewers recruited online to watch the ads from home or work. Although this approach captures naturalistic responses, it is susceptible to distractions inherent in the participants’ environments, such as a movie playing on TV, a colleague speaking, or mobile notifications. Inattentive participants should get flagged and eliminated to avoid skewing the ad-testing process. In this paper we introduce an architecture for monitoring viewer attention during online ads. Leveraging two behavior analysis toolkits; AFFDEX 2.0 and SmartEye SDK, we extract low-level facial features encompassing facial expressions, head pose, and gaze direction. These features are then combined to extract high-level features that include estimated gaze on the screen plane, yawning, speaking, etc — this enables the identification of four primary distractors; off-screen gaze, drowsiness, speaking, and unattended screen. Our architecture tailors the gaze settings according to the device type (desktop or mobile). We validate our architecture first on datasets annotated for specific distractors, and then on a real-world ad testing dataset with various distractors. The proposed architecture shows promising results in detecting distraction across both desktop and mobile devices.

arxiv情報

著者 Mina Bishay,Graham Page,Waleed Emad,Mohammad Mavadati
発行日 2025-04-08 17:34:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク