視聴者のツイートまで予測!? 広告界を揺るがす「ニューロテクノロジーの衝撃」
2019年12月13日 公開 2019年12月13日 更新
ドラマ視聴者の脳活動データから、視聴率やシーンごとのツイート数を予測
商品価値を評価するのと同様に、言語報告によらない広告効果の予測や評価に脳計測を活用することが注目を集めています。
米国の研究グループが2014年に報告した研究では、10数名が『ウォーキングデッド』というドラマを視聴中の脳活動データ(fMRIと脳波)を用いて、全米の視聴率や広告評価、さらにはシーンごとのツイート数までも予測できることが示されました。
また、テンプル大学とニューヨーク大学が、"Neuro2"というプロジェクトの中で、既存の言語ベースのアンケート評価と、神経科学的手法(fMRI、脳波、アイトラッキング、心拍・呼吸・発汗)のどちらがよりテレビCMの効果(投下量に対する需要増加=広告弾力性)を予測できるかを比較したところ、fMRIで捉えることのできる脳の腹側線条体(側坐核など)の活動(のみ)で、従来の評価を超える精度で広告効果を予測できたことを報告しています。
少数のサンプルの脳情報から大規模な社会集団の広告やコンテンツへの反応を従来の方法を超えて予測するのは、だいぶ可能になってきたといえるでしょう。
テレビCMから受けるなんとなくの「印象」を数値化
広告効果を予測するだけでなく、何がその効果に影響を与えるのかを評価しないと、なかなか改善には至りません。「商品・サービスの価値を視覚・聴覚的な入力刺激として表現し、購買行動へ誘なう」という広告のプロセスは、すべて脳内でおこなわれるものです。この過程を定量的に理解することは、よりよい広告活動を目指すには有益だと思いませんか?
NTTデータの矢野亮さん、情報通信研究機構(NICT)脳情報通信融合研究センター(CiNet)の西本伸志主任研究員、西田知史研究員らとともに私自身がチャレンジしてきた、「脳情報解読技術」を応用した事例を紹介します。
まずは1人あたり約3時間、休み休み動画広告(TVCM)を見てもらいます。その際のfMRIによる脳活動データから、デコーディングモデル(脳活動から認知内容などを推定する数理モデル)を作成し、評価対象の動画広告の印象などを解読します。
モデルの作成にあたっては、まず訓練動画として多様な動画広告に対する脳活動データを記録するとともに、訓練動画のシーンごとに「テキストアノテーション」というラべリング(そのシーンが「女性」なのか「かわいい」のかなど)を施します。
それらの組みあわせを大量に用意することで、機械学習によって「こういう脳活動パターンの時は、こういう知覚内容」と対応させられる数理モデルを作成できます。
こうしたプロセスを経てデコーダー(解読モデル)を得ることで、評価したい動画広告の秒単位の知覚予測を定量的におこなえます。これは、言語のレポートに依存せずに広告の質的な側面を定量化する、貴重な技術となりました。
また、デコーダーを作る前の脳活動データは、私たちが外界(この場合は動画広告)の情報を、網膜と鼓膜を通していかにエンコードしているかという貴重な情報となります。つまり、脳は一種の「特徴抽出機」「エンコーダー」として捉えることもできるわけです。
現在、私たちは、100人弱の被験者の長時間に渡る動画に対する脳活動データを蓄積・モデル化し、「こういう動画を見せると、こういう脳活動が起こる」という脳のエンコードプロセスをシミュレーションできる、一種の仮想脳をつくっています。
このエンコードモデルで脳情報表現を予測し、動画の効果の情報、たとえば動画ごとのクリック率などを目的変数に、回帰(予測)モデルなどを構築することもできます。単純なディープラーニングなどより精度が高くなることがわかっています。
次のページ
モデル化した「仮想視聴者脳」がより効果的な広告案のヒントに