2010 年のキーワードを事例と共に紹介するミニシリーズ。今回は「Analyze」です。Google Analytics のようなツールがあるので、Webサイト制作をしている方であれば馴染みのあるフレーズ。データという単なる数字から意味を見出すのが分析になります。

従来の分析の対象はユーザーを獲得する(サイトに招き入れる)ことでした。ページビューやユニークユーザー数がその価値の指標として価値があったわけですが、徐々に現状は変わりつつあります。ユーザーを獲得するという考えから、ユーザーをどのように保持する(サイトに滞在してもらう)かという考え方に変化しています。ページビューはもう時代遅れだと言ったのは 2006 年頃でしたが、それが具体的になりはじめたのが昨年でした。2011年は定着し始める年と同時にサービスとして提供する企業も増えてくるでしょう。

文脈から人間像をつかみ取る

新規で顧客を手に入れるのは、既に顧客に対してアプローチするより 10 倍のコストがかかるといわれています。既に築き上げたユーザーとの関係をいかに深めるのかがユーザーの保持に繋がります。ユーザーの保持とは言い換えればエンゲージメントのことといえるでしょう。サイトに実際訪れている人々の姿を見極めるためにデータは強力なツールですし、そこから彼等が何を求めているかを見出さなければいけません。この分析の作業はコンピュータだけでは行えません。作り手も一緒になってデータからデザインの決断を見出す必要がでてくるでしょう。

作っている最中では分からないことがあるからこそ、利用者の動向に向き合いながら徐々に改善出来るプロセスが必要になります。参考: 記事ページのアクセス通信簿

今でも滞在時間やリピート率など、ユーザーを保持しているかどうかを確かめる数値は幾つかデータから見つけることが出来ます。今後こうしたデータだけでなく、ユーザーがどのキーワードで誰が書いたものに反応しているのかが分かるデータも必要になるでしょう。コンテンツがより細分化されているだけでなく、次々と情報を消費する今のユーザーの傾向を考えると、よりコンテンツと組み合わさったユーザーのデータも欲しいところです。「コンテンツを繋ぎ合わせる理由とメリット」という記事は、ニュースサイトにフォーカスした内容ですが、他のタイプのサイトにも共通する課題です。メタデータを組み合わせ、利用者がどのような文脈で今そこにいるのかを調べることができれば今まで以上にユーザーの姿は明確になり、それに対して最適なソリューションも提供できるでしょう。

利用者の居る場所、時間、状況によって最適な情報を提供する技術「Context-Aware Computing」は、近年ホットトピックのひとつ。今話題になっている Kinect も Context-Aware Computing の一種です。ハードウェアがどんどん賢くなっていくと同時に、ソフトウェア、そして Web サイト もスマートに進化していきます。その原動力としてより密度の高いデータの取得が不可欠になりますし、それを基にしたデザイン提案もしていきたいですね。

ヒトと向き合うプロセス

データから人間像を見出すだけでなく、ソーシャルメディアを通してより具体的な人間像を見出せるようになりました。ソーシャルメディアに特化したアクセス解析ツールは既に幾つか出て来ており KontagentWebrendsPostRankSkytap など様々です。どれも数多くの機能を提供しており、自分たちのサイトがサイト外でどのような評価を得ているのかを一望することが出来ます。

しかし、現状ある人のソーシャルネットワークからヒト・モノ・コトの関連性を調べるサービスがありません。今ひとつ課題になっているのが、サービスがそれぞれ異なるネットワーク構造をもっていて共通のデータとして総合的に分析が出来ない点です。その回答として Google Social Graph API があるわけですが、Facebook は 独自のプラグイン を用意していますし、今のところシームスレスにすべてが繋がるというわけにはいかなさそうです。ただ、そうなるのも時間の問題でしょう。

手のひらサイズの小さなデバイスが、あなたのことを学習し最適な情報を提供してくれるようになります。参考: How Context-Aware Computing Will Make Gadgets Smarter

これだけデバイスも情報も賢くなるのは便利といえば便利ですがプライバシーの問題も同時に発生します。分析できるデータ量が増え技術も進めば、いずれユーザーの動向を予測し提案するサービスも出てくるはずです。しかし、それが本当に良いのかという疑問が残ります。今 Facebook が目の当たりにしている課題とも重なりますが、利用者が自分にとって都合の良い情報を得るためにどれだけのプライバシーを失っているのか。そしてそれはどこまで許されるものなのかが、こうしたデータ分析の話題と一緒に挙るひとつのトピックです。

こうした技術を通して人間像を組み立てることができるようになったわけですが、当然のことながら生身の人と直接対話できるのであればそれが最も効果があるでしょう。上記のデータの注目の仕方を見ても分かるとおり、データの見方がサイトで起こっている出来事から、利用者の行動へシフトしてきています。つまり、今だからこそ人の行動を観察したり、直接聞いてみることの価値が高いのではないでしょうか。

解析ではなく分析

2年前に「感性によるデザイン データによるデザイン」を執筆したときに、41種類の青を使って最適なリンク色を調べるという Google の当時のデザインアプローチを紹介しました。こうしたアプローチもデータから仮説を立てているわけですが、これは解析であって分析ではありません。

解析はデータを基に本質を明らかにする作業に対して、分析はひとつひとつの要素に一度分解し、構成を明らかにしていく作業です。一見似たような表現ですが少し違います。そこに表れたデータだけでなく、様々な関連要素を吟味してベストと考えられる仮説を練り出すのが分析になります。リンクの色にしても、その色でクリックされた数を比較するだけでなく、表示されたときの検索結果、デバイス、その人の経路など様々な考慮対象があります。Google のことなのでリンクのクリック数だけで決定したわけではないと思いますが、様々な要素から想像を膨らませてデザインすることはデータと感性のよい交わり方ではないでしょうか。

データとデザインは相反するものではなく、今後より密接な関係になるでしょう。実はデザイナーも以前からデータ分析と似たような「駆け引き」をデザインでよくしています。何を削いで何を付けるか、足すことによるインパクトやバランスの変化など、様々な構成要素を吟味しながら組み立てるそのプロセスはデータ分析に似ています。データが見れる環境と関係作り。そしてデータ至上ではなく、データを軸にした分析と中長期を見据えた観察が、利用者を保持できる Web サイトつくりに欠かせないでしょう。