第4回 ビッグデータ

ビッグデータ

今回はソーシャルメディアを活用するための取り組みとしてIT業界で重要なキーワードとなっている「ビッグデータ」について考察します。

ビッグデータとは?

ビッグデータとは、広義には文字通り膨大な量のデータのことを指します。通常は数百テラバイトからペタバイト/ヘクサバイト級のデータのことをいうようです。 厳密な定義としては「大量」でかつ「非構造化データ」でかつ「リアルタイム性」をもつデータのことを指す場合が多いようです。

データウエアハウス

インターネットが浸透する前にも「ビッグデータ」の元となる概念はありました。それは「データウエアハウス」という概念です。「データウエアハウス」は企業活動において発生するあらゆるデータを統合・一元管理して分析できるようにする仕組みです。ここからCRMやSFAといったアプローチが派生することになりました。

従来はこのような大量データはデータウエアハウスと呼ばれるデータベースに格納して、分析して業務に活用することが重要とされてきました。 それまでのデータウエアハウスの入力となるデータは基幹系システムからわたされる売上データやPOSデータ、顧客データ、アンケートデータや市場調査データであることがほとんどでした。

現在はインターネットの進化にともなって、「ウェブ2.0」「ソーシャル」「クラウド」といったユーザーが生成するデータの爆発的な増加やコンテンツのデジタル化、API(アプリケーションインタフェース)等により、デジタルデータが増加してきています。 そしてスマートフォンに代表される新デバイスの登場により、いつでもどこでもデータが発生し、インターネット上に流れるようになってきました。

インターネット上のデータは単純にデータ量が多いだけではなく、非定型でかつリアルタイム性が高いデータが多いのも特徴です。 これらのデータを統合化して活用することができるハードウエア/ソフトウエアの進化と低コスト化から現実に可能になってきました。

データウエアハウス+インターネット上のデータ

そこで、インターネット上で人々が生み出すデータがビジネスや社会に大きくインパクトを与えるようになってきた今、この「大量のデータ」をいかに活用するかが企業の大きなテーマとなってきています。

このような「大量のデータ」を「ビッグデータ」と呼びます。

技術の進化

「ビッグデータ」を活用できるようになってきたのは以下のような技術的な背景も大きな比重を占めています。

  • CPUの高性能化
  • ディスクの大容量化
  • サーバー分散技術の進化
  • 並列処理技術の進化
  • クラウドコンピューティングの普及
  • インターネットバックボーンの高速化

これらの進化がテラバイトから「ビッグデータ」時代を推進するようになっています。

また、「ビッグデータ」を格納し、膨大なデータを処理するための仕組みとして専用ハードウエアによる高速DBMSマシンや、Hadoopに代表される分散アーキクチャによるデータ処理が広がっています。

ソーシャルメディアと「ビッグデータ」

ビッグデータ

ウエブ業界もこれらの技術の進化により、広告やアドネットワーク上のデータ、ソーシャルメディア上のユーザの行動データ、自社ウエブサイトのデータを統合し、ユーザの行動履歴を分析し、レコメンデーションや、ターゲティングに活用したり、ブランドに対するエンゲージメント力の評価、顧客サポートに生かす取り組みがこれから始まっていくものと思われます。

「ビッグデータ」は、IT業界の基幹技術となりつつあり、「ビッグデータ」を活用して商品・ブランディング・ビジネスモデルにどう生かすかが勝敗を決する時代になってきたのです。

次回は「ソーシャルメディアの効果測定」について考察してみたいと思います。