TOPNetwork > ビッグデータの基礎知識(上)

Network

ビッグデータの基礎知識(上)

2018/02/19

Bob Violino InfoWorld

 ビッグデータとは要するに何なのだろうか。単にデータと言った時と、何が違うのだろうか。

ビッグデータの定義

 ビッグデータとは、ざっくり言えば、極めて膨大で複雑なデータの集合だ。従来型のデータ処理ソフトウエアでは、取得・管理・処理に法外な時間がかかってしまうような、おびただしいデータの一群である。

 ビッグデータに含まれるデータは、構造化データ、非構造化データ、半構造化データのいずれもあり得る。それぞれをマイニングすることで、洞察(インサイト)が得られる。

 実際にデータがどの程度の規模になったら「ビッグ」データと呼べるのかは議論の余地があるが、一般には数ペタバイトで、特に大規模なプロジェクトではエクサバイト級になることもある。

 ビッグデータは、3つのVで特徴づけられることが多い。

  • Volume(量):データの量が極端に膨大

  • Variety(種類):データの種類が多彩

  • Velocity(速度):データの処理と分析に速度が必要

 ビッグデータの発生源としては、Webサイト、ソーシャルメディア、パソコンやモバイルのアプリケーション、科学的実験などがある。さらに、次第に増えつつあるのが、IoTの各種センサーや機器が生成するデータだ。

 ビッグデータは、基本的な概念のみで終わりではない。企業がビッグデータを実地で活用してビジネス上の問題を解決するためには、さまざまな構成要素が関係する。ここからは、ビッグデータに適用するアナリティクス、ビッグデータを支えるITインフラ、ビッグデータプロジェクトに必要なテクノロジー、ビッグデータ関連のスキルセット、ビッグデータの用途について見ていこう。

↑ページ先頭へ