L’ère du big data Big data

Depuis les débuts de l’histoire de l’informatique, deux capacités ont parallèlement connu une croissance extrêmement forte :

  • La capacité à traiter des données, que l’on peut illustrer en citant la célèbre loi, dérivée des postulats de Gordon Moore sur la complexité des semi-conducteurs, estimant un doublement des capacités de calcul tous les 18 mois.

  • La capacité à stocker des données, depuis l’usage de cartes perforées jusqu’à celui des mémoires flash (stockage sur semi-conducteurs dédiés), en passant par les supports magnétiques (disquette, disque dur) et optiques (CD, DVD).

Cette double croissance, que l’on peut qualifier d’exponentielle, ainsi que l’arrivée à maturité des approches de traitements parallèles (voir ci-dessous), a permis l’avènement dans les années 2000 d’une discipline liée à l’acquisition, au traitement et à la conservation de données : le big data.

Si l’on cite souvent en premier lieu la volumétrie des données comme élément caractéristique du big data, il ne s’agit pas du seul élément qui entre en jeu. Nous reprendrons ici une définition couramment utilisée, celle des 3 V : le big data concerne la manipulation de données...

couv_HSDPGREENITDE.png

Découvrez 

le livre :

Aussi inclus dans nos :

Précédent
Une multiplication des terminaux utilisateurs
Suivant
Intelligence artificielle