Sommaire

Le Big DataBig Data

1. Introduction

Durant la période 1950-1990, l’informatique a été utilisée pour effectuer des traitements relativement sophistiqués sur des volumes de données plutôt limités (par exemple la conception assistée par ordinateur (CAO) dans l’automobile et l’aéronautique par exemple). De ce fait, les paramètres critiques en matière de performance informatique ont longtemps été la vitesse des processeurs et la taille de la mémoire vive (RAM - Random Access Memory). Souvent, la vitesse de transfert entre les disques durs et les processeurs passait au second plan. Dans les années 1980-1990, les super-ordinateurs (Cray, Fujitsu, Hitachi…), occupant une pièce entière et refroidis par liquide, ont illustré jusqu’à la caricature les choix techniques mis en œuvre pour répondre à ce paradigme informatique.

Or, depuis le début des années 2000, celui-ci a été bouleversé : de plus en plus d’entreprises ont eu besoin d’effectuer des traitements relativement simples sur des volumes de données extraordinairement importants. En effet, avec le développement de l’informatique connectée et des objets "intelligents", l’informatique tend à envahir tous les aspects de notre vie, et les volumes de données générés par les différents capteurs mis en œuvre, ...