Sommaire

Big Data : l’échec des approches classiques

Les approches informatiques classiques peinent à prendre en compte de manière satisfaisante les besoins du Big Data. Plus précisément :

  • Le temps de latence (qui dépend de la vitesse de rotation du disque), le temps de recherche, ou seek time (temps que met la tête pour se déplacer jusqu’à la piste choisie), et le temps de transfert (entre le disque dur et les processeurs) deviennent critiques en environnement Big Data.

  • Les systèmes de gestion de bases de données (SGBD) traditionnels sont conçus pour fonctionner en mode transactionnel, exécutant rapidement des requêtes complexes portant sur un volume "raisonnable" de données : ils ne sont en aucun cas capables, techniquement et/ou financièrement, de traiter de manière séquentielle des volumes de données se chiffrant au minimum en dizaines ou centaines de To.

  • Des systèmes distribués ont bien été développés pour essayer d’accélérer les temps de traitement, mais sans être vraiment convaincants :

  • La bande passante disponible pour le transfert des données entre les disques durs et les processeurs demeure limitée, ce qui crée un "goulot d’étranglement".

  • La programmation d’un système distribué est complexe, car :

  • Il faut synchroniser les échanges de données ...