Cette vidéo de formation s’adresse à tout développeur, administrateur système ou décideur informatique qui souhaite disposer d’une connaissance approfondie de HDFS, le système de fichiers distribué de Hadoop, permettant ainsi de développer une application exploitant ses possibilités de réplication et de très haute disponibilité.

Ainsi, après une introduction rapide aux systèmes de fichiers en général puis de Hadoop en particulier, vous découvrirez les spécificités de l'HDFS, de ses composants et de son fonctionnement.

Vous étudierez ensuite HadoopFS, une couche d'abstraction permettant d'interagir avec des systèmes de fichiers, qu'ils soient locaux ou distribués, tels que HDFS, Amazon S3, Cassandra, ou CephFS. Vous vous familiariserez également avec les interfaces proposées par HadoopFS pour contrôler les systèmes de fichiers compatibles tels que HDFS, que ce soit en ligne de commande, en programmation Java ou via des appels HTTP. Chacune de ces possibilités sera illustrée par des exemples simples et concrets.

Enfin, vous aborderez plus spécifiquement le fonctionnement profond de HDFS et de ses services afin de configurer au mieux la taille des blocs, leur équilibrage sur un cluster ou la mise en très haute disponibilité de ce dernier.

Auteur(s)

Simon GILLIOT
Consultant et formateur indépendant, Simon GILLIOT, est expert Hadoop et HBase et certifié par Cloudera. Il met en place de nombreuses infrastructures et bénéficie d’une riche expérience dans le domaine du Big Data. Il intervient auprès des professionnels pour apporter des solutions efficaces aux besoins de très haute performance, de résilience et de scalabilité. Il a enregistré cette vidéo pour partager son savoir sur cet environnement.
Réf. ENI :