Blog ENI : Toute la veille numérique !
Accès illimité 24h/24 à tous nos livres & vidéos ! 
Découvrez la Bibliothèque Numérique ENI. Cliquez ici
Accès illimité 24h/24 à tous nos livres & vidéos ! 
Découvrez la Bibliothèque Numérique ENI. Cliquez ici
  1. Livres et vidéos
  2. Installation et configuration d'un serveur internet
  3. Pour aller plus loin
Extrait - Installation et configuration d'un serveur internet (BIND, Apache, Nginx, Dovecot, Postfix...)
Extraits du livre
Installation et configuration d'un serveur internet (BIND, Apache, Nginx, Dovecot, Postfix...)
2 avis
Revenir à la page d'achat du livre

Pour aller plus loin

Introduction

Dans ce chapitre, nous verrons quelques sujets qui ne seront pas abordés en détail mais qui pourraient inciter l’administrateur système studieux à aller un peu plus loin.

chroot et virtualisation

La technique appelée chroot (en anglais : change root, changer racine) permet de changer la racine de l’arborescence de répertoires pour un certain processus.

Pour illustrer cette phrase, voici un exemple : si, pour le daemon processusx, un chroot est fait au répertoire /chroot/processusx, ce dernier sera le répertoire / dans la vue de ce daemon ; en principe, le daemon ne pourra pas sortir de ce répertoire. Cela veut également dire que si le daemon processusx contient un bogue qui permet aux utilisateurs de s’évader de l’application et de gagner l’accès shell, ces utilisateurs ne peuvent pas non plus sortir de ce répertoire.

Un résultat de cette limitation stricte est que toutes les applications et toutes les bibliothèques de logiciels dont dépend le processus concerné doivent être copiées vers le répertoire en question, parce que le processus ne peut pas accéder aux fichiers hors du chroot jail (prison chroot). Le processus dans le chroot jail partage toujours les éléments comme la mémoire, le processeur et le réseau avec le reste du système. Un chroot ne peut être exécuté que par root, et le processus dans le chroot jail ne peut pas être exécuté avec les droits de root.

L’appel chroot n’est qu’une des couches...

Configuration du noyau

Le noyau est le cœur du système d’exploitation, la porte entre les logiciels et le matériel. C’est le noyau qui décide quel processus peut accéder au processeur ou à la mémoire, et à quel moment. À l’aide des pilotes, souvent appelés des modules dans le monde Unix, le noyau facilite également l’accès au matériel comme les claviers, les cartes réseau, les ports USB, etc. Il existe deux manières d’utiliser ces modules : ils sont intégrés dans le noyau ou ils sont compilés séparément et chargés si et quand le noyau en a besoin.

Pour prendre en charge une large palette de matériels, beaucoup de modules sont intégrés dans les noyaux BSD et Linux par défaut, et davantage de modules encore sont livrés avec. Il est donc inévitable qu’il y ait des modules qui ne soient pas utilisés sur le serveur actuel.

Il est possible pour l’administrateur système de fixer quel matériel sera pris en charge par le noyau, et de quelle façon. Évidemment, cela peut faire gagner de la mémoire - si certains modules ne sont pas chargés, le noyau sera moins grand - mais ça peut également être une couche supplémentaire dans la sécurité du serveur. Par exemple...

Équilibrage des charges

Il peut arriver qu’à un moment donné, la charge de travail devienne trop lourde pour un seul serveur. Évidemment, la première solution sera le déploiement d’un matériel plus puissant, la deuxième solution sera la séparation des services : pour commencer, la messagerie et les sites web peuvent être séparés ; ensuite, pour la messagerie, l’IMAP et le SMTP peuvent être pris en charge par différents serveurs, et les services web peuvent être étalés sur des serveurs dédiés pour les fichiers, pour les bases de données et pour le PHP-FPM ; le DNS pourrait être déplacé vers son propre serveur. Mais, à un moment, ça s’arrête : chaque service aura son propre serveur, et chaque serveur prendra en charge son propre service. C’est le moment où l’on commence à réfléchir à la manière de délivrer un seul service par plusieurs serveurs.

L’un des moyens d’y parvenir est l’équilibrage des charges (en anglais : load balancing). Cette technique permet de configurer plusieurs serveurs pour livrer le même service ; ensuite, un répartiteur décide quelles requêtes sont envoyées à quel serveur.

Cette décision peut être...

RAID

Le RAID (en anglais : Redundant Array of Independant Disks, rangée redondante de disques indépendants) désigne un système qui permet de joindre plusieurs disques durs pour créer une seule unité de stockage. Cela peut servir à l’agrandissement de l’espace de stockage, à l’amélioration de la fiabilité du stockage, à l’amélioration de la vitesse de l’écriture ou à une combinaison des trois.

Les différentes façons de fusionner les disques sont appelées des niveaux (en anglais : level). Il existe sept niveaux RAID standards :

RAID-0

Ce niveau, qui est aussi appelé striping (entrelacement de disques), joint plusieurs disques pour créer une seule unité de stockage. Les données sont réparties sur les disques dans la grappe, améliorant la vitesse d’écriture.

Tous les disques de la grappe n’utilisent que l’espace disque disponible sur le disque le plus petit ; une grappe RAID-0 constituée d’un disque de 300 GB et un disque de 500 GB dispose donc de 2 x 300 soit 600 GB d’espace de stockage.

Si un des disques de la grappe est endommagé, les données dans toute la grappe sont perdues.

RAID-1

Ce niveau, qui est également appelé mirroring (disques en miroir), se compose de deux disques...

Facilitation du travail de l’administrateur système

Une bonne partie du travail dans ce livre a été du travail manuel : la base du travail de l’administrateur Unix sera toujours la ligne de commande. Mais évidemment, il existe des projets qui essayent de décharger l’administrateur système ou d’automatiser le travail ou de déplacer une partie du travail vers l’ordinateur de bureau.

1. Panneaux de configuration

Les panneaux de configuration sont surtout développés pour les fournisseurs d’hébergement. Ils peuvent pourtant être déployés partout où des personnes un peu moins expertes techniquement doivent être responsables d’une partie de l’administration des services web.

Un panneau de configuration est une interface web qui permet de déléguer certaines tâches, souvent simples et fréquentes, aux utilisateurs/clients. Il peut s’agir, par exemple, de l’administration des enregistrements DNS, de la configuration du serveur web, de la manipulation des adresses de messagerie, de l’entretien des bases de données, etc. L’administrateur système décide quelles tâches pour quels domaines sont attribuées à quels utilisateurs.

Pour la majorité des panneaux de configuration, il s’agit de produits commerciaux. L’exemple le plus...