Pour Serveur Cloud et Serveur Dédié, gérés dans le Cloud Panel

Avec un "load balancer" (répartiteur de charge), vous pouvez maximiser le débit de données tout en minimisant la charge du serveur. Les load balancers peuvent évaluer à la fois la charge et les temps de réponse de chaque serveur et répartir le trafic sur plusieurs serveurs en utilisant des règles.

L'utilisation de load balancers est judicieuse si vos applications/sites Web sont basé(e)s sur plusieurs serveurs et si leur disponibilité doit être garantie. Un load balancer est donc notamment conseillé pour les sites Web avec un grand nombre de visiteurs.

Pour savoir si un load balancer est nécessaire, posez-vous les questions suivantes :

  • Avez-vous besoin de plusieurs serveurs pour déployer vos application/sites Web ?

  • Les applications/sites Web doivent-elles/ils être très rapidement accessibles ?

  • Leur volume de trafic est-il élevé ?

Remarque

Vous pouvez également utiliser plusieurs load balancers pour assurer une répartition optimale du trafic.

Avant de pouvoir utiliser un load balancer, vous devez le configurer. Cela nécessite la création de ce que l'on appelle des "listeners". Un listener vérifie les demandes de connexion des clients. Pour la configuration du load balancer, un protocole, le port sur le load balancer (connexion du client au load balancer) et le port sur les serveurs (connexion du load balancer aux serveurs affectés) sont nécessaires. Le listener transmet ensuite les requêtes à un ou plusieurs serveur(s) en utilisant le protocole et le port que vous avez configurés.

Remarque

Les load balancers peuvent également accéder aux ports qui sont bloqués dans la règle de pare-feu d'un serveur surveillé. Par exemple, si vous entrez 0 dans les champs Port sur le load balancer et Port sur les serveurs, le load balancer aura accès à tous les ports bloqués dans le pare-feu.

Protocole TCP

Si vous utilisez le protocole TCP dans la configuration du load balancer, le load balancer transmet les demandes du client aux serveurs sans modifier l'en-tête (header). Lorsqu'un load balancer reçoit les requêtes, il tente d'établir une connexion TCP avec le serveur via le port configuré. Comme les load balancers interceptent et distribuent le trafic entre les clients et vos serveurs, les journaux d'accès de vos serveurs contiennent l'adresse IP du load balancer à la place de l'adresse IP du client original.

Protocole HTTP

Si vous utilisez le protocole HTTP pour les connexions client-load balancer et pour vos connexions load balancer-serveurs affectés, le load balancer analyse les en-têtes de ces requêtes HTTP. Les requêtes HTTP et les réponses HTTP contiennent souvent des champs d'en-tête qui fournissent des informations contextuelles, comme l'en-tête X-Forward-For. L'en-tête X-Forward-For est utilisé pour transmettre l'adresse IP de l'utilisateur lorsqu'il accède à un serveur Web via un serveur proxy ou un load balancer. A cet effet, la configuration de l'application concernée (par exemple Apache) doit être adaptée.

Remarque

Pour des raisons techniques, la transmission de l'IP par le load balancer - et donc la solution décrite ici - ne fonctionne qu'avec des accès non cryptés. Si la demande est faite via HTTPS, aucune entrée d'en-tête ne peut être effectuée car la communication entre le client et le serveur web est entièrement cryptée. Comme aucun certificat ne peut être installé sur le load balancer, il n'est pas possible de décrypter la communication entre le client et le serveur web.

Vous trouverez une vue d'ensemble des load balancers configurés pour vous dans la section Réseau > Load Balancers. Dans cette section, vous trouverez également les informations les plus importantes sur chacun des load balancers. Vous trouverez plus d'informations à ce sujet ici.