De nos jours, le Big data et le cloud computing sont sur toutes les lèvres et s’ac­com­pag­nent de mots tendance comme industrie 4.0, Internet des objets ou conduite autonome. Ces tech­no­lo­gies re­quiè­rent la mise en réseau d’un très grand nombre de capteurs, d’appareils et de machines. Cela génère une quantité de données phé­no­mé­nale qui devra être traitée en temps réel et se traduire par des actions im­mé­diates sur le terrain. Que ce soit dans un cadre in­dus­triel ou privé, dans le domaine scien­ti­fique ou dans la recherche, cette quantité de données croît de façon ex­po­nen­tielle. À l’heure actuelle, chaque minute voit la création d’env. 220 000 posts Instagram, 280 000 tweets et 205 millions d’Emails.

Avec de tels chiffres, il n’est pas toujours aisé de prévoir quelles capacités seront né­ces­saires à tel ou tel moment. Afin de pouvoir réagir à des exigences évoluant aussi ra­pi­de­ment, les capacités sur les serveurs doivent être évo­lu­tives. Dans notre guide sur l’hy­pers­cale computing, vous dé­cou­vri­rez quelles struc­tures physiques sont né­ces­saires pour y parvenir et comment faire pour qu’elles s’ar­ti­cu­lent de la meilleure façon possible. Avec ces con­nais­sances, vous pourrez opter pour les solutions de serveur répondant le mieux à vos exigences.

Compute Engine
La solution IaaS idéale pour gérer vos charges de travail
  • vCPU aux coûts avan­ta­geux et cœurs dédiés per­for­mants
  • Sans en­ga­ge­ment pour plus de flexi­bi­lité
  • As­sis­tance par des experts 24h/24 et 7j/7 incluse

Qu’est-ce que l’hy­pers­cale ?

Le terme « hy­pers­cale » peut se traduire en français par « hy­per­con­ver­gence ». En in­for­ma­tique, cette notion est utilisée pour désigner une certaine forme d’or­ga­ni­sa­tion de serveurs.

Dé­fi­ni­tion

Le terme « hy­pers­cale » décrit des systèmes de cloud computing évolutifs dans lesquels un très grand nombre de serveurs sont reliés ensemble au sein d’un réseau. Le nombre de serveurs utilisés peut être revu à la hausse ou à la baisse en fonction des besoins. Un réseau de ce type peut traiter un nombre in­croyable d’accès, mais aussi mettre à dis­po­si­tion des capacités plus res­treintes en cas d’uti­li­sa­tion plus faible.

L’évo­lu­ti­vité est l’ex­pres­sion qui traduit la capacité d’un réseau à s’adapter à des exigences de per­for­mance chan­geantes. Les serveurs hy­pers­cale sont des systèmes petits et simples conçus pré­ci­sé­ment pour atteindre un but défini. Pour parvenir à cette évo­lu­ti­vité, les serveurs sont mis en réseau de façon ho­ri­zon­tale. Le terme « ho­ri­zon­tal » décrit ici le fait que d’autres capacités de serveur peuvent être ajoutées afin d’augmenter la per­for­mance d’un système in­for­ma­tique. Dans la lit­té­ra­ture in­ter­na­tio­nale, on utilise également le terme anglais « scale-out » pour traduire ce même phénomène.

L’approche inverse dite d’évo­lu­ti­vité verticale (scale-up) décrit l’expansion d’un système local existant. Dans ce cadre, un système in­for­ma­tique existant est équipé avec un matériel supérieur, c’est-à-dire une plus grande mémoire prin­ci­pale, un pro­ces­seur ou une carte graphique plus rapides ou des disques durs plus per­for­mants. Dans la pratique, avant de procéder à une évo­lu­ti­vité ho­ri­zon­tale, la tech­no­lo­gie est souvent mise à niveau sur site jusqu’aux limites de ce qui est tech­ni­que­ment possible ou ac­cep­table en termes de rapport coûts/matériel. Une fois ce stade atteint, le passage à l’hy­pers­cale est gé­né­ra­le­ment iné­vi­table.

Comment fonc­tionne l’hy­pers­cale ?

L’hy­pers­cale computing consiste à mettre en réseau des serveurs simples de façon ho­ri­zon­tale. Dans ce contexte, le mot « simple » ne signifie pas « primitif », mais « fa­ci­le­ment com­bi­nable » avec d’autres matériels. Il existe donc peu de con­ven­tions de base, comme des pro­to­coles réseau ce qui permet une com­mu­ni­ca­tion facile à gérer entre les serveurs.

L’« adressage » des serveurs né­ces­saires à un moment donné s’effectue avec un or­di­na­teur, appelé load balancer, qui gère les requêtes entrantes et les répartit entre les capacités dis­po­nibles. Dans ce cadre, la charge des serveurs résultant des volumes de données à traiter est contrôlée en per­ma­nence et d’autres serveurs sont activés en cas de besoin ou dé­sac­ti­vés si le nombre de requêtes baisse.

Dif­fé­rentes analyses ont montré que seuls 25 à 30 % des données présentes dans les en­tre­prises étaient ac­ti­ve­ment utilisées. Parmi les données non utilisées, on trouve notamment les copies de sécurité, les données clients et les données de res­tau­ra­tion. En l’absence de système d’or­ga­ni­sa­tion rigoureux, ces données sont dif­fi­ciles à localiser lorsqu’elles sont né­ces­saires. Dans le cas de sau­ve­gardes, cette recherche peut parfois demander des jours. L’hy­pers­cale computing simplifie tout cela. Avec cette approche, il n’existe qu’un seul point de contact entre l’in­té­gra­lité du matériel pour le computing, la mémoire et les réseaux d’une part et les sau­ve­gardes de données, les systèmes d’ex­ploi­ta­tion, et les autres logiciels né­ces­saires d’autre part. Associer le matériel à des dis­po­si­tifs de soutien permet d’étendre l’en­vi­ron­ne­ment de computing ac­tuel­le­ment né­ces­saire à plusieurs milliers de serveurs.

Cette méthode permet de limiter les copies de données ex­ces­sives et de sim­pli­fier l’ap­pli­ca­tion des di­rec­tives et des contrôles de sécurité dans les en­tre­prises ce qui, à terme, baisse également les coûts de personnel et de gestion.

Avantages et in­con­vé­nients de l’hy­pers­cale computing

La pos­si­bi­lité d’étendre ou de réduire en toute sim­pli­cité les capacités de serveurs présente à la fois des avantages et des in­con­vé­nients.

Les avantages

  • Cette évo­lu­ti­vité ne connaît aucune limite et permet aux en­tre­prises de rester flexibles face à de futurs volumes de données. Permet une adap­ta­tion au marché rapide et éco­no­mique.
  • Les en­tre­prises doivent disposer de stra­té­gies à long terme pour le dé­ve­lop­pe­ment de leur propre in­fras­truc­ture in­for­ma­tique.
  • Les four­nis­seurs d’hy­pers­cale computing ga­ran­tis­sent une sécurité élevée contre les pannes grâce à des solutions re­don­dantes.
  • Évite les dé­pen­dances grâce à l’uti­li­sa­tion de plusieurs four­nis­seurs en parallèle.
  • Des coûts clai­re­ment cal­cu­lables et une ren­ta­bi­lité élevée fa­vo­ri­sent la réa­li­sa­tion des objectifs de l’en­tre­prise de façon optimale.

Les in­con­vé­nients

  • Les données arrivent de manière in­con­trô­lée.
  • Les capacités de mémoire/serveur nou­vel­le­ment ajoutées peuvent également être source d’erreur.
  • Les exigences en matière de gestion interne et de res­pon­sa­bi­lité des employés sont plus im­por­tantes – sur le long terme, c’est toutefois un avantage.
  • Les uti­li­sa­teurs de­vien­nent dé­pen­dants du modèle de prix du four­nis­seur d’hy­pers­cale.
  • Chaque four­nis­seur a sa propre interface d’uti­li­sa­tion.

Afin de pouvoir mieux peser le pour et le contre, les en­tre­prises peuvent emprunter une voie in­ter­mé­diaire et stocker les sau­ve­gardes im­por­tantes ou les données rarement utilisées sur un Cloud. De cette façon, ces données n’oc­cu­pe­ront pas les capacités de serveur d’un centre de calcul interne. On peut citer comme exemple les données per­son­nelles des uti­li­sa­teurs d’une boutique en ligne devant être res­ti­tuées ou sup­pri­mées à la demande de l’uti­li­sa­teur ou les données d’en­tre­prise con­cer­nées par une obli­ga­tion de con­ser­va­tion.

Qu’est-ce qu’un « hy­pers­ca­ler » ?

On entend par « hy­pers­ca­ler » l’ex­ploi­tant d’un centre de calcul proposant des services de Cloud computing évolutifs. Amazon est la première en­tre­prise à avoir occupé ce marché en 2006 avec les Amazon Web Services (AWS). Il s’agit d’une filiale de la mul­ti­na­tio­nale per­met­tant à Amazon de mieux répartir la charge de données entre les dif­fé­rents centres de calcul de l’en­tre­prise. AWS propose aujourd’hui de très nombreux services spé­ci­fiques. Sa part de marché est d’environ 40 pour cent. Les deux autres grands acteurs de ce marché sont Microsoft avec le service Azure (2010) et la Google Cloud Platform (2010). L’en­tre­prise IBM est elle aussi un grand four­nis­seur d’hy­pers­cale computing. Ces pos­si­bi­li­tés tech­niques sont également proposées en France à travers les centres de calcul de par­te­naires autorisés. Depuis l’entrée en vigueur du nouveau règlement général sur la pro­tec­tion des données per­son­nelles, il s’agit d’une con­si­dé­ra­tion im­por­tante pour de nom­breuses en­tre­prises.

Remarque

Avec son Cloud, IONOS présente une solution al­ter­na­tive aux grands hy­pers­ca­lers amé­ri­cains. L’accent est ici mis sur l’in­fras­truc­ture en tant que service (IaaS), avec des offres telles que le compute engine, le Managed Ku­ber­netes, le stockage d’objets S3 ou encore un Cloud privé.

Aller au menu principal