Qu’est-ce que la virtualisation ?

La virtualisation du matériel, des logiciels, de la mémoire ou des composants réseau permet d’abstraire les ressources informatiques physiques, ce qui optimise leur utilisation finale. Découvrez-en plus dans la suite de cet article.

L'alternative de virtualisation

Migrer vers le Cloud IONOS en toute simplicité. Jusqu'à 5 000 € d'aide à la migration. Accompagnement par des experts IONOS inclus.

Sécurité maximale
Excellent prix-performance
Migration par lift-and-shift

Qu’est-ce que la virtualisation ?

La virtualisation est une abstraction des ressources informatiques physiques afin de les répartir de manière flexible et à la demande, permettant ainsi une utilisation optimale des ressources. Les composants matériels et logiciels peuvent ainsi être abstraits. Un composant informatique créé dans le cadre de la virtualisation est appelé « composant virtuel » ou « logique » et peut être utilisé de la même manière que son équivalent physique.

L’avantage central de la virtualisation est la couche d’abstraction entre la ressource physique et l’image virtuelle. C’est la base de divers services Cloud, qui prennent de plus en plus d’importance dans la vie quotidienne des entreprises. La virtualisation doit être distinguée des concepts (en partie très similaires) de simulation et d’émulation.

Virtualisation : ni simulation ni émulation

En abordant le sujet de la virtualisation, on tombe inévitablement sur les termes « simulation » et « émulation », qui sont souvent utilisés comme synonymes, mais qui pourtant diffèrent techniquement à la fois l’un de l’autre et du concept de virtualisation.

  • Simulation : cela se réfère à la reproduction complète d’un système à l’aide d’un logiciel. « Complète » car non seulement les fonctions sont imitées en interaction avec d’autres systèmes, mais tous les composants du système et leur logique interne sont également simulés. Les simulateurs sont utilisés pour compiler des programmes qui ont été développés pour un certain système à des fins d’analyse sur un autre système.
  • Émulation : alors que la simulation vise à répliquer les systèmes, l’émulation fournit les fonctions des composants matériels ou logiciels, et non leur logique interne. Le but de l’émulation est d’obtenir les mêmes résultats avec le système simulé qu’avec son pendant réel. Contrairement à un simulateur, un émulateur peut donc remplacer complètement le système simulé.

Les simulateurs et émulateurs sont utilisés en pratique dans trois scénarios :

  • Un environnement matériel est répliqué pour qu’un système d’exploitation puisse fonctionner alors qu’il a été développé pour une plateforme processeur différente.
  • Un système d’exploitation est répliqué pour permettre l’exécution d’applications qui ont en fait été écrites pour d’autres systèmes.
  • Un environnement matériel pour des logiciels obsolètes doit être répliqué, car les composants d’origine ne sont plus disponibles.

Les solutions logicielles qui ne fournissent qu’une couche de compatibilité pour combler les problèmes entre les différents composants matériels et logiciels doivent être distinguées des émulateurs et simulateurs. Ce concept ne simule pas l’ensemble du système, mais seulement une partie, par exemple, une interface. Des exemples connus sont Wine (acronyme pour Wine Is Not an Emulator) et Cygwin.

Comment fonctionne la virtualisation ?

La virtualisation se rapproche de la simulation et de l’émulation, mais elle a un but différent. Les simulateurs et les émulateurs mettent en œuvre un modèle de système informatique à l’aide d’un logiciel, qui sert à surmonter les incompatibilités. Dans l’idéal, la virtualisation devrait cependant être conçue de manière à nécessiter le moins de simulation ou d’émulation possible. En effet, les technologies devraient simplement établir une couche d’abstraction qui permet de fournir des ressources informatiques quel que soit leur fondement physique.

Prenons un exemple : pour exécuter une ou plusieurs versions virtuelles de Windows 10 sur son ordinateur Windows 10 à des fins de test, on peut utiliser un logiciel de virtualisation. Cependant, si le même utilisateur souhaite exécuter deux versions virtuelles d’Ubuntu sur le même ordinateur, il a besoin d’un logiciel de virtualisation capable de combler les incompatibilités entre le système Windows sous-jacent et le système Linux mis dessus par émulation.

De nombreuses solutions logicielles utilisées dans le cadre de la virtualisation contiennent des émulateurs. Dans la pratique, les deux concepts se recoupent donc souvent.

Les formes de virtualisation

Dans le paysage informatique moderne, on trouve diverses formes de virtualisation qui se réfèrent à l’abstraction des ressources informatiques telles que les logiciels, la mémoire, les données ou les composants réseau. Une distinction est donc faite entre :

  • La virtualisation matérielle
  • La virtualisation logicielle
  • La virtualisation de la mémoire
  • La virtualisation des données
  • La virtualisation du réseau

La virtualisation matérielle

Le terme de « virtualisation hardware » (matérielle) désigne les technologies qui permettent de fournir des composants matériels à l’aide de logiciels, quelle que soit leur base physique. L’exemple classique de la virtualisation matérielle est la machine virtuelle (abrégé VM en anglais).

Une VM est une machine virtuelle qui se comporte pour l’utilisateur final comme une machine physique, y compris avec un matériel et un système d’exploitation. Avec la virtualisation matérielle, la couche d’abstraction entre la base physique et le système virtuel est créée par différents types d’hyperviseurs.

Note

Un hyperviseur (aussi appelé Virtual Machine Monitor, soit VMM) est un logiciel qui permet à plusieurs systèmes invités de fonctionner sur un seul système hôte.

Les hyperviseurs gèrent les ressources matérielles fournies par le système hôte, telles que le CPU, la RAM, l’espace disque et les périphériques, et les répartissent entre plusieurs systèmes invités. Cela peut se faire techniquement par virtualisation complète ou par paravirtualisation.

  • La virtualisation complète : l’hyperviseur émule un environnement matériel complet sur chaque machine virtuelle. Chaque VM dispose donc de son propre contingent de ressources hardwares virtuelles donné par l’hyperviseur et peut exécuter des applications sur cette base. Le matériel physique du système hôte, en revanche, reste caché du système d’exploitation invité. Cette approche permet l’exploitation de systèmes invités non modifiés. Les solutions logicielles populaires pour la virtualisation complète sont Oracle VM VirtualBox, Parallels Workstation, VMware Workstation, Microsoft Hyper-V et Microsoft Virtual Server.
  • La paravirtualisation : alors que la virtualisation complète fournit un environnement matériel virtuel distinct pour chaque machine virtuelle, avec la paravirtualisation, l’hyperviseur met simplement à disposition une interface de programmation (API) qui permet aux systèmes d’exploitation invités d’accéder directement au matériel physique du système hôte. La paravirtualisation offre donc un avantage de performance par rapport à la virtualisation complète. Cependant, il faut pour cela au préalable que le noyau du système d’exploitation invité ait été porté sur l’API. Ainsi, seuls les systèmes invités modifiés peuvent être paravirtualisés.

Pour l’utilisateur final, une machine virtuelle est indiscernable d’une machine physique. La virtualisation matérielle est donc un choix pertinent lorsqu’il s’agit de fournir divers serveurs virtuels à différents utilisateurs sur une plateforme informatique puissante, constituant ainsi la base du modèle largement répandu d’hébergement mutualisé.

Note

Avec l’hébergement mutualisé un fournisseur d’hébergement exploite et maintient une machine virtuelle dans un data center optimisé et met à disposition de ses clients des ressources matérielles virtualisées en tant que systèmes invités fermés.

Un autre domaine d’application de la virtualisation matérielle est la consolidation des serveurs dans l’environnement de l’entreprise. Cela présente trois avantages majeurs :

  • L’amélioration de l’utilisation des processeurs serveurs
  • Une distribution efficace des supports de stockage
  • Une consommation d’énergie réduite pour l’exploitation et le refroidissement

La virtualisation matérielle est considérée comme un concept de virtualisation relativement sûr. Chaque système invité fonctionne de manière isolée dans un environnement matériel virtuel. Si l’un des systèmes invités est infiltré par un hacker ou est affecté par un malware, cela n’a en principe aucun effet sur les autres systèmes invités du même système hôte.

Avantages et inconvénients d’une virtualisation matérielle :

Avantages Inconvénients
✓ Dans le cadre de la consolidation des serveurs, les ressources matérielles peuvent être allouées dynamiquement et utilisées plus efficacement. ✗ La réplication d’un environnement matériel avec le système d’exploitation augmente l’overhead.
✓ Le matériel informatique consolidé peut être plus économe en énergie que des ordinateurs séparés. ✗ Les performances d’une machine virtuelle peuvent être affectées par d’autres machines virtuelles sur le même système hôte.
✓ Les machines virtuelles offrent un degré d’isolation relativement élevé et donc une sécurité pour isoler la charge de travail.
Note

L’overhead désigne les ressources supplémentaires nécessaires pour gérer et soutenir l’environnement virtuel.

La virtualisation logicielle

Si des composants logiciels sont virtualisés au lieu de composants matériels, on parle de « virtualisation software » (logicielle). Les approches communes de ce concept de virtualisation sont :

  • La virtualisation des applications
  • La virtualisation de postes de travail
  • La virtualisation sur les systèmes d’exploitation

La virtualisation des applications

La virtualisation des applications est l’abstraction d’applications individuelles du système d’exploitation sous-jacent. Les systèmes de virtualisation d’applications permettent aux programmes de s’exécuter dans des environnements d’exécution isolés et de se répartir sur plusieurs systèmes sans avoir à modifier les systèmes d’exploitation locaux, les systèmes de fichiers ou le registre.

La virtualisation des applications est adaptée à une utilisation locale ; par exemple, pour protéger le système d’exploitation sous-jacent contre d’éventuels codes malveillants. Autrement, les applications virtualisées peuvent être déployées sur un serveur pour différents clients réseau. Les utilisateurs finaux accèdent dans ce cas par exemple aux applications virtualisées via un streaming d’applications. L’encapsulation des applications, y compris l’environnement d’exécution, permet également de copier des programmes sur des supports de stockage portables tels que des clés USB et de les exécuter directement sur ceux-ci.

Le but de la virtualisation des applications est de découpler les programmes du système d’exploitation sous-jacent afin qu’ils puissent être facilement portés et gérés de manière centralisée. Dans un contexte d’entreprise, le concept convient par exemple pour la mise à disposition d’applications Office.

Avantages et inconvénients de la virtualisation des applications :

Avantages Inconvénients
✓ Les logiciels d’application peuvent être déployés, gérés et maintenus de manière centralisée. ✗ Les applications qui sont intégrées étroitement au système d’exploitation ou qui nécessitent l’accès à des pilotes périphériques spécifiques ne peuvent pas être virtualisées.
✓ En isolant l’application, le système sous-jacent est protégé des codes malveillants. ✗ La virtualisation des applications soulève des questions de licence.
✓ Le logiciel peut être retiré du système sans restes.

La virtualisation de postes de travail

La virtualisation des postes de travail est un concept dans lequel les environnements de bureau sont fournis de manière centralisée et accessibles via un réseau. Cette approche s’applique principalement dans un contexte d’entreprises.

La virtualisation des postes de travail est basée sur une structure client-serveur. Le transfert de données entre le serveur et le client s’effectue via des protocoles d’affichage à distance. Selon l’endroit où se trouve la puissance de calcul qui met à disposition le poste de travail virtuel, on fait une distinction entre les approches basées sur l’hôte et celles basées sur le client.

  • Virtualisation de postes de travail basée sur l’hôte : la virtualisation de bureau basée sur l’hôte comprend toutes les approches qui exécutent des postes de travail virtuels directement sur le serveur. La puissance de calcul complète qui fournit l’environnement de bureau et les applications en cours d’exécution dans ce type de virtualisation de postes de travail est donnée par le matériel serveur. Les utilisateurs accèdent aux postes de travail virtuels basés sur l’hôte à partir de n’importe quel périphérique client sur le réseau. Une virtualisation de poste de travail basée sur l’hôte peut être mise en œuvre par les approches suivantes :
  • Machine virtuelle basée hôte : avec cette approche de virtualisation, chaque utilisateur se connecte à sa propre machine virtuelle sur le serveur via un périphérique client. Une distinction est faite entre la « virtualisation persistante » des postes de travail, où un utilisateur se connecte à la même machine virtuelle à chaque session, et les approches « non persistantes », où des machines virtuelles sont affectées de manière aléatoire.
  • Service terminal : si le client est utilisé uniquement comme périphérique d’affichage pour les environnements de bureau hébergés de manière centralisée, on parle de services de terminal ou de virtualisation de présentation. Ils sont alors fournis par le serveur terminal.
  • Serveur lame : si les utilisateurs finaux doivent accéder à distance à des machines physiques séparées, cela se fait généralement en utilisant un serveur lame (ou blade server en anglais). Il s’agit d’un serveur modulaire ou d’un boîtier de serveur qui contient plusieurs ordinateurs monocartes, appelés lames.
  • Virtualisation de poste de travail basée sur le client : si la virtualisation de poste de travail est basée sur le client, les ressources nécessaires au fonctionnement de l’environnement de poste de travail doivent être fournies par le périphérique client.
  • Machines virtuelles basées sur le client : avec cette approche, l’environnement de bureau fonctionne dans une machine virtuelle sur le périphérique client. En règle générale, on utilise un hyperviseur.
  • OS streaming : un streaming d’OS exécute le système d’exploitation de l’environnement de bureau sur le matériel local. Seul le processus de démarrage se fait à distance via une image serveur.

Avantages et inconvénients de la virtualisation des postes de travail :

Avantages Inconvénients
✓ La virtualisation des postes de travail permet l’administration centralisée des environnements de bureau. ✗ La virtualisation des postes de travail est principalement adaptée aux infrastructures homogènes.
✓ Les utilisateurs peuvent accéder à leur bureau virtuel à partir d’une multitude de périphériques. ✗ Certaines approches nécessitent une connexion constante au réseau.
✓ La virtualisation des postes de travail permet des sauvegardes centralisées. ✗ Nécessite des exigences élevées en matière de performances des serveurs, de capacité de stockage et de bande passante réseau.
✓ Les clients légers permettent de réduire les coûts d’acquisition et d’exploitation.

La virtualisation au niveau du système d’exploitation

Les concepts de virtualisation au niveau du système d’exploitation s’appuient sur les fonctions natives du noyau des systèmes d’exploitation unix, qui permettent d’exécuter plusieurs instances d’espace utilisateur isolées en parallèle. Contrairement à la virtualisation matérielle, aucun système invité complet, y compris le noyau, n’est reproduit. Au niveau du système d’exploitation, les applications virtualisées partagent le noyau du système hôte.

Note

Pour des raisons de sécurité, les systèmes d’exploitation modernes distinguent deux zones de mémoire virtuelle : l’espace noyau et l’espace utilisateur. Alors que les processus qui servent à faire fonctionner le noyau et les autres composants de base sont exécutés dans l’espace noyau, l’espace utilisateur est disponible pour les applications utilisateur. Sur les systèmes d’exploitation unix, il est possible d’exécuter plusieurs instances d’espace utilisateur virtuel en parallèle. C’est la base de la virtualisation au niveau du système d’exploitation.

Chaque instance d’espace utilisateur représente un environnement d’exécution virtuel autonome appelé « container », « partition », « moteur de virtualisation » ou « jail », selon la technologie utilisée. Un nouvel élan a été donné à la virtualisation basée sur les systèmes d’exploitation grâce notamment à des plateformes de conteneurs telles que Docker. Aujourd’hui, les utilisateurs de rtk, OpenVZ/Virtuozzo et runC peuvent disposer de bonnes alternatives au leader du marché Docker.

Les instances d’espace utilisateur sont virtualisées à l’aide de mécanismes chroot natifs fournis par tous les systèmes d’exploitation unix. Chroot (abréviation de « change root ») est une commande système qui permet de changer le répertoire racine d’un processus en cours. Les processus qui sont déplacés dans un répertoire racine virtuel peuvent accéder aux fichiers de ce répertoire si l’implémentation est correcte. Cependant, le chroot seul ne suffit pas. Bien que la commande système offre des capacités de virtualisation de base, il n’a jamais été conçu comme un concept de protection de processus. Les technologies de conteneurs combinent donc chroot avec d’autres fonctions natives du noyau comme Cgroups et Namespaces pour fournir aux processus un environnement d’exécution isolé avec un accès limité aux ressources matérielles. On parle de processus conteneurisés.

  • Cgroups : il s’agit de groupes de contrôle de gestion des ressources qui permettent de limiter l’accès des processus aux ressources matérielles.
  • Namespaces : il s’agit d’espaces de noms pour l’identification des systèmes et des processus ainsi que pour les communications interprocess et pour les ressources réseau. Les espaces de noms peuvent être utilisés pour restreindre un processus et ses processus fils à une section souhaitée du système sous-jacent.

Un conteneur logiciel contient une application comprenant toutes les dépendances telles que les bibliothèques, les programmes d’aide ou les fichiers de configuration. Les applications conteneurisées peuvent être transférées d’un système à l’autre sans configuration ultérieure. L’approche conteneur montre donc des points forts dans le déploiement d’applications en réseau.

Si les conteneurs sont utilisés dans des architectures microservices, les utilisateurs bénéficient également d’une grande évolutivité.

Avantages et inconvénients de la virtualisation au niveau du système d’exploitation :

Avantages Inconvénients
✓ Les concepts de virtualisation au niveau du système d’exploitation se passent d’hyperviseur, ce qui permet une perte de performance minimale due à la virtualisation. ✗ La virtualisation au niveau du système d’exploitation est basée sur des architectures de microservices. Lors de l’exploitation d’applications structurées selon une architecture monolithe, la technologie des conteneurs perd des avantages (par exemple en termes d’évolutivité).
✓ Si les conteneurs sont utilisés pour des applications basées sur une combinaison de différents microservices, les utilisateurs bénéficient d’une grande évolutivité. ✗ Contrairement aux machines virtuelles, les conteneurs fonctionnent directement dans le noyau du système d’exploitation hôte. Cela suppose certaines conditions techniques. Ces dépendances limitent la portabilité des conteneurs : par exemple, les conteneurs Linux ne peuvent pas fonctionner sur les systèmes Windows sans émulation.
✓ Les conteneurs sont immédiatement prêts à l’emploi sans processus d’installation complexes. ✗ Les conteneurs permettent beaucoup moins d’isolation que les machines virtuelles. La virtualisation des conteneurs n’est donc pas adaptée à la mise en œuvre de concepts de sécurité.
✓ Le logiciel peut être enlevé sans restes.
✓ Un grand nombre de conteneurs préfabriqués sont disponibles pour les plateformes les plus importantes sur Internet.

La virtualisation du stockage

La virtualisation du stockage est un concept qui vise à cartographier virtuellement les différentes ressources de stockage d’une entreprise telles que les disques durs, la mémoire flash ou les lecteurs de bandes et de les rendre disponibles comme un pool de stockage lié.

La mémoire virtuelle peut également être divisée et allouée à des applications sélectionnées. Malgré la virtualisation, les utilisateurs peuvent accéder aux données stockées via les mêmes chemins de fichier, même si l’emplacement physique change. Ceci est assuré par une table d’affectation gérée par le logiciel de virtualisation. On parle alors d’un mappage des supports de stockage physiques sur un disque logique (aussi appelé volumes).

Dans un contexte d’entreprise, la virtualisation du stockage est généralement mise en œuvre par blocs. Les données sont alors divisées en blocs de taille égale et une adresse unique est attribuée à chaque bloc de données. Cette dernière est stockée par le logiciel de virtualisation dans la table de mappage centrale. Dans la pratique, la virtualisation basée sur les blocs peut être mise en œuvre sur la base d’un hôte, d’un périphérique ou d’un réseau.

La virtualisation des ressources de stockage basée sur l’hôte est une approche généralement utilisée en combinaison avec les machines virtuelles. Dans ce concept, un système hôte présente des lecteurs virtuels à un ou plusieurs systèmes invités à un niveau abstrait (voir « La virtualisation matérielle » ci-dessus). Le matériel est accessible par les pilotes de périphériques du système hôte.

La virtualisation du stockage basée sur l’hôte ne nécessite aucun matériel additionnel, prend en charge n’importe quel périphérique de stockage et peut être mise en œuvre sans trop d’effort. De plus, l’approche offre les meilleures performances par rapport à d’autres concepts, car chaque périphérique de stockage est traité immédiatement ; le temps de latence est donc réduit. Cependant, les utilisateurs doivent accepter que la virtualisation du stockage (et donc la capacité d’optimiser l’utilisation du stockage) est limitée par l’hôte.

Les matrices de disques (dispositifs de stockage de masse qui peuvent être utilisés pour l’approvisionnement des disques durs dans un réseau) offrent également la possibilité de virtualiser les ressources de stockage. Des schémas RAID sont alors utilisés (abréviation de Redundant Array of Independent Disks). Il s’agit d’un concept de stockage de données dans lequel plusieurs disques physiques sont combinés pour former une plateforme de stockage virtuel.

Conseil

Pour plus d’informations sur les matrices de disques et les schémas RAID, consultez notre article sur le Network Attached Storage (NAS).

La virtualisation du stockage basée sur les périphériques offre également de bonnes performances grâce à une faible latence des I/O. En dehors des matrices de disques à fusionner, aucun autre composant matériel n’est nécessaire.

La virtualisation du stockage en réseau est particulièrement adaptée lorsque les ressources de stockage de systèmes hétérogènes doivent être combinées dans un pool de stockage virtuel. Dans un contexte d’entreprise, cette approche est généralement utilisée dans le cadre d’un réseau de stockage SAN.

Avantages et inconvénients de la virtualisation du stockage :

Avantages Inconvénients
✓ Les ressources physiques de stockage sont utilisées plus efficacement. ✗ La virtualisation du stockage est toujours associée à un overhead du fait de la nécessité de générer et traiter des métadonnées.
✓ Les ressources physiques de stockage combinées dans un lecteur logique peuvent être gérées de manière centralisée. ✗ Le traitement des demandes d’I/O sous forte charge peut faire ralentir l’ensemble du système de stockage.

La virtualisation des données

La virtualisation des données combine différentes approches de virtualisation dans le cadre des analyses de données décisionnelles qui visent à fournir aux applications un accès aux données extraites des réalités physiques. Une image virtuelle de l’ensemble de la base de données, est créée, la copie « master ».

La virtualisation des données est donc un concept d’intégration de l’information.

ETL (Extract, Transform, Load) est utilisé dans le contexte de l’intégration d’informations pour extraire des données de différentes sources structurées et les fusionner de manière uniforme dans une base de données cible. La virtualisation des données permet également de lire et de manipuler des données provenant de diverses sources, mais celles-ci restent physiquement en place (contrairement à l’ETL). Les solutions logicielles de virtualisation des données intègrent les données à un seul niveau virtuel et fournissent un accès en temps réel à la source physique des données.

Avantages et inconvénients de la virtualisation des données :

Avantages Inconvénients
✓ Les besoins de stockage pour les copies de données physiques sont réduits. ✗ Contrairement à l’approche avec les entrepôts de données, la virtualisation des données n’est pas adaptée pour enregistrer et gérer des images d’un stock de données de l’historique.
✓ Il n’est plus nécessaire d’extraire les données, ce qui prenait beaucoup de temps (par exemple via ETL).
✓ De nouvelles sources de données peuvent être prises en compte via des outils BI en libre-service, même sans avoir des connaissances techniques au préalable.
✓ Les données virtualisées peuvent être traitées à l’aide de divers outils de gestion des données.

La virtualisation du réseau

La virtualisation du réseau implique diverses approches qui abstraient les ressources réseau aux niveaux matériel et logiciel à partir de leur fondement physique. En règle générale, ce type de virtualisation est utilisé dans le cadre de concepts de sécurité. Deux objectifs sont au premier plan :

  • Les ressources physiques du réseau doivent être combinées en une unité logique grâce à la virtualisation.
  • Les ressources physiques du réseau doivent être divisées en différentes unités virtuelles grâce à la virtualisation.

Un bon exemple de virtualisation de réseau est le virtual private network (VPN). Un VPN est un réseau virtuel basé sur un réseau physique. Dans la pratique, les VPN sont utilisés pour établir des connexions sécurisées via des lignes non sécurisées : par exemple, si un employé en déplacement souhaite accéder au réseau privé de son entreprise via Internet.

Un autre exemple de virtualisation de réseau est le réseau local virtuel (VLAN). Les VLAN sont des sous-réseaux virtuels basés sur un réseau informatique physique.

Le Software Defined Networking (SDN) est un concept qui permet de gérer les ressources du réseau virtuel de manière centralisée sans avoir à accéder manuellement aux composants physiques du réseau. Le SDN est basé sur le découplage du plan de contrôle virtuel (le Control Plane) du plan de réseau physique qui est responsable de la transmission des paquets de données (le Data plane).

Avantages et inconvénients de la virtualisation du réseau :

Avantages Inconvénients
✓ Réduction des coûts grâce à l’utilisation multiple de l’infrastructure physique du réseau. ✗ L’exploitation de plusieurs sous-réseaux virtuels sur un réseau physique nécessite des composants matériels puissants.
✓ Les ressources réseau peuvent être gérées à un niveau virtuel de manière centralisée, elles sont facilement évolutives et sont réparties dynamiquement. ✗ Une infrastructure de réseau physique redondante peut être nécessaire pour assurer une certaine fiabilité.
✓ La virtualisation du réseau offre différentes approches qui permettent de mettre en œuvre des concepts de sécurité pour le réseau du côté logiciel et donc de manière plus rentable.