samedi 2 février 2013

La Virtualisation des Systèmes d’Information : 2 Histoire








II : Histoire




James Kilburn, paru en 1962

Le mécanisme de mémoire virtuelle a été mis au point dans les années 1960. Il est basé sur l'utilisation d'une mémoire de masse (type disque dur ou anciennement un tambour), pour le but, entre autres, de permettre à des programmes de pouvoir s'exécuter dans un environnement matériel possédant moins de mémoire centrale que nécessaire (ou, vu autrement, de faire tourner plus de programmes que la mémoire centrale ne peut en contenir!)

La mémoire virtuelle permet  :

d'augmenter le taux de multiprogrammation
de mettre en place des mécanismes de protection de la mémoire
de partager la mémoire entre processus
LPARs sur mainframe en 1968.
partitions permettaient l’éxécution de plusieurs processus/applications pour mieux tirer partie des ressources du mainframe.
La virtualisation a été mise en œuvre pour la première fois il y a plus de 30 ans par IBM pour partitionner logiquement des mainframes en machines virtuelles distinctes. Ces partitions permettaient un traitement "multitâche" par les mainframes, à savoir l’exécution simultanée de plusieurs applications et processus. Étant donné que les mainframes consommaient beaucoup de ressources en même temps, le partitionnement constituait un moyen naturel de tirer pleinement parti de l’investissement matériel.




Augmentation des coûts de gestion informatique. À mesure que les environnements informatiques gagnent en complexité, le niveau de formation spécialisée et d’expérience requis pour le personnel chargé de la gestion de l’infrastructure et les coûts qu’il engendre augmentent. Les entreprises dépensent des ressources et un temps disproportionnés pour les opérations manuelles de maintenance des serveurs et ont donc besoin de personnel supplémentaire pour exécuter ces tâches.

Basculement sur incident et protection contre les sinistres insuffisants. Les entreprises sont de plus en plus affectées par les interruptions de service d’applications serveur essentielles et l’inaccessibilité de postes de travail utilisateurs critiques. Face à la menace que représentent les attaques électroniques, les catastrophes naturelles, les pandémies et le terrorisme, la planification de la continuité d’activité est devenue un véritable enjeu à la fois pour les postes de travail et les serveurs.

Postes de travail utilisateurs à haute maintenance. La gestion et la sécurisation des postes de travail d’une entreprise présentent de nombreux défis. Le contrôle d’un environnement de poste de travail distribué et la mise en application de règles de gestion, d’accès et de sécurité sans incidence sur la capacité de travail des utilisateurs s’avèrent complexes et coûteux. Divers correctifs et programmes de mise à niveau doivent être sans cesse appliqués aux environnements de poste de travail pour éliminer les vulnérabilités de sécurité.

3 tendances historiques:

  1. centralisation avec mainframe
  2. explosion du distribué (pas cher)
  3. re-centralisation (datacenter, clients léger, et maintenant: virtualisation)



Mécanisme permettant d’augmenter la capacité des applications à allouer de la mémoire au delà de la capacité mémoire physique disponible. Illustre bien le mécanisme d’abstraction des ressources physiques propre à la virtualisation.


0 commentaires:

Enregistrer un commentaire