II : Histoire
James Kilburn, paru en 1962
Le mécanisme de mémoire virtuelle a été mis au point dans
les années 1960. Il est basé sur l'utilisation d'une mémoire de masse (type
disque dur ou anciennement un tambour), pour le but, entre autres, de permettre
à des programmes de pouvoir s'exécuter dans un environnement matériel possédant
moins de mémoire centrale que nécessaire (ou, vu autrement, de faire tourner
plus de programmes que la mémoire centrale ne peut en contenir!)
La mémoire virtuelle permet :
d'augmenter le taux de multiprogrammation
de mettre en place des mécanismes de protection de la
mémoire
de partager la mémoire entre processus
LPARs sur mainframe en 1968.
partitions permettaient l’éxécution de plusieurs
processus/applications pour mieux tirer partie des ressources du mainframe.
La virtualisation a été mise en œuvre pour la première fois
il y a plus de 30 ans par IBM pour partitionner logiquement des mainframes en
machines virtuelles distinctes. Ces partitions permettaient un traitement
"multitâche" par les mainframes, à savoir l’exécution simultanée de
plusieurs applications et processus. Étant donné que les mainframes consommaient
beaucoup de ressources en même temps, le partitionnement constituait un moyen
naturel de tirer pleinement parti de l’investissement matériel.
Augmentation des coûts de gestion informatique. À mesure que
les environnements informatiques gagnent en complexité, le niveau de formation
spécialisée et d’expérience requis pour le personnel chargé de la gestion de
l’infrastructure et les coûts qu’il engendre augmentent. Les entreprises
dépensent des ressources et un temps disproportionnés pour les opérations
manuelles de maintenance des serveurs et ont donc besoin de personnel
supplémentaire pour exécuter ces tâches.
Basculement sur incident et protection contre les sinistres
insuffisants. Les entreprises sont de plus en plus affectées par les
interruptions de service d’applications serveur essentielles et
l’inaccessibilité de postes de travail utilisateurs critiques. Face à la menace
que représentent les attaques électroniques, les catastrophes naturelles, les
pandémies et le terrorisme, la planification de la continuité d’activité est
devenue un véritable enjeu à la fois pour les postes de travail et les
serveurs.
Postes de travail utilisateurs à haute maintenance. La
gestion et la sécurisation des postes de travail d’une entreprise présentent de
nombreux défis. Le contrôle d’un environnement de poste de travail distribué et
la mise en application de règles de gestion, d’accès et de sécurité sans
incidence sur la capacité de travail des utilisateurs s’avèrent complexes et
coûteux. Divers correctifs et programmes de mise à niveau doivent être sans
cesse appliqués aux environnements de poste de travail pour éliminer les
vulnérabilités de sécurité.
3 tendances historiques:
- centralisation avec mainframe
- explosion du distribué (pas cher)
- re-centralisation (datacenter, clients léger, et maintenant: virtualisation)
Mécanisme permettant d’augmenter la capacité des
applications à allouer de la mémoire au delà de la capacité mémoire physique
disponible. Illustre bien le mécanisme d’abstraction des ressources physiques
propre à la virtualisation.
0 commentaires:
Enregistrer un commentaire