La technologie de l’enregistrement magnétique sur disque dur a participé directement à l’accélération continue des performances de nos ordinateurs et des serveurs qui sont leurs correspondants réguliers dans le cloud. Mais la mécanique a des limites physiques qui rendent inéluctable le triomphe de la mémorisation sur composant électronique.

Qui s’en souvient ? Il fut un temps où les ordinateurs n’avaient que des bandes ou des disques souples magnétiques comme support de mémorisation des données. Les premières offraient de la capacité mais le temps d’accès dépendait de la vitesse de défilement délivrée par les moteurs agissant sur les bobines. Les secondes étaient plus rapides mais d’une capacité dramatiquement limitée. Les progrès en terme de densité de mémorisation ne pouvaient provenir que d’un changement de technologie ou plutôt d’une évolution radicale du support le plus performant en temps d’accès : le disque ; la bande gardant toute sa pertinence dans le domaine de l’archivage à long terme.

  • Tournez manège

Il y a près de soixante ans naissait le tout premier disque dur, une galette magnétique d’un diamètre respectable – 60 cm – dénommée RAMAC, pour Random Access Method Accounting and Control. L’acronyme désignait d’ailleurs plutôt la machine contenant plusieurs disques ou plateaux d’une capacité unitaire de …..5 Mo, mais l’avantage de cette armoire de plus d’une tonne tenait non pas dans le volume de données stockées mais plutôt dans la rapidité avec laquelle on accédait à l’information. A l’époque, ce « périphérique » était rattaché à des ordinateurs gros comme plusieurs armoires normandes et son constructeur, IBM, pratiquait une formule de location-vente puisque la machine coûtait le prix de plusieurs automobiles soit l’équivalent de 10 000 dollars le mégaoctet sauvegardé.

Progressivement les choses évoluent : la taille des moteurs et des roulements diminue, les bras de lecture-écriture s’allègent en intégrant les têtes à base de ferrite. L’enregistrement des données est de moins en moins l’apanage de la bande magnétique au fur et à mesure des progrès accomplis. Les ingénieurs réduisent la distance entre plateaux ainsi que l’espace entre la tête et la surface magnétique. Ils diminuent également le diamètre des disques. Aux 24 pouces du RAMAC succèdent les 14 pouces de l’IBM 3340 ; puis arrivent les premiers plateaux de 8 pouces qui accompagnent la réduction de taille des ordinateurs eux-mêmes, avec l’arrivée des premiers micros en 1975, l’intégration de la mémoire de masse dans le châssis n’intervenant qu’en 1983. Durant toute cette période, la capacité de stockage s’accroit régulièrement et l’on commence à parler, comme pour la puissance des micro-processeurs, de la fameuse loi de Moore : la densité des disques double tous les 18 mois tandis que le prix est divisé par cinq entre 1975 et 1991. En 1980 apparaît le premier disque de 5 pouces 1/4 d’une capacité de 5 Mo puis la barrière du gigaoctet est franchie en 1982 par le H8598 produit par Hitachi, un système équipé de 10 plateaux de 14 pouces et de deux têtes de lecture-écriture. Le diamètre en 3 pouces 1/4 arrive sur le marché en 1985 tandis que la capacité moyenne monte à 10 Mo. Les premiers ordinateurs portables font leur apparition en 1991 avec les disques de taille 2 pouces 1/2. Depuis, si la réduction de diamètre s’est stabilisée, du moins pour les ordinateurs, c’est la croissance en capacité qui s’envole. La miniaturisation se poursuit mais concerne plutôt les appareils électroniques grand public qui se voient dotés de disques de 1 pouce avec tête magnéto-résistive, bientôt remplacés par la fameuse mémoire Flash.

  • Une question de prix

Le disque dur est-il en train de vivre ses derniers jours ? Sûrement pas mais il accumule certains défauts qui renforcent l’attractivité de son concurrent. Le disque est relativement lent du fait des déplacements de ses têtes de lecture/écriture. Ces déplacements ainsi que la motorisation des plateaux – qui tournent en permanence – sont des causes de ruptures mécaniques. Les chocs externes peuvent aussi entraîner des dommages sur ces éléments qui demeurent fragiles par rapport à des composants totalement statiques. Enfin, les disques sont relativement bruyants et consomment de l’énergie en continu. Mais tous ces points négatifs sont encore balayés par un argument de poids : le plateau magnétique est un support de plus en plus bon marché, au prix du gigaoctet enregistré.

Cet avantage commence à fondre comme neige au soleil devant la montée en puissance de la mémoire Flash. Déjà présente dans les ordinateurs sous forme de barrettes RAM servant de mémoire vive, la Flash colonise tout l’univers numérique sous forme de clés USB, de cartes aux formats divers que l’on retrouve dans les appareils photos, les baladeurs, les smartphones. Des puces mémoires ont déjà été associées au disque pour faire tampon et produire des démarrages plus rapides, et, depuis peu, elles commencent à remplacer totalement les plateaux tournant comme support exclusifs des données enregistrées. C’est le disque SSD ou Solid State Drive ou encore disque électronique chez les canadiens francophones : plus rien ne bouge, plus de ronron traduisant une rotation perpétuelle, presque plus de consommation électrique sauf dans les phases de lecture ou d’écriture. Autres avantages indéniables, des temps d’accès quasi instantanés et une fiabilité à toute épreuve sur le moyen terme puisqu’il n’y a aucune mécanique en mouvement. Seul le prix – un rapport de dix à un toujours en faveur du disque – le rend encore hors de portée pour équiper les ordinateurs les meilleurs marchés ainsi que les serveurs. Mais les choses évoluent positivement avec le progrès des techniques de production et des technologies NOR et NAND qui sont les deux filaires actuellement disponibles. Outre la baisse des coûts, les travaux actuels de recherche et développement portent sur l’amélioration de la longévité des cellules de mémoire, mais ces deux critères sont en définitive assez liés. Hormis les filières NOR (optimale pour mémoriser les systèmes d’exploitation) et NAND (plutôt dédiée au stockage de données), l’industrie propose deux types de cellule Flash : la Single Level cell (SLC) qui ne stocke qu’un seul bit d’information, et la Multi Level Cell (MLC) qui en conserve deux ou trois. Cette dernière performance induit directement un « coût au bit » plus intéressant mais produit aussi une « fatigue » plus importante des composants et donc une durée de vie amoindrie d’un facteur 10. Les industriels cherchent à réduire cet écart mais, pour l’heure, les disques SSD réservés aux entreprises, donc équipant essentiellement les serveurs, sont de type SLC.

  • A la recherche de la performance

Ce n’est donc encore demain que tous les serveurs seront totalement équipés de disques SSD mais on commence à trouver, dans les data centers des hébergeurs, des machines hybrides qui utilisent au mieux les deux technologies de disques afin d’optimiser leur fonctionnement et d’offrir de véritables gains en performance. Certains hébergeurs proposent déjà des solutions basées sur des environnements de stockage hybrides, dimensionnés en fonction des requêtes de leurs clients, avec des configurations en RAID associant disques SSD, SAS ou SATA. Car malgré ses points de faiblesse, le disque mécanique a encore de beaux jours devant lui et le monde du stockage va vivre sûrement longtemps dans un univers mixte où cohabiteront plateaux magnétiques et cellules Flash, avec, dans la coulisse, la bonne vieille cassette à bande qui demeure encore imbattable pour l’archivage à long terme.

La technologie de l’enregistrement magnétique sur disque dur a participé directement à l’accélération continue des performances de nos ordinateurs et des serveurs qui sont leurs correspondants réguliers dans le cloud. Mais la mécanique a des limites physiques qui rendent inéluctable le triomphe de la mémorisation sur composant électronique.

Qui s’en souvient ? Il fut un temps où les ordinateurs n’avaient que des bandes ou des disques souples magnétiques comme support de mémorisation des données. Les premières offraient de la capacité mais le temps d’accès dépendait de la vitesse de défilement délivrée par les moteurs agissant sur les bobines. Les secondes étaient plus rapides mais d’une capacité dramatiquement limitée. Les progrès en terme de densité de mémorisation ne pouvaient provenir que d’un changement de technologie ou plutôt d’une évolution radicale du support le plus performant en temps d’accès : le disque ; la bande gardant toute sa pertinence dans le domaine de l’archivage à long terme.