Malgré le fait que de plus en plus de pistes sont placées sur chaque millimètre carré de plateaux au fil du temps et que les têtes de lecture / écriture deviennent de plus en plus complexes toutes les quelques années, la fiabilité des disques durs ne cesse de croître. Ainsi, la société Backblaze, engagée dans le stockage de données, a préparé un rapport pour le deuxième trimestre 2020, dédié aux disques durs qui y sont utilisés. Il s'est avéré que le taux annuel de pannes de disque a considérablement baissé par rapport à l'année dernière.
Cela signifie-t-il que les disques durs deviennent plus fiables au fil du temps? Comment les technologies d'enregistrement magnétique prometteuses telles que MAMR et HAMR pourraient affecter la fiabilité du disque dur dans les décennies à venir?
Le chemin de "méga" à "tera"
Le premier disque dur a été mis en vente dans les années 1950. C'était un IBM 350 d'une capacité de 3,75 Mo. L'appareil était enfermé dans un boîtier de 152 x 172 x 74 cm, qui se composait de 50 disques d'un diamètre de 24 pouces (610 mm). Si vous remontez à notre époque, il s'avère que le meilleur disque dur moderne de 3,5 pouces (environ 14,7 × 10,2 × 2,6 cm) peut stocker jusqu'à 18 To de données en utilisant la technologie d'enregistrement conventionnelle (non en mosaïque).
Mécanisme interne du disque dur IBM 350
Dans l'IBM 350, les plateaux tournaient à 1 200 tr / min. Et au cours des dernières décennies, les disques durs ont évolué vers la diminution du diamètre des plaques et l'augmentation de leur vitesse de rotation (les valeurs typiques sont de 5400 à 15000 tr / min). D'autres améliorations incluent le placement des têtes de lecture / écriture plus près de la surface du plateau.
Le périphérique de stockage IBM 1301 DSU (Disc Storage Unit) est sorti en 1961. C'était une conception innovante où chaque plateau avait sa propre tête de lecture / écriture. Une autre innovation de ce modèle était que les têtes flottaient au-dessus de la surface du disque rotatif sous l'action des forces aérodynamiques. Cela a permis de réduire l'écart entre les têtes et la surface du disque.
Après 46 ans de développement, IBM a vendu son activité HDD à Hitachi en 2003. À ce moment-là, la capacité des disques durs avait augmenté de 48 000 fois, et la taille avait diminué de 29 161 fois. La consommation d'énergie est passée de plus de 2,3 kW à environ 10 watts (pour les modèles de bureau) et le prix par mégaoctet est passé de 68 000 $ à 0,002 $. Dans le même temps, le nombre de plaques est passé de dizaines à, au plus, deux.
Augmentation de la densité de stockage
Les appareils mécaniques et électroniques, ainsi que les ordinateurs, ont toujours évolué vers la miniaturisation. Les énormes ordinateurs à tubes ou relais des années 40 et 50 ont évolué pour devenir des systèmes de transistors moins encombrants, puis des merveilles technologiques miniatures modernes basées sur des circuits intégrés spécialisés. Les disques durs ont suivi un chemin similaire.
À l'intérieur du disque dur Seagate MicroDrive 1 pouce
L'électronique de commande des disques durs a connu tous les plaisirs du développement VLSI, ils ont utilisé des servo variateurs de plus en plus précis et économiques. Les progrès de la science des matériaux ont abouti à des plaques plus légères et plus lisses (verre ou aluminium) avec un revêtement magnétique amélioré. La densité d'enregistrement a augmenté. Les créateurs de disques durs comprenaient de mieux en mieux les particularités de leurs éléments individuels (microcircuits, soudures, disques, têtes de lecture / écriture) et des améliorations révolutionnaires de leurs caractéristiques ne se sont pas produites immédiatement, mais progressivement, grâce à de petites améliorations.
Six disques durs ouverts - de 8 "à 1" ( source )
Bien qu'il y ait eu au moins deux tentatives de miniaturisation sérieuse des disques durs, prenant la forme du 1,3 " HP Kittyhawk en 1992 et du 1" Microdrive en 1999, le marché En conséquence, il a fait son choix, en se concentrant sur les modèles de facteurs de forme 3,5 et 2,5 pouces. Les disques dans le facteur de forme Microdrive ont été présentés comme une alternative aux cartes CompactFlash basées sur NAND, citant leurs atouts comme des capacités de stockage plus élevées et des cycles d'écriture pratiquement illimités, ce qui les rendait adaptés à une utilisation dans des systèmes embarqués.
Comme dans d'autres cas similaires, les limitations physiques de la vitesse d'écriture et du temps d'accès aléatoire aux données ont finalement fait des disques durs les invités les plus bienvenus, où le plus important est la capacité de stocker de grandes quantités d'informations à moindre coût et de manière fiable. Cela a permis au marché des disques durs de s'adapter aux systèmes de bureau et de serveur, ainsi qu'aux besoins de vidéosurveillance et de sauvegarde des données (ici, ils sont en concurrence avec les lecteurs de bande).
Raisons des pannes de disque dur
Bien que les pièces mécaniques des disques durs soient souvent considérées comme le point le plus faible, les pannes de disque dur peuvent être causées par plus que ces pièces. Parmi ces raisons sont les suivantes:
- Facteur humain.
- Pannes matérielles (mécaniques, électroniques).
- Dommages au firmware.
- Facteurs environnementaux (température, humidité).
- Source de courant.
Les disques durs sont testés pour la résistance aux chocs lorsqu'ils sont hors tension ou pendant le fonctionnement (les plateaux tournent, les têtes de lecture / écriture ne sont pas stationnées). Si le disque est soumis à une contrainte plus intense que celle pour laquelle il a été conçu, l'entraînement responsable du mouvement des têtes peut être endommagé, les têtes peuvent entrer en collision avec la surface des plateaux de disques. Si le disque n'est pas soumis à de telles influences, la raison principale de ses défaillances sera probablement son usure naturelle. Les fabricants de disques durs leur donnent un temps moyen avant défaillance (MTBF, Mean Time Before Failure), ce qui donne une idée de la durée de fonctionnement d'un disque dur dans des conditions normales.
Le MTBF est obtenu en extrapolant les données d'usure du dispositif sur une période de temps. Il existe des normes selon lesquelles cet indicateur est calculé. Le MTBF pour les disques durs se situe généralement entre 100 000 et 1 million d'heures. Par conséquent, pour vraiment tester le disque, il faudrait 10 à 100 ans pour l'observer. Dans le même temps, les fabricants, lorsqu'ils spécifient MTBF pour les disques, partent de l'hypothèse que le disque fonctionnera dans les conditions recommandées. C'est là que les disques fonctionnent dans des sociétés de stockage comme Backblaze.
De toute évidence, si vous exposez le disque dur à un impact très fort (déposez-le sur un sol en pierre, par exemple), ou si une panne grave se produit dans l'alimentation du lecteur (par exemple, une surtension), la durée de vie du disque dur sera raccourcie. Il est moins évident que la fiabilité des disques durs peut être affectée par des défauts de fabrication qui ne sont pas propres aux disques durs. Ils sont la raison pour laquelle une mesure telle que «taux d'échec acceptable» s'applique à la plupart des produits.
Il ne s'agit pas de l'utilisateur. Il s'agit de la ligne de production
Les disques durs présentent des valeurs MTBF élevées. Backblaze, naturellement, s'efforce de faire en sorte que près de 130 000 de ses disques durs «vivent» avec bonheur jusqu'à un âge avancé et se retirent calmement dans un monde meilleur (généralement dans une usine de concassage de ferraille). Mais même une entreprise comme Backblaze rapporte un taux de défaillance annuel (AFR) de 1,07% à compter du premier trimestre 2020. C'est, heureusement pour eux, le taux le plus bas depuis qu'ils ont commencé à publier de tels rapports en 2013. Au premier trimestre de 2019, par exemple, leur TAF était de 1,56%.
Dans l'un de mes matériauxil a été dit que lors de la production de dispositifs comprenant des circuits intégrés, des défauts peuvent apparaître dans ceux-ci, qui ne se manifestent pas immédiatement, mais après un certain temps, pendant le fonctionnement des dispositifs. Au fil du temps, des facteurs tels que l'électromigration, le stress thermique, le stress mécanique peuvent entraîner des pannes dans les microcircuits. Ainsi, les connexions des fils dans les cas de microcircuits peuvent être rompues, l'électromigration peut endommager les connexions soudées et les microcircuits eux-mêmes (surtout après exposition à un dispositif à décharge électrostatique).
Les pièces mécaniques des disques durs dépendent de la précision du respect des tolérances technologiques et de la qualité de la lubrification des pièces mobiles. Auparavant, il y avait un problème tel que le collage du bloc de têtes magnétiques sur la surface du disque dur (stiction ). Mais avec le temps, les caractéristiques des lubrifiants se sont améliorées et le bloc de tête ne peut plus quitter l'aire de stationnement. En conséquence, ce problème a été plus ou moins résolu aujourd'hui.
Mais, néanmoins, à chaque étape du processus de production, il y a une chance de gâcher quelque chose. Cela se manifeste finalement comme quelque chose qui dégrade les jolis chiffres MTBF. Le disque dur qui tombe en panne tombe du côté obscur de la courbe du taux de défaillance. Cette courbe est caractérisée par un pic élevé au tout début, indiquant des défaillances dues à de graves défauts de fabrication. Ensuite, le nombre de défauts diminue et il semble assez calme jusqu'à ce que l'appareil expire, après quoi il remonte.
Et après?
Le moment est venu pour les
disques durs HAMR , tels que nous les connaissons, sont un exemple du résultat final d'un processus de fabrication finement réglé. Bon nombre des problèmes qui ont affecté ces appareils au cours des cinq dernières années ont été soit résolus, soit atténués. Des changements comparativement notables dans la production de disques durs, tels que le passage à la production de disques remplis d' hélium ,n'ont pas encore eu un impact sérieux sur leur taux de défaillance. D'autres changements tels que le passage de l'enregistrement magnétique perpendiculaire ( PMR ) à l'enregistrement magnétique assisté par la chaleur ( HAMR) ne devrait pas affecter de manière significative la durée de vie des disques durs. Et ceci à condition que les nouvelles technologies n'apportent pas de nouveaux problèmes avec elles.
En général, l'avenir technologique du disque dur semble, dans tous les sens du terme, plutôt ennuyeux. Ce seront des installations de stockage à faible coût et de grande capacité qui pourront fonctionner normalement pendant au moins une douzaine d'années. Le principe de base de la création de disques durs, en particulier l'aimantation de petites sections des plaques, peut évoluer à un tel niveau lorsque le rôle de ces «sections» sera joué par des molécules individuelles. Et si vous ajoutez quelque chose comme HAMR ici, il s'avère que vous pouvez vous attendre à une augmentation significative de la durée de stockage des informations sur le disque dur.
Les disques durs ont un avantage significatif par rapport à NAND, qui utilise de minuscules condensateurs pour stocker les charges et utilise une méthode pour écrire des données qui endommagent physiquement ces condensateurs. Les limitations physiques d'une telle mémoire sont beaucoup plus sévères que celles applicables aux disques durs. Cela conduit à la complication de la conception de la mémoire, par exemple, à la création de lecteurs basés sur des cellules de mémoire capables de stocker quatre bits (Quad-Level Cell, QLC). Lorsque vous travaillez avec de telles cellules, 16 niveaux de tension doivent être distingués. En raison de la complexité de la mémoire QLC, il s'avère que les disques SSD correspondants dans de nombreux scénarios ne sont que légèrement plus rapides que les disques durs à 5400 tr / min. Cela est particulièrement vrai pour les délais d'accès aux données.
Résultat
Mon premier disque dur était un Seagate de 20 ou 30 mégaoctets dans un IBM PS / 2 (386SX). Cet ordinateur m'a été apporté du travail par mon père. Ils sont passés à de nouveaux PC et, probablement, voulaient libérer les entrepôts de l'ancienne technologie. À l'époque de MS DOS, 20 à 30 Mo suffisaient amplement pour le système d'exploitation, pour un tas de jeux, pour WordPerfect 5.1 et bien plus encore. Bien sûr, cette quantité de mémoire à la fin des années 90 semblait ridicule. Ensuite, en parlant de disques durs, ils ne fonctionnaient pas avec des mégaoctets, mais avec des gigaoctets.
Malgré le fait que j'ai possédé de nombreux ordinateurs de bureau et portables depuis lors, ironiquement, le seul lecteur qui, pour ainsi dire, est mort entre mes mains était un SSD. Ceci, ainsi que des publications sur les disques durs, tels que les rapports Backblaze, me donne une forte confiance dans le fait que les jours où les derniers plateaux de disque dur cesseront de tourner sont très loin. Peut-être que cette prévision ne changera que lorsque quelque chose comme la technologie 3D XPoint permettra la création de disques suffisamment grands et abordables. En attendant, laissez tout se passer comme d'habitude.
Avez-vous rencontré des pannes de disque dur?