Stockage informatique : jusqu’au Néant ! (Partie 1/2)

Depuis que l’utilisation informatique existe les besoins en stockages de données n’ont fait qu’augmenter. Aujourd’hui c’est un problème de taille dirons-nous, avec une masse critique devenue complètement délirante.

Quels sont les évolutions et les moyens disponibles ?

Comment assurer, une durée de vie que nous définirons d’acceptable pour ses données ?

Comment maîtriser ses données, loin de big brother ?

Nous allons traiter le sujet de fonds en comble avec en phase finale, une analyse parfaitement personnelle sur l’avenir du stockage de données.

Allez c’est parti, il faut un début à tout comme je dis ! Alors cocorico ! Quoi ? Déjà, d’entrée comme ça…

Basile Bouchon

Le premier que nous qualifierons comme inventeur du stockage est un Français. Lyonnais, plus précisément, un certain Basile Bouchon (à savoir si il y a un rapport avec les Bouchons lyonnais ?). En 1729 ce cher Basile, met au point un système avec un ruban perforé qui permets de programmer un métier à tisser. C’est l’une des premières applications de stockage de données. Peu pratique bien entendu, pas encore électronique évidement. Son procédé a été amélioré en 1728 par son assistant Jean-Baptiste Falcon qui lui, préférera les cartes perforées dont il est l’inventeur. Les métiers à tisser Jacquard en deviendront célèbres en reprenant le concept en 1801.

Rendons-nous directement à une période plus contemporaine pour parler des bandes magnétiques. On connait tous les cassettes, enfin, pour les moins de 20 ans c’est très loin d’être évident. Le stockage sur bande magnétique a été utilisé dès les années 1950. Et non, il n’a pas disparu il est bel et bien utilisé, IBM vient de réaliser un record avec pas moins de 330 To stockés sur une bande qui n’a plus grand chose à voir avec son ancêtre, mais nous y reviendrons plus en après dans l’article. Au début de son utilisation, ce support est pour le moins, fragile, encombrant et d’une lenteur relative pour l’époque. Craignant la chaleur, les champs magnétiques, une certaine fragilité de la bande ont relégué de mode de stockage à une destination professionnelle d’archivage de masse. Souvenez-vous de nombreuses apparitions dans les films des années 60. Vous y êtes ?! Oui, c’est ça les grosses bobines de bandes magnétiques qui se mettent à tourner dès que le héros utilise un gros ordinateur. Le principe de la magnétisation ou non d’un support récepteur de l’information. Nous ne rentrerons pas plus dans les détails techniques pour des raisons évidentes relatives à la longueur de l’article. En prime j’aimerais vous garder comme lecteur jusqu’à la fin de mon billet. Cependant pour les curieux, il y a plus d’information par exemple sur ce lien Wikipedia.

Différents éléments d’une disquette 3p 1/2

On continue notre voyage pour arriver rapidement aux disquettes, déjà plus connues et utilisées massivement par le grand public. Peu chères, pratiques, un moyen de stocker de l’information en phase avec les besoins de l’époque. En 1967 IBM lance la première disquette souple, floppy en Anglais. Le lecteur de disquette (FDD : Floppy Disk Drive) permet de les utiliser. La taille ? 8 pouces, en fait c’est carrément GRAND, très GRAND plus de 20 cm long et ce pour une capacité, tenez-vous bien de 80 Ko (Kilo octets). Cela représentait tout de même en ces temps là plus d’une journée de frappe de caractères d’une opératrice de saisie. En 1981, IBM, se rendant compte de le format n’était pas des plus pratique remplace le format 8 pouces, par la disquette 5 pouces 1/4. Plus petite, toujours au format « souple » cette fois la capacité dotée est de 360 Ko, puis en 1984 la capacité passe à 1200 ko. Le format 3p 1/2 est arrivé dans le monde des PC & compatibles en 1987. (Utilisée dès 1984 avec les Macintosh, avec une capacité de 400 ko). Les disquettes que nous connaissons avaient une capacité de 720 Ko pour la première génération, puis sont arrivées les disquettes Haute Densité avec une capacité de 1.44 Mo. C’est précisément ce modèle qui a inondé le marché pendant près de 20 ans. Leur côté très bon marché, la petite taille et la relative résistance en on fait le standard de sauvegarde de l’époque, bien que de nombreux défauts soit présents. Sensibilité à la chaleur, aux champs magnétiques… Tout cela dit, c’était pourtant un moyen de sauvegarde devenu standard. A noter que des versions avec une capacité plus élevée (2.88 Mo voire plus) ont été développées mais restées assez confidentielles. Le lecteur présent dans les ordinateurs de l’époque n’étant pas compatible avec les modèles de plus haute capacité, il fallait racheter du matériel ce qui a freiné leur développement.

Le format 3 pouces d’Amstrad en 1985

Une autre voie également avec le constructeur Amstrad qui au milieu des années 80 avait, lui, opté pour un disque rigide de 3 pouces ayant une capacité de 178 ko par face. Resté cantonné à la marque et au final Amstrad pour ses PC à migré vers le « standard » 3 pouces 1/2.

Pour les curieux, un document plus complet sur wikipédia : Les disquettes.

La suite de l’aventure s’il vous plait !! Nous allons aborder les supports de plus grande capacité et d’accès lecture/écriture de plus en plus rapides. Le volume de données à stocker explose et les supports suivent la cadence.

HDD avec 3 plateaux. (Observez la tête de lecture et sa petite boucle. Merci M. Bernouilli au passage).

Parlons HDD (Hard Disk Drive) Disque dur en Français. Fichtre, un disque DUR ?! Mais pourquoi donc il est plus dur que la disquette qui est souple et pourtant parait dure au dehors. bon en fait, c’est très simple, c’est dedans que cela se passe ! A l’intérieur de la disquette, il y a un disque qui est souple. A l’inverse à l’intérieur du disque dur, il y a un ou plusieurs disques qui eux sont bien durs. Dans différents matériaux magnétisables de différentes tailles.

C’est en 1956 que le premier disque dur est inventé par IBM son nom « IBM 350 » ! Il n’est pas du tout réservé au grand public. Son principe de fonctionnement : un sandwich de 50 disques d’environ 60 cm de diamètre. Chaque disque tourne à 1 200 tours par minutes. Une capacité de 100 pistes par face. Équipé de deux têtes de lecture/écriture pouvaient se déplacer d’un plateau à un autre en moins d’une seconde. Sa capacité en données était d’environ 5 Mo. Le débit de 8,8 ko/s. Passons au tarif s’il vous plait : 50 000 $.

Un disque du RAMAC.

L’encombrement, évidement ce n’est pas du portable, ni même du transportable… Au bas mot, plus d’1 tonne ! Il s’en est malgré tout vendu plus d’un millier d’exemplaires en cinq ans .

Passons à une époque plus raisonnable en terme d’accessibilité financière pour Mme Michu. C’est au début des années 90 que la démocratisation des disques durs s’effectue enfin.
Comme d’habitude pour les plus curieux un petit saut sur wikipedia pour plus d’infos :Disque Dur

La normalisation de leur taille physique, 3.5 pouces ou 5 pouces 1/4 permet de les installer dans n’importe quelle tour à sa guise.

Les trois tailles les plus répandues 5.25 / 3.5 / 2.5 pouces (Le premier pour les nostalgiques un Quantum Bigfoot de 5.25 pouces souvenirs 😉

Les deux standards majoritaires sont le SCSI et l’IDE les capacités s’envolent 40 Mo, 80 Mo, 120 Mo, 250 Mo…. à l’époque on pourrait croire à une similitude avec la loi de Moore sur les périphériques de stockage, ce n’est cependant qu’une illusion.

Aujourd’hui nous connaissons les disques de 3.5p et surtout les petits disques dur externes usb de petite taille 2.5p pour des capacités de plusieurs Go. Mais revenons un instant sur l’intere des disques durs.

Leur taille en fait un atout, bien plus d’espace que sur une disquette, les temps d’accès sont au rendez-vous ainsi que les vitesses d’écriture/lecture. Plusieurs dizaines de fois supérieures à ceux disponibles avec les disques souples, ne parlons même pas des bandes magnétiques style streamer et compagnie. Les temps d’accès sont directement dépendant de la vitesse de rotation. Pour accéder aux données il faut que le disque tourne et que la tête de lecture se positionne au bon endroit sur le disque. La vitesse de rotation a son importance, mais pas que. Dans les premières génération nous avons des vitesses de l’ordre de 1200 tours par minutes, puis 3600 t/m pendant des années pour les plus performants. Il faudra attendre le début des années 2000 pour avoir des vitesses de 5200 t/m, puis 7200 t/m et même aujourd’hui 10000 t/m. Le disque embarque également de la mémoire tampon, qui permet d’accélérer encore le traitement de l’information.

Mais alors, pourquoi allez plus loin ? Utilisons donc uniquement des disques durs !!!

Leur fiabilité s’est certes accentuée au fil du temps mais en contre partie leur taille ne faisant qu’augmenter lorsqu’une panne arrive et elle arrivera tôt ou tard, la masse de données perdues est d’autant plus grande. Une chute, un choc et la tête de lecture vient s’écraser sur un plateau, un peu comme un airbus qui s’écraserait sur un champs de coquelicots. Je vous laisse imaginer les dégâts. Au mieux il est parfois possible de récupérer une partie de ses données au pire c’est la purge. Le disque est complètement inutilisable et il ne reste que la salle blanche pour espérer retrouver ses données. Certaines entreprises en ont fait leur business avec des tarifs qui vont de 150 € à plusieurs milliers selon la taille, le type de panne. (https://www.data-labcenter.fr / http://www.dafotec.com/)

Donc pour les disques durs : pas mieux que les autres supports, une durée de vie en utilisation continue qui ne dépasse pas pour les meilleurs 5 ans. Dans de bonnes conditions, pas de chocs, pas de pics, ni chute d’intensité et pas d’orage magnétique. Si vous pensez stocker des informations de façon définitive sur votre bon vieux disque dur usb, vous faîtes une grossière erreur.

Dans la seconde partie du billet nous allons aborder la dernière génération de disques durs. Les SSD (Solid State drive), puis les supports optiques CD/DVD/ Blu-ray, viendront les memoires flash ; clé usb, multicartes CF, SD, PCMCIA, Xd, Micro Sd etc… Enfin ma CONCLUSION, très personnelle vous disais-je. Et après la conclusion un bonus track sur ce que pourrait bien nous réserver la gestion de nos données par Big Brother.