Stockage informatique : jusqu’au Néant ! (Partie 1/2)

Depuis que l’utilisation informatique existe les besoins en stockages de données n’ont fait qu’augmenter. Aujourd’hui c’est un problème de taille dirons-nous, avec une masse critique devenue complètement délirante.

Quels sont les évolutions et les moyens disponibles ?

Comment assurer, une durée de vie que nous définirons d’acceptable pour ses données ?

Comment maîtriser ses données, loin de big brother ?

Nous allons traiter le sujet de fonds en comble avec en phase finale, une analyse parfaitement personnelle sur l’avenir du stockage de données.

Allez c’est parti, il faut un début à tout comme je dis ! Alors cocorico ! Quoi ? Déjà, d’entrée comme ça…

Basile Bouchon

Le premier que nous qualifierons comme inventeur du stockage est un Français. Lyonnais, plus précisément, un certain Basile Bouchon (à savoir si il y a un rapport avec les Bouchons lyonnais ?). En 1729 ce cher Basile, met au point un système avec un ruban perforé qui permets de programmer un métier à tisser. C’est l’une des premières applications de stockage de données. Peu pratique bien entendu, pas encore électronique évidement. Son procédé a été amélioré en 1728 par son assistant Jean-Baptiste Falcon qui lui, préférera les cartes perforées dont il est l’inventeur. Les métiers à tisser Jacquard en deviendront célèbres en reprenant le concept en 1801.

Rendons-nous directement à une période plus contemporaine pour parler des bandes magnétiques. On connait tous les cassettes, enfin, pour les moins de 20 ans c’est très loin d’être évident. Le stockage sur bande magnétique a été utilisé dès les années 1950. Et non, il n’a pas disparu il est bel et bien utilisé, IBM vient de réaliser un record avec pas moins de 330 To stockés sur une bande qui n’a plus grand chose à voir avec son ancêtre, mais nous y reviendrons plus en après dans l’article. Au début de son utilisation, ce support est pour le moins, fragile, encombrant et d’une lenteur relative pour l’époque. Craignant la chaleur, les champs magnétiques, une certaine fragilité de la bande ont relégué de mode de stockage à une destination professionnelle d’archivage de masse. Souvenez-vous de nombreuses apparitions dans les films des années 60. Vous y êtes ?! Oui, c’est ça les grosses bobines de bandes magnétiques qui se mettent à tourner dès que le héros utilise un gros ordinateur. Le principe de la magnétisation ou non d’un support récepteur de l’information. Nous ne rentrerons pas plus dans les détails techniques pour des raisons évidentes relatives à la longueur de l’article. En prime j’aimerais vous garder comme lecteur jusqu’à la fin de mon billet. Cependant pour les curieux, il y a plus d’information par exemple sur ce lien Wikipedia.

Différents éléments d’une disquette 3p 1/2

On continue notre voyage pour arriver rapidement aux disquettes, déjà plus connues et utilisées massivement par le grand public. Peu chères, pratiques, un moyen de stocker de l’information en phase avec les besoins de l’époque. En 1967 IBM lance la première disquette souple, floppy en Anglais. Le lecteur de disquette (FDD : Floppy Disk Drive) permet de les utiliser. La taille ? 8 pouces, en fait c’est carrément GRAND, très GRAND plus de 20 cm long et ce pour une capacité, tenez-vous bien de 80 Ko (Kilo octets). Cela représentait tout de même en ces temps là plus d’une journée de frappe de caractères d’une opératrice de saisie. En 1981, IBM, se rendant compte de le format n’était pas des plus pratique remplace le format 8 pouces, par la disquette 5 pouces 1/4. Plus petite, toujours au format « souple » cette fois la capacité dotée est de 360 Ko, puis en 1984 la capacité passe à 1200 ko. Le format 3p 1/2 est arrivé dans le monde des PC & compatibles en 1987. (Utilisée dès 1984 avec les Macintosh, avec une capacité de 400 ko). Les disquettes que nous connaissons avaient une capacité de 720 Ko pour la première génération, puis sont arrivées les disquettes Haute Densité avec une capacité de 1.44 Mo. C’est précisément ce modèle qui a inondé le marché pendant près de 20 ans. Leur côté très bon marché, la petite taille et la relative résistance en on fait le standard de sauvegarde de l’époque, bien que de nombreux défauts soit présents. Sensibilité à la chaleur, aux champs magnétiques… Tout cela dit, c’était pourtant un moyen de sauvegarde devenu standard. A noter que des versions avec une capacité plus élevée (2.88 Mo voire plus) ont été développées mais restées assez confidentielles. Le lecteur présent dans les ordinateurs de l’époque n’étant pas compatible avec les modèles de plus haute capacité, il fallait racheter du matériel ce qui a freiné leur développement.

Le format 3 pouces d’Amstrad en 1985

Une autre voie également avec le constructeur Amstrad qui au milieu des années 80 avait, lui, opté pour un disque rigide de 3 pouces ayant une capacité de 178 ko par face. Resté cantonné à la marque et au final Amstrad pour ses PC à migré vers le « standard » 3 pouces 1/2.

Pour les curieux, un document plus complet sur wikipédia : Les disquettes.

La suite de l’aventure s’il vous plait !! Nous allons aborder les supports de plus grande capacité et d’accès lecture/écriture de plus en plus rapides. Le volume de données à stocker explose et les supports suivent la cadence.

HDD avec 3 plateaux. (Observez la tête de lecture et sa petite boucle. Merci M. Bernouilli au passage).

Parlons HDD (Hard Disk Drive) Disque dur en Français. Fichtre, un disque DUR ?! Mais pourquoi donc il est plus dur que la disquette qui est souple et pourtant parait dure au dehors. bon en fait, c’est très simple, c’est dedans que cela se passe ! A l’intérieur de la disquette, il y a un disque qui est souple. A l’inverse à l’intérieur du disque dur, il y a un ou plusieurs disques qui eux sont bien durs. Dans différents matériaux magnétisables de différentes tailles.

C’est en 1956 que le premier disque dur est inventé par IBM son nom « IBM 350 » ! Il n’est pas du tout réservé au grand public. Son principe de fonctionnement : un sandwich de 50 disques d’environ 60 cm de diamètre. Chaque disque tourne à 1 200 tours par minutes. Une capacité de 100 pistes par face. Équipé de deux têtes de lecture/écriture pouvaient se déplacer d’un plateau à un autre en moins d’une seconde. Sa capacité en données était d’environ 5 Mo. Le débit de 8,8 ko/s. Passons au tarif s’il vous plait : 50 000 $.

Un disque du RAMAC.

L’encombrement, évidement ce n’est pas du portable, ni même du transportable… Au bas mot, plus d’1 tonne ! Il s’en est malgré tout vendu plus d’un millier d’exemplaires en cinq ans .

Passons à une époque plus raisonnable en terme d’accessibilité financière pour Mme Michu. C’est au début des années 90 que la démocratisation des disques durs s’effectue enfin.
Comme d’habitude pour les plus curieux un petit saut sur wikipedia pour plus d’infos :Disque Dur

La normalisation de leur taille physique, 3.5 pouces ou 5 pouces 1/4 permet de les installer dans n’importe quelle tour à sa guise.

Les trois tailles les plus répandues 5.25 / 3.5 / 2.5 pouces (Le premier pour les nostalgiques un Quantum Bigfoot de 5.25 pouces souvenirs 😉

Les deux standards majoritaires sont le SCSI et l’IDE les capacités s’envolent 40 Mo, 80 Mo, 120 Mo, 250 Mo…. à l’époque on pourrait croire à une similitude avec la loi de Moore sur les périphériques de stockage, ce n’est cependant qu’une illusion.

Aujourd’hui nous connaissons les disques de 3.5p et surtout les petits disques dur externes usb de petite taille 2.5p pour des capacités de plusieurs Go. Mais revenons un instant sur l’intere des disques durs.

Leur taille en fait un atout, bien plus d’espace que sur une disquette, les temps d’accès sont au rendez-vous ainsi que les vitesses d’écriture/lecture. Plusieurs dizaines de fois supérieures à ceux disponibles avec les disques souples, ne parlons même pas des bandes magnétiques style streamer et compagnie. Les temps d’accès sont directement dépendant de la vitesse de rotation. Pour accéder aux données il faut que le disque tourne et que la tête de lecture se positionne au bon endroit sur le disque. La vitesse de rotation a son importance, mais pas que. Dans les premières génération nous avons des vitesses de l’ordre de 1200 tours par minutes, puis 3600 t/m pendant des années pour les plus performants. Il faudra attendre le début des années 2000 pour avoir des vitesses de 5200 t/m, puis 7200 t/m et même aujourd’hui 10000 t/m. Le disque embarque également de la mémoire tampon, qui permet d’accélérer encore le traitement de l’information.

Mais alors, pourquoi allez plus loin ? Utilisons donc uniquement des disques durs !!!

Leur fiabilité s’est certes accentuée au fil du temps mais en contre partie leur taille ne faisant qu’augmenter lorsqu’une panne arrive et elle arrivera tôt ou tard, la masse de données perdues est d’autant plus grande. Une chute, un choc et la tête de lecture vient s’écraser sur un plateau, un peu comme un airbus qui s’écraserait sur un champs de coquelicots. Je vous laisse imaginer les dégâts. Au mieux il est parfois possible de récupérer une partie de ses données au pire c’est la purge. Le disque est complètement inutilisable et il ne reste que la salle blanche pour espérer retrouver ses données. Certaines entreprises en ont fait leur business avec des tarifs qui vont de 150 € à plusieurs milliers selon la taille, le type de panne. (https://www.data-labcenter.fr / http://www.dafotec.com/)

Donc pour les disques durs : pas mieux que les autres supports, une durée de vie en utilisation continue qui ne dépasse pas pour les meilleurs 5 ans. Dans de bonnes conditions, pas de chocs, pas de pics, ni chute d’intensité et pas d’orage magnétique. Si vous pensez stocker des informations de façon définitive sur votre bon vieux disque dur usb, vous faîtes une grossière erreur.

Dans la seconde partie du billet nous allons aborder la dernière génération de disques durs. Les SSD (Solid State drive), puis les supports optiques CD/DVD/ Blu-ray, viendront les memoires flash ; clé usb, multicartes CF, SD, PCMCIA, Xd, Micro Sd etc… Enfin ma CONCLUSION, très personnelle vous disais-je. Et après la conclusion un bonus track sur ce que pourrait bien nous réserver la gestion de nos données par Big Brother.




MED, IP fixe et Free

Je vais vous narrer la petite mésaventure vient de nous arriver dans mon petit bourg d’Escamps. Depuis quasiment 1 an, des travaux ont été effectués au niveau du nra de Chevannes pour créer un nra med sur la commune d’Escamps. En effet comme vous le savez la longueur des lignes impacte directement les débits (tout du moins pour le cuivre), un réseau fibré a donc été tiré de Chevannes à Escamps. Avec les renforts d’outils adaptés pour creuser et déposer les fourreaux sur plus de 4 km pour arriver sur ma commune ou un NRA med tout neuf a été installé.

Whaouuu c’est super cool, les débits vont être plus satisfaisant que mes 5 meg les jours de beau temps ! Et encore je ne suis pas à plaindre, je connais beaucoup d’Escampois qui ont bien moins, voir ne sont pas éligibles à l’adsl. Ah ! Les fameuses zones blanches dont je connais bien les spécificités. #pclight

Donc, le NRA monté, il lui reste à devenir réellement actif ! Et bien là, ça été très long, les reports s’accumulant au fur et à mesure des mois qui passent.

Et puis fin décembre, que vois-je de mes yeux incrédules ? Le NRA Med 891546MP est actif, avec pour le moment « zéro » lignes actives mais il est bien là… A suivre

A partir de cet instant, ça va très vite, les fêtes passées, les lignes sont activées le 8 décembre au matin. Le débit pour ma part, passe à 20 meg en down et 1 meg en up ! Damned, point de vdsl ? non, au final, je suis encore un peu trop loin, (Edit : au 15 janvier j’arrive à me synchroniser en vdsl2 avec un down de 22 meg et un up de 2 meg.) je m’en contenterais donc pour au moins les 30 années à venir. La fibre n’arrivera sans doute jamais de mon vivant dans mon petit hameau, mais ça, nous aurons l’occasion d’en reparler dans un autre article.

Après l’effet de satisfaction, due à la multiplication du débit par 4 je tombe cependant sur un hic ! « Héééééé mais, j’ai plus la même IP ou bien !? »

Ah oui, il faut préciser pour toi, lecteur qui ne me connais pas, c’est que j’héberge mes services. Que ce soit du cloud, du mail, du vpn, du http, du nas, bref, du n’importe quoi qui s’auto-héberge. Alors changer d’IP, ce n’est pas la montagne qui s’écroule certes, il faut juste le modifier chez son registar, pour que mes domaines pointent bien vers la nouvelle IP.

Bien fâché, il ne me faut pas plus de 20 minutes pour corriger le bazar dans mes divers domaines. Et puis, après le temps de propagation dns, c’est la douche Froide !!!!!

Mon provider m’a collé une ip v4 mutualisée avec des ports bridés de 45000 à 65535 ! Rappel pour les novices, j’héberge des services qui causent sur divers ports, par exemple 22,110,443,993,465 etc….

Donc dans mon range alloué 45000-65535 y’a pas 22, ni 110 etc… Damned !

Pas moyen de faire causer quoi que ce soit, si la porte est fermée. Je prends donc mon laptop et entame une visio avec mon FAI, j’ai affaire à un technicien très sympathique et très compétent. Nous entamons une discussion sur la med qui vient d’être réalisée, et puis on arrive sur mon soucis d’ip mutualisée.

Le technicien de chez Free, a la soluce ! C’est très simple : il suffit d’aller demander une ip full stack ! Cela se passe dans l’interface web de la box, rendez-vous sur l’interface client et chercher la fameuse ligne ou activer une IP Full Stack. On clique et paf : ip full stack ! Simplissime !!

Avec le sourire aux lèvres, je me connecte sur mon interface client. Après quelques minutes de recherches, je ne trouve pas la dite ligne. Je peste un peu, où est-ce qu’il l’on mise cette saleté d’option ? Je regarde sur divers forums, et la sentence est inéluctable : si l’option n’est pas visible, c’est qu’elle n’est pas accessible, point barre !

La fameuse box Crystal pas « compatible »

Retour au point de départ : visio avec mon FAI. Je tombe sur un autre technicien, lui aussi tout aussi aimable et compétent. Il m’annonce alors, « Heuu et bien je crois que mon collègue n’a pas vérifié votre matériel et il apparaît que votre box n’est pas compatible avec l’option « Full Stack » (je n’ai pas tilté sur l’instant mais nous verrons ça plus loin). Il me confirme que cela reste possible mais qu’il faut que je migre sur une autre offre. Au passage le FAI me facturera des frais de migrations de 50 € et des frais d’envois de 19 €.

La mini machin « compatible »

Bon, je ne suis pas super enchanté, moi un abonnement nu adsl me va parfaitement. Tout ce que je veux c’est du réseau pour héberger je te dis ! La télé, le nas, la box avec lecteur bluray..; Heu je ne regarde pas la télé et puis pour les divers matériels j’ai déjà tout ça et c’est moi qui gère avec justement du réseau et de l’ip fixe. Alors on en est là ? Va pour une migration, mais les frais qui s’élèvent à 69 € je ne suis pas du tout d’accord.

Le technicien me propose de me mettre en relation avec le service commercial, un petit geste est possible. Après tout je suis abonné depuis quasi 10 ans chez le même FAI. Ok ! On tente, musique d’attente douce et suave et puis la dame me propose 3 mois d’abonnement gratuit en guise de remise sur les frais de migrations. J’y gagne un peu 29.99 X 3 =89.97 € – 69 € = 20.97 €. Bien, cela me convient après tout ils n’étaient pas obligés et moi non plus, il y a d’autres FAI, mais je l’aime bien celui là.

Je prépare ma box et je valide la commande pour la mini 4k sous android. Moins d’une semaine plus tard, c’est fait. Je reçoit la box, je valide l’ip Full Stack et je réinstalle tout le bazar. Bien évidemment j’ai encore changé d’IP, de nouveau : configuration du registar, dns, cname et tout le toutim. Tiens au passage, ça m’a permis de nettoyer un peu le réseau et le foutoir dans les reverse, les vm, les conf nginx & co. C’est pas du luxe, mais tant que ça fonctionne l’admin réseau est parfois disons un peu… Faignant ^^

Tout est de nouveau fonctionnel et sans frais supplémentaires. Il a tout compris merci Free.

Mais, revenons un instant sur l’histoire de l’ip full stack.

Deux jours avant l’arrivée physique de ma nouvelle box, l’option « obtenir une ip full stack » était déjà disponible dans mon interface. Je la valide donc immédiatement juste pour tester, je reboot ma box. Devinez ?

Et bien évidement que cela fonctionne ! Par quelle magie la box ne serait-elle pas compatible avec une ip ayant tout les ports attribués ? Et c’est là l’histoire du « je n’ai pas tilté à ce moment »

Je me retrouve dans la configuration idéale, même box, la crystal, ip fixe full stack et débits améliorés grâce à la med.

Sauf que, je n’ai pas eu le choix, il a fallu que je change d’abonnement, de box, que je passe 1 bonne heure en visio et au téléphone.

Alors interrogeons-nous ? Quel est le but, pourquoi un tel bridage ?

  • La disponibilité des IP V4, oui, on le sait c’est la pénurie, la caisse est vide.
  • Mais pourquoi ne pas avoir conservé mon ip fixe déja full stack ?

  • La freebox crystal ne serait pas compatible ?

  • C’est démontré, ce n’est disons… pas exact.

Ce que je pense, le FAI « économise » ses IP et dès qu’il en a l’occasion en file une en mode mutualisé. Le FAI n’en profiterai pas pour faire migrer les réfractaires plutôt geek sur des abonnements à plus forte value ? Après il est probablement réel que notre très chère Madame Michu se fiche pas mal d’avoir une ip mutualisée, d’ailleurs le sait-elle ? Où bien encore quel impact au quotidien si elle ne fait pas de l’hébergement ?

Cependant je pense que parfois il peut arriver que Mme Michu soit une pure geek, va savoir si son frigo n’est pas connecté et a besoin du port XX pour mettre à jour sa liste de course en live ?

Au final, je ne suis pas mécontent de la med, et un peu de mon FAI qui a fait le nécessaire, surtout, pour que je reste client.

Mais alors, franchement, pour mon cas, pour mes usages, même si elle est surement bien conçue, la box machin mini super 4k android, nas, tv replay, sans fil, de la mort qui tue j’en avais et j’en ai absolument aucune utilité. CQFD ?




Sophos…

Aujourd’hui, enfin, plutôt cette nuit, je me lance dans un petit upgrade d’un Sophos.

Alors déjà kezako un « Sophos » ? 

Ce que j’appelle un « Sophos« , mes amis, en fait c’est le nom d’une entreprise qui propose tout un tas de services, des anti-virus, des pare-feux, des anti-spyware et des UTM (précédemment commercialisés par Astaro). Dans le cas présent le mal dénommé « Sophos » par mes soins est le boitier physique qui permet d’installer un pack de sécurité proposé par cette entreprise.

Nous avons récupéré 4 Sophos UTM 110/120 que nous a donné l’entreprise Layer à Auxerre, il y a quelques temps et faute de s’en occuper ils traînaient sur une étagère, chose impensable, aux vues de ce que l’on peux réaliser avec ses bien sympathiques bêtes !

Dans cette petite boite, nous trouvons une carte mère qui embarque pour notre modèle, un Atom N450 dual core à 1.66 Ghz, 2 Go de Ram, hdd 320 Go , une sortie VGA, 2 ports usb et de 4 cartes ethernet, d’un port Compact Flash, et d’un port pour la carte wifi. Pas mal du tout et plutôt compact!!

Avec cette petite configuration, il est possible de faire tourner pas mal de choses, telles qu’un Windows7 (pour le fun), un Nas, Yunohost, un ubuntu, etc…. En fait de quoi bien s’amuser !! En plus c’est plutôt économe en énergie et surtout cela ne prends pas de place. Bon c’est vrai que c’est plus gros qu’un raspberry, mais c’est quand même bien plus costaud.

Ce soir dans un premier temps, je me charge de rajouter une carte wifi et d’installer les deux antennes extérieures, ce n’est pas primordial, j’aurais pus me contenter de les installer dedans et basta. Mais je trouve ça plus rigolo et puis la portée sera meilleure, surtout si on prévoit la création d’un ap wifi.

Allez hop, je démonte. Super seulement 4 visses extérieures et 4 autres intérieures pour accéder à la carte mère. C’est super top ! (va faire tomber une carte mère d’ordi portable et ses 40 visses grrrr).

 

Ensuite on ajoute une Compact Flash de 1 go qui était inutilisée depuis des années dans son emplacement. Cela pourra servir, pour un stockage de drivers, de fichiers, de boot etc…

On prépare maintenant la carte réseau wifi qui va venir prendre place juste à côté de la précédente carte CF. En même temps on essaye les pigtails pour venir brancher les antennes wifi. C’est prêt ! Il n’y a plus qu’a connecter le tout.

Il n’est pas obligatoire d’installer des antennes extérieures, c’est juste pour le fun et comme je le disais augmenter un peu (beaucoup) la portée d’émission  / réception. De toutes façons, soyons clairs, pour un serveur le wifi ce n’est pas le mieux. J’ai de nombreux serveurs en production, mais pour dire vrai aucun avec une connexion wifi seule. Enfin si, un ou deux raspberry en wifi only, mais c’est vraiment pour jouer, j’ai pas confiance en ce wifi, la portée, le hack, j’ai toujours trouvé cela un peu limite. Et en même temps, je passe mon temps connecté avec mon laptop en….wireless tiens, vas comprendre 🙂

Allez, la suite, faire de jolis trous pour laisser passer les pas de vis qui vont accueillir les antennes. Je n’ai jamais été très doué pour faire des trous précis, droits, au bon diamètre du premier coup. Ce n’est pas que je n’arrive pas à mes fins, je suis particulièrement entêté, mais cela prends très souvent plus de temps que prévu. D’ailleurs, encore plus souvent, ma réussite ne tiens pas compte de la complexité des opérations, il m’arrive d’être surpris d’avoir, sans forcer nullement, obtenu un résultat parfait sur une tâche qui me paraissait d’une complexité importante et à l’inverse, de subir, un échec cuisant sur une action qu’un enfant de 8 ans réaliserait d’un air dédaigneux. Là aussi, va savoir !

Il se trouve que chez PCLight, nous disposons d’une perceuse colonne qui va bien jouer son rôle.

En premier lieu, ou va t’on faire les trous ? Que cela ne gène rien, que cela ne touche rien, et que cela soit discret et fonctionnel, enfin faudrait que ça fasse « pro » quand même.

Et un trou, et deux p’tits trous dans la carcasse métallique juste à côté des interfaces rj45.

On glisse les connecteurs, on raccorde à la carte réseau, l’opération n’a pas durée plus de 5 minutes et le Sophos se retrouve upgradé.

Une compact flash de 1 go et du wifi embarqué. Maintenant que tout est en place, j’ai coutume d’allumer une fois l’appareil pour constater que tout est correctement en place. C’est assez rageant de tout remonter et de se rendre compte qu’un élément à été oublié. Ici ce n’est pas gênant, rappelons le : il n’y a que 4 vis pour démonter. J’allumerais donc le bazar quand tout sera remonté.

Voilà, vue de dos ce que cela donne, il ne reste plus qu’a visser les antennes et le tour est joué. Dès lors, la petite machine est prête à accueillir un système d’exploitation. Chez Pclight, les Sophos tournent avec Yunohost et plusieurs avec Ubuntu server.

Cependant une installation de Windows 7 tourne correctement pour les amateurs de Microsoft. Le pack de drivers est disponible ici. Nous avons ajouté un hub usb, car il n’y a que 2 ports disponibles et une carte son également en usb, le chipset audio étant bien évidemment absent sur une machine dédiée à l’origine pour de la sécurité réseau.

Voilà c’est terminé, il ne reste plus qu’a jouer avec.

Cela donne une seconde vie au matériel et je dois bien l’avouer pour un petit serveur cela tiens très bien la route, le cpu est amplement suffisant pour des requêtes mysql ou encore pour servir du wordpress.

 

Le prochain article sera consacré à la réalisation d’une borne d’arcade, à base de raspberry et le soft recalbox.

 

 




Il faut un début à tout….

Il faut un début à tout !

Allez, c’est parti, cette fois je me lance et j’écris. Oh oui, j’écris, mes délires, mes analyses, mes opinions, ma vision des choses, mes coups de gueule etc…

Cela fait des années, que j’écris soit sur des blogs, soit sur les réseaux sociaux, ou bien encore dans un fichier texte stocké en vrac dans les ordis et puis pffffiouuuu ça termine dans les bas-fonds d’un disque dur ou une clé usb. Au final donc, il n’en reste pas grand chose et surtout, surtout je ne relis jamais mes posts plusieurs années plus tard. Je serais bien curieux de voir, si je suis encore en accord avec mes propos du moment !

Alors cette fois, sur un site, ce sera plus facile, d’abord tout est au même endroit, de surcroît sur mon serveur, je pourrais maîtriser tout cela. Alors chiche…. Ami(s) lecteur(s) si tu t’es perdu jusqu’ici c’est que tu dois me connaître un brin, ou c’est juste que toi aussi, tu t’es perdu sur le net.

Mes posts sont souvent en lien avec une réaction aux faits d’actualités, mais pas que. Je suis un éternel geek, et comme tout geek qui se respecte je suis attiré par les éléments de ce qu’ils appellent la new tech, de part mes activités personnelles et associatives, je teste, je mets en place, je conseille. Sans prétention autre que mes 30 ans de pratique.

Voilà, c’est dis, alors il ne reste plus qu’a visiter le site et de se laisser tenter par un article.

Shussssssssssssssssssssssss

Kicik




Supercalculateur la France dans la course !

Ce mardi 8 Janvier 2019 le CNRS annonce qu’il va s’équiper du plus puissant supercalculateur de France.

Ce modèle aura une puissance de 14 PétaFlops soit au passage 14Millions de Milliards d’opérations par seconde !! Ce chiffre est difficilement compréhensible, disons que cela représente environ l’équivalent de 15000 ordinateurs. La facture (salée) sera de 25 Millions d’€uros, sans compter les dépenses annexes : énergétiques, maintenance, personnels etc…

Mais a quoi donc, un tel mastodonte  peut bien t’il servir et a quel niveau se situe la France par rapport aux autres grandes nations technologiques que sont les USA et la Chine ?

En premier lieux, il faut savoir que chaque supercalculateur à une puissance propre, la France est dans le top 5. Et ce futur nouveau supercalculateur ne sera pas le plus puissant ! Aux etats-unis le plus puissant se nomme le Summit et est doté d’une capacité de 200 PétaFlops. Le Sunway TaihuLight Chinois lui est capable d’un bon 93 PétaFlops.

Bon et bien alors nous avons l’air de quoi avec les 14 Pf annoncés ?

En fait il faut savoir en seconds lieux, que chaque supercalculateur est spécifique, c’est à dire qu’il sera plus doué dans tel ou tel catégorie. Donc pas de déconvenue, ce n’est pas parce-que le modèle US est plus puissant en performance brute qu’il sera plus à même de résoudre des opérations dans un domaine qui ne lui est pas proprement dédié.

Cela dit, la course est sans cesse remise en question et la barre de l’ExaFlop (Milliards de Milliards d’opération par seconde) est promise pour 2021-2022.

Et maintenant, ça va super méga vite, mais à quoi cela peut bien servir ?

De la prédiction, en terme de modèle météorologique par exemple, les prévisions en terme de calculs et probabilités étant extrêmement complexes et gourmandes en calcul.

Mais encore, de la médecine, oui vous avez bien lu, pour comprendre les interactions entre les cellules, les médicaments etc…

Et ce qui nous interpelle le plus actuellement, les applications sur de l’intelligence artificielle qui sont en pleine expansion ces dernières années. Les voitures autonomes pour la gestions des incidents de conduite en seraient complètement dépendantes.

Ce qui est le plus fou au final, c’est que nous avons tous à disposition d’une puissance de calcul délirante. que ce soit nos ordinateurs de bureau, nos smartphone ou bien encore les consoles de jeux.

Le CRAY 1 supercalculateur disposait d’une puissance de 166 MégaFlops en 1975 aujourd’hui le moindre smartphone dispose d’une puissance des dizaines de fois supérieure.

En guise de conclusion très personnelle, entre la débauche de moyens financiers, énergétiques, on peut se poser la question de la réelle utilité d’un tel outil. Quelle avancées réelles dans la vie de tous les jours de Mme Michu ? L’avenir nous dira….