PROJET AUTOBLOG


Reflets

Site original : Reflets

⇐ retour index

Si tu peux envoyer des hommes sur la lune avec 4Ko de RAM, tout est possible…

mardi 17 décembre 2013 à 12:52

L’informatique est une science étonnante. Devenue « technologie », elle offre des possibilités incroyables. Nous en voyons les effets directs aujourd’hui avec les révélations des écoutes de la NSA fournies gracieusement par Snowden : écouter l’intégralité de la population planétaire (ou presque), voilà un plan que tous les maîtres du monde en puissance rêvaient de pouvoir mener à bien. C’est chose faite, paraît-il, grâce à l’informatique.

Et il y a encore d’autre possibilité inouïes offertes par les capacités de « computing » que les « zordinateurs » pourraient opérer dans le futur selon les ténors de la Sillicon Valley fondus de BIC, comme uploader le cerveau de quelqu’un dans un disque dur, ou créer un paradis binaire dans lequel les morts pourraient continuer à évoluer.

Whaaaou. Trop cool.

Mais ce que peu de gens connaissent au sujet de l’informatique et touche à son histoire, son évolution au cours du temps, c’est son origine, ses étapes, ses limites. Avec ce type d’informations, on comprend mieux que tout n’est pas aussi limpide que ce qu’on veut bien nous montrer ou nous démontrer. Et c’est là que c’est amusant. Alors comme nous sommes justement ICI pour nous amuser, embarquons un instant dans la machine à remonter le temps…

Une femme crée le premier programme informatique !

Naaaaaaan ! C’est pas possible ! Et si. Alors qu’il y a 90% d’hommes dans le domaine informatique, la première personne au monde à avoir créé un programme est une femme ! Pas possible ! Dingue ! Oui, au XIXème siècle en plus. Ada Lovelace. Sur une machine analytique qui pouvait « procédurer ». Et pour ça, la fille qui bosse avec Babage sur sa machine, invente la notion d’algorithme et pond le premier prog’. Etonnant. Mais vrai.

Dans ses notes, on trouve le premier algorithme publié, destiné à être exécuté par une machine, ce qui fait considérer Ada Lovelace comme une programmeuse, voire « le premier programmeur du monde ». Elle a également entrevu et décrit certaines possibilités offertes par les calculateurs universels, allant bien au-delà du calcul numérique et de ce qu’imaginaient Babbage et ses contemporains.

Source : Wikipédia

Mais tout ça est encore théorique, le véritable zordinateur n’est pas encore né. Mais pas loin.

Des machines à carte perforées : ah ouais ?

Pour les plus âgés du club Reflets©, la carte perforée n’est pas seulement une antiquité du XIXème siècle, et pour preuve, l’auteur de ces lignes en a vu fonctionner dans des abattoirs en 1979, sur les ordinateurs des dits abattoirs. Un rectangle en carton avec des trous carrés dedans. Et une bécane qui la mange, la carte perforée, et qui crache des résultats sur une imprimante à aiguille qui fait crrrrr crrrr crrrrr. Oui, absolument. Mais cette carte perforée a été inventée en France, pour des métiers à tisser mécaniques Jacquard, à Lyon…au XIXème siècle (la machine de Babage s’en sert d’ailleurs). L’ancêtre des ordinateurs binaires est donc un métier à tisser. Ca marchait tellement bien qu’IBM pique la technologie au début du XXème et s’en servira pour plein de choses très utiles (pour certains), comme vendre un système à cartes perforées permettant de ficher les juifs français pendant l’occupation. Avec un numéro unique de…sécurité sociale que le gouvernement de Vichy tenait absolument à mettre en place. C’est fort l’informatique. Plus fort que pas mal de choses. Venons-en à la suite, parce que si les ordinateurs lisent des cartes perforées, on ne parle pas encore d’ordinateur jusqu’àu milieu des années 30. Ce sont surtout des machines mécaniques, avec un traitement binaire, mais pas plus.

Des lampes et des transistors

La seconde guerre mondiale va accélérer un peu les choses, et les premiers ordinateurs vont être construits par l’armée américaine pour calculer des trajectoires  de gros machins qui explosent. Des dizaines d’opérateurs(trices) avec des cables qu’on fiche pour faire des 0 et des 1, le tout avec des lampes qui s’allument et s’éteignent : pas très sexy ni très performant. Il faut dire que la rétention de l’information, soit le 0, soit le 1 passe par ces fameuses lampes. Ca chauffe les lampes, c’est lent, ça ne retient pas grand chose comme information. Bref, le transistor est inventé, un peu avant 1950, au sein du laboratoire Bell. Là, c’est mieux, ça conserve plus l’info, c’est plus petit, c’est le début de l’informatique moderne. Mais vraiment un tout petit peu. Semi-conducteurs, premiers pas dans les langages dans les années 50, premiers circuits imprimés dans les années 60, sur de la bakélite. Ces fameuses années 60 où l’on rêve d’un futur de science-fiction… Mais où l’on a toujours pas d’OS digne de ce nom, ni de multitâche, ni de communication entre ordinateurs :

Les premiers systèmes d’exploitation datent des années 1960. Avec la deuxième génération d’ordinateurs, la gestion des périphériques s’alourdit. Il devint impossible pour un programmeur de concevoir à la fois les logiciels d’application et les logiciels de gestion de la machine. Une distinction s’établit donc entre les applications (programmes de l’utilisateur) et les programmes système (logiciel de gestion des ressources de la machine). Dans une première étape, les logiciels système sont composés de programmes de gestion des entrées-sorties. (…) Dès les années 1970, les systèmes ont permis aux utilisateurs d’accéder aux machines à distance : par l’intermédiaire de terminaux reliés à ces machines par des liaisons téléphoniques, l’utilisateur éloigné pouvait soumettre des lots de travaux ou encore utiliser le temps partagé. (source Wikipedia)

Attention le rêve technologique commence

Comme le présente si bien cet extrait de Wikipedia à propos de l’histoire de l’informatique :

Jusqu’aux années 1980, les ordinateurs recevaient les programmes et les données sur des cartes, des rubans perforés ou des bandes magnétiques. Ils renvoyaient leurs résultats quand ils étaient terminés ou retournaient des messages d’erreur énigmatiques. Il n’y avait pas de possibilité d’interaction pendant l’exécution. Dans cette période, l’informatique s’est surtout développée pour calculer des fonctions en référence à une théorie du calcul ou pour la gestion des entreprises. La question des entrées-sorties est alors vue comme une question secondaire. Le temps compte en tant que durée des processus de calcul, pas comme temps réel. La question de l’interaction s’est d’abord posée dans le contrôle des processus industriels pour lequel le temps compte comme l’instant de la décision. Dans les années 1980 sont apparus de nouveaux types de machines informatiques avec disque dur, écran et clavier. Elles ont d’abord fonctionné en mode « ligne de commande », purement textuel et asynchrone. C’est de cette époque que datent les premiers langages interprétés comme Lisp et Basic. Au lieu d’écrire un programme, l’usager tape une commande qui est exécutée. Il garde le contrôle du processus de calcul et peut tenir compte des résultats précédents pour enchaîner.

Et oui, ça reste un peu light en 1969, puisque les premières bribes du premiers système d’exploitation, Unix, débute en 1973, avec le langage C, sur des grosses bécanes dans une cave de la sécu américaine, tout ça programmé par deux barbus sous lsd. L’informatique, en 1969, c’est donc encore un truc assez lourdingue et assez primaire : les capacités de traitement sont plutôt faibles, et demandent, quand on veut calculer du lourd, des machines qui remplissent un ou deux salons modernes. Mais on peut faire des merveilles, avec peu, surtout aux Etats-Unis. C’est ainsi que la NASA envoie des hommes sur la lune avec des ordinateurs embarqués dans l’espace : trop fort !

En 2009, lors de la célébration des 40 ans cet exploit mondial qui a démontré la suprématie américaine sur son ennemi soviétique, on ne tarit pas d’éloges sur les exploits informatiques d’Appolo 11 : imaginez quand même que deux  ordinateurs embarqués vont assister les astronautes dans leur alunissage ! Sans microprocesseur (le brevet date de 71, déposé par Intel, grâce à un Français d’origine vietnamienne).

Whooooo : trop balèze, matez-moi ça :

461354-un-compagnon-obligatoire-pour-la-conquete-de-l-espace

 

Un exploit technologie ces ordis embarqués de 1969, comme le souligne le journaldunet en 2009 :

Calculer des trajectoires, des distances, des vitesses, actionner des commandes ; l’ordinateur s’impose dans la course à la lune entre les russes et les américains comme une nécessité dès les années 60. Pour la mission Apollo 11, qui le 20 juillet 1969 allait réaliser l’exploit de permettre à un être humain de fouler le sol lunaire, ce sont deux ordinateurs qui sont embarqués, identiques, un sur le module lunaire, un autre sur le module de commande resté en rotation satellitaire autour de la lune.

Chaque ordinateur pèse 32 kilos. Leur puissance CPU est de 1 MHz, pour une RAM s’élevant à 4Ko et une ROM à 36Ko. Une puissance qui ne laissait pas la place à du code superflu, chaque ligne correspondant à une fonction précise.

Mais l’ordinateur a eu un problème pendant la phase d’alunissage. Il a en effet du rebooter et Neil Armstrong a été dans l’obligation d’alunir de manière manuelle dans les derniers instants de la manœuvre, l’appareil se posant finalement à plus de 6 kilomètres de la cible initiale.

Certes, malgré l’exploit technique pour l’époque, et l’interface rudimentaire de la machine, comme l’explique le journaliste, tout ça était quand même très futuriste pour l’époque :

461348-une-interface-rudimentaireOn comprend mieux la difficulté des astronautes avec leur gros gants, dans leur boite de conserve en aluminium (2,5 cm d’épaisseur l’alu) qui tapent sur la calculette pour permettre à la bécane avec 4096 octets de mémoire vive de gérer le soft dans la ROM de 36 Ko qui calcule la trajectoire pour poser l’engin.  On n’en saura pas plus sur la partie réseau de l’affaire puisque les premiers protocoles informatique réseaux sont à peine créés (TCP-IP est défini en 1973 et les premiers ordinateurs qui communiquent entre eux, le font cette même année 1969), mais la NASA a bien le droit d’avoir ses petits secrets. 4096 octets quand même ! Pour écrire un nombre compris entre 0 et 255 dans une adresse IP, par exemple, on bouffe déjà un octet. Genre le chiffre 131, ça fait 10000011. Et hop, un octet de bouffé. Mais à l’époque on optimisait le code, pas comme maintenant.

L’ordinateur de bord, appelé couramment AGC (Apollo Guidance Computer), a étéconçu par un laboratoire du MIT (Massachusetts Institute of Technology) et construit par les entreprises Raytheon et AC Delco. Pour le manipuler, les astronautes disposent d’une interface, appelée DSKY, soit DiSplay/KeYboard.

Chose très surprenante pour l’époque, mais qui demeure toujours un exploit technique 40 ans plus tard, l’AGC avait été conçu pour être multitâche. Il utilisait en effet un système d’exploitation nommé EXEC, qui permettait d’exécuter 8 taches en même temps.

Les commandes étaient entrées dans l’ordinateur par un système de combinaison verbe-nom de manière chiffrée. Il est assez frappant quand on écoute les bandes sonores de l’alunissage d’entendre les astronautes faire référence à ces commandes informatiques lors de leurs communications avec le centre spatial de Houston.

Ils sont forts ces Américains quand même. Très forts.

Mais pourquoi toute cette histoire ?

Pour (dé)montrer plusieurs choses. La première est qu’en 2009, lorsque plein de petits complotistes assez minables tentent de faire chanter la NASA en lui demandant de montrer des preuves du matériel lunaire laissé sur l’astre mort, les vidéos originales d’Armstrong, et bien, la NASA ne se défile pas. Alors qu’elle a des problèmes, parce que toutes les archives originales ont été perdues, et c’est ballot, mais c’est comme ça. Elle donne donc, la NASA, des photos prises par une sonde qui montrent les traces américaines toujours en place sur l’astre lunaire :

lune1Donc, là, franchement, le premier qui vient dire que ce n’est pas clairement établi, il se fout de la gueule du monde, hein ! Et tout ça a été réalisé avec 4 Ko de RAM et 36 Ko de ROM (Pas 32 Ko, mais 36).

Ce qui est donc important à retenir de cette histoire de l’informatique, et des performances américaines grâce à cet outil fantastique qu’est l’informatique, comme envoyer des hommes sur la lune avec 4Ko de mémoire vive, c’est que tout est possible, et que le plus important n’est pas ce que peut réaliser l’Amérique avec cette technologie, mais ce qu’on la voit réaliser. Comme par exemple surveiller les faits et gestes d’un continent. De rapatrier des pétatoctets de données privées à travers les routeurs de service de pays comme la France, sans qu’aucun ingénieur n’y voit que du feu, et qu’aucun problème de trafic ne survienne. Et cet exploit technologique de surveillance globale est prouvé : tout le monde a vu les slides Power Point d’Edward Snowden, y’a donc pas de doute. Parce qu’il est vrai que démontrer cet exploit technologique que sont Prism et compagnies ne mérite pas mieux que des Slide bigarrés, n’est-ce pas ? Comme les preuves des traces des Américains sur la Lune ?

En conclusion : le système panoptique a-t-il besoin de preuves ?

Non, et c’est justement là son principe. Ce qu’il faut pour créer une société panoptique, c’est faire croire, laisser entendre aux personnes qu’elles sont sous surveillance. Pour qu’elles s’auto-censurent. Qu’elles soient leurs propres gardiens de prison. Si vous voyez des caméras de partout, elles peuvent être éteintes. Vous ne pouvez pas le savoir. Mais ce qui est important c’est que vous acceptiez qu’elles puissent être allumées, qu’elles vous observent. Si vous voulez qu’une population planétaire qui commence à s’énerver sur un réseau lui aussi planétaire, n’ose plus contester grand chose, vous lui signifiez qu’elle n’est plus libre sur ce réseau. Que vous avez les moyens de la contrôler, de la surveiller. Que vous savez tout sur elle. Qu’elle est piégée. Que vos moyens sont colossaux. Que vous êtes les plus forts. Et que personne n’ose vous contester ce phénomène. Après tout, vous avez été capable d’envoyer des hommes sur la Lune avec 4Ko de RAM alors que personne n’a réussi à réitérer l’exploit 44 ans après, avec des ordinateurs 10 millions de fois pus performants…

Share and Enjoy

flattr this!