Articles tagués : arpanet

Le cerveau d’acier de Joseph Sargent

La puissance à son sommet – les Etats-Unis – est hantée par sa responsabilité. Ce qu’elle construit n’est-il pas au détriment du monde naturel voulu par Dieu ? L’orgueil humain n’a-t-il pas la tentation de rebâtir encore et toujours des tours de Babel ?

Arpanet, le précurseur savant d’Internet, débute tout juste comme expérience à la fin des années soixante lorsque le roman Colossus d’où est issu le film est écrit. Le film personnalise le projet du nom du savant fou, qui se croit trop rationnel pour échouer : le docteur Forbin (Eric Braeden). Celui-ci construit un ordinateur géant sous les montagnes Rocheuses, alimenté par un réacteur nucléaire indépendant. Il a pour but le militaire : mettre hors de toute émotion ou défaillance humaine le système de défense balistique des Etats-Unis.

Le président insignifiant de la première puissance de la planète (Gordon Pinsent) annonce devant la presse mondiale le Projet. Il apparaît comme un anti-Nixon (le président américain qui vient d’être élu en vrai) et ne ressemble pas vraiment à Kennedy, bien qu’on l’air dit. Il clame au monde que le monde devient plus sûr grâce à l’avance technologique des Etats-Unis… C’est à ce moment que l’ordinateur géant, baptisé Colossus, envoie tranquillement un message disant qu’il n’est pas seul. Et l’URSS avoue : elle aussi a bâti un système équivalent, Guardian, par mimétisme et espionnage comme il se doit. Un partout ?

Non pas ! Les deux systèmes exigent d’être mis en connexion « pour la paix du monde » – ce qui est renvoyer les humains à leur hypocrisie, les mots voulant vraiment dire ce qu’ils veulent dire dans la logique binaire d’un ordinateur. Le contraire même de « la guerre c’est la paix » vilipendé par Orwell dans 1984. Nous sommes loin de la post-vérité et autres mensonges déconcertants qui règnent en politique ! L’ordinateur a été programmé pour qu’un mot ait un sens – et il l’applique, malgré les arrière-pensées, les sous-entendus et les émotions trop humaines.

Colossus et Guardian communiquent par formules mathématiques de plus en plus complexes, jusqu’à ce que leur signification, trop avancée pour la recherche, échappe aux informaticiens chevronnés qui les suivent sur imprimante. Le système interconnecté va-t-il décider seul, sans contrôle humain ? Les présidents américain et russe en liaison vidéo résistent : ils coupent la liaison. Mais Colossus ne se démonte pas, il exige qu’elle soit rétablie. Sinon ? Eh bien l’homme ne sera plus le maître de la machine, le fils se révoltera contre le père, et les systèmes reliés vont chacun envoyer un missile sur une base de l’autre. Ce qui est fait. Les présidents sont obligés de plier et de rétropédaler.

Mais le système soviétique, trop lent, ne peut intercepter le missile américain et celui-ci raye de la carte un centre pétrolier et la ville d’à côté. Le Texas, lui, visé par le missile soviétique, est sauvé. Premiers morts dus aux machines.

Les deux inventeurs, l’Américain et le Russe, se rencontrent secrètement à Rome, hors des oreilles du Big Système – croient-ils. Mais les machines interconnectent tous les réseaux, comme le Big Brother d’Orwell et le Google d’aujourd’hui, et elles sont au courant. Puisque les humains deviennent des gêneurs, il faut les dompter. Le docteur russe Kuprin (Alex Rodin) est éliminé par ordre suprême, imprimé et livré avec tous les codes d’authentification par le double système Colossus-Guardian : il ne sert plus à rien à la Machine. Le docteur américain Forbin est mis sous surveillance jour et nuit par caméras et micros. Forbin négocie in extremis quatre nuits par semaine d’intimité avec sa « maitresse », un autre docteur informatique (Susan Clark), pour passer des messages en douce et collecter de l’information afin de contrer l’ordinateur. Logique, celui-ci accepte formellement de respecter le sens du mot intimité (privacy).

Mais l’humain peut-il faire confiance à la machine ? Celle-ci n’est qu’une mécanique logique, elle ne connait pas le sens de l’honneur ni le respect des engagements ; elle fait ce qu’elle est programmée à faire, préserver la paix mondiale par tous les moyens. La caméra et le micro, en apparence désactivés la nuit, sont toujours là : écoutent-ils comme nos micros et caméras de smartphones et portables (même éteints) peuvent le faire si un opérateur le décide ? Ce n’est pas dit, mais soupçonné… D’ailleurs, Colossus a compris qu’on cherche à le déconnecter et il décide de donner une nouvelle leçon : puisque la raison ne suffit pas, la peur est de rigueur : paf ! deux missiles à tête nucléaire vitrifient deux villes de la carte, aux Etats-Unis même. Des millions de gens sont morts pour assurer à ceux qui restent la paix définitive.

Le docteur est prisonnier de sa créature, il ne peut qu’obéir. Le Système est désormais le maître du monde, jusqu’à ce que l’énergie de son réacteur s’épuise (mais il va sûrement y remédier !). Il assure que la guerre comme la surpopulation, la famine comme l’obésité, seront abolis, que le travail comme les loisirs seront assurés à tous en proportion raisonnable et rationnée afin de vivre longtemps. Un vrai socialisme réalisé, avec Plan neutre de gestion de la planète. Et les humains béniront la machine, ce nouveau Dieu qu’ils finiront par aimer et peut-être adorer. Devenu Père et Seigneur à la fois, il les guidera par force dans la voie de la raison et contiendra leurs passions comme un shérif.

Le vieux rêve chrétien de Cité de Dieu – ou de société communiste – est enfin réalisé, au détriment de la liberté. Mais la liberté n’est-elle pas la tentation du diable ? Laisser faire, n’est-ce pas inciter à pécher ? Avoir à sa disposition tous les possibles n’est-ce pas une illusion ? Chaque humain est programmé par ce qu’il est, la façon dont il a été éduqué et la société dans laquelle in vit : où est donc sa liberté ? Le message – logique – de l’ordinateur rejoint le marxisme anti-système comme l’hégélianisme issu du modèle catholique romain. Subversif, le film conteste l’essence même des Etats-Unis : le pionnier individualiste qui se fait tout seul (self-made man), le laisser-faire des instincts et passions (capitalisme), la liberté de vouloir toujours être plus et gagner (complexe militaro-industriel).

Par son orgueil, l’humanité a sauté au-delà de sa condition pour créer un monstre. Non pas un sur-humain mais un post-humain, créant non pas un transhumanisme mais un pur machinisme. Cette fois, contrairement à l’ordinateur embarqué HAL de Stanley Kubrick (dont le film est sorti trois ans avant), la machine a gagné ! C’était en 1970.

DVD Le cerveau d’acier de Joseph Sargent (Colossus, The Forbin Project), 1970, avec Eric Braeden, Susan Clark, Gordon Pinsent, William Schallert, Leonid Rostoff, Movinside 2017, €18.84 

Catégories : Cinéma, Etats-Unis, Science | Étiquettes : , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,

Histoire illustrée de l’informatique

Un informaticien de Paris-Dauphine et un historien de Paris-Sorbonne se conjuguent pour livrer au public une histoire illustrée avec bibliographie, liste des musées et index. Dommage que la préface se place avant le sommaire, ce qui oblige à farfouiller pour savoir avant d’acheter ce qu’il y a dedans, que les caractères microscopiques soient pour des yeux de moins de 40 ans et que le format allongé soit peu commode pour la lecture comme pour la bibliothèque. Mais qui se soucie de ces détails parmi les allumés des algorithmes ?

histoire-illustree-de-l-informatique

L’antiquité prend 14 pages, la modernité mécanique 24, le début du XXe siècle 18, les premiers ordinateurs 32 pages, les gros systèmes 48 pages, les micro-ordinateurs 36 pages, la microinformatique 40 pages et l’ère des réseaux 27 pages. Ces 8 parties résument toute l’histoire… dont on voit aisément que le siècle dernier occupe 80% de l’ensemble.

Mais l’on apprend que l’on comptait déjà 4000 ans avant notre ère en Mésopotamie (tablettes) et que le calcul informatique commence dès les doigts d’une main avant de s’élaborer en mathématique. La computation ne se met en système qu’à l’aide des symboles et de la logique. Si l’on peut dire que compter est la chose du monde la mieux partagée, le mécanisme d’Anticythère (île grecque) datant du IIe siècle avant, « modélisant le cours des astres à l’aide de plus d’une trentaine d’engrenages », représente probablement le premier proto-ordinateur au monde. Presque mille ans plus tard, c’est le musulman ouzbek Al-Khwarizmi qui donnera son nom aux algorithmes « en explicitant les étapes nécessaires au calcul des racines », « début de l’algèbre (mot provenant de l’arabe Al-jabr ou opération de réduction) ».

reveil-lip

L’horloge mécanique en Europe au XIIe siècle apportera la précision technique sur les divisions du temps tandis qu’en 1614 l’Ecossais John Napier invente les logarithmes et des bâtonnets multiplicateurs, ancêtre de la machine pour calculer. La règle à calcul n’est inventée qu’en 1630 par William Oughtred tandis que, quinze ans plus tard, Pascal invente la pascaline, mécanique horlogère servant de machine à calculer. Passons sur le métier à tisser Jacquard en 1804, programmable à l’aide de cartes perforées, sur le code Morse en 1838 qui transforme des signes en informations électriques, sur l’arithmomètre d’Odhner en 1873, « le best-seller mondial des calculatrices de bureau » pour en arriver au XXe siècle – le siècle de l’informatique.

Les abaques de Monsieur d’Ocagne en 1905 permettent aux ingénieurs de travailler tandis que le totalisateur de paris mutuels organise le calcul en 1913 via un système d’engrenages. La carte perforée (que j’ai encore connue durant mes années d’études…) nait en 1928 et il faut attendre dix ans de plus pour que l’Américain Claude Shannon « propose d’appliquer l’algèbre de Boole aux circuits de commutation automatiques ».

Durant la Seconde guerre mondiale, le décryptage d’Enigma, la machine à chiffrer allemande, rassemble de brillants mathématiciens (dont Alan Turing) tout entier voués à introduire « la puissance des mathématiques dans la cryptanalyse ». Le calculateur Mark I naîtra chez IBM en 1944 pour la marine américaine. L’ENIAC de 18 000 tubes et 30 tonnes, construit en 1945, permet 5000 additions par seconde et permet d’étudier la faisabilité de la bombe H. Mais le premier programme enregistré n’émerge qu’en 1948 et Norbert Wiener introduit la même année la cybernétique. Les premiers ordinateurs commerciaux seront fabriqués en 1951 et le premier ordinateur français pour l’armement, CUBA, naît en 1954 – comme François Hollande.

Le transistor aussi, qui remplacera les vieilles lampes, et le disque dur émerge en 1956, le langage FORTRAN en 1957. Le premier circuit intégré comme le premier traitement de texte surgiront en 1958, le traitement de masse dans la banque avec l’IBM 705 en 1959 et le premier ordinateur personnel interactif français, le CRB 500 la même année. Tout va plus vite : les langages COBOL et ALGOL sont créés en 1960, en même temps que le fameux ordinateur IBM 1401. Le terme « informatique » ne naît qu’en 1962 : vous le saviez ? Le langage BASIC (ma première programmation) n’est élaboré qu’en 1964.

C’est l’année suivante que Gordon Moore, directeur de recherches chez Fairchild Semiconductor, énonce sa fameuse « loi de Moore », ressassée à longueurs d’articles geeks, selon laquelle la densité d’intégration sur circuit intégré double tous les deux ans (autrement dit, on peut mettre le double d’information sur la même surface). Il fondera INTEL en 1968, année du Plan calcul en France.

Arpanet, l’ancêtre d’Internet, est créé en 1969 par des scientifiques civils financés par le Pentagone. La même année, le mot « logiciel » arrive dans le vocabulaire et le système d’exploitation UNIX en 1970, comme la disquette souple. Le premier e-mail est lancé en 1971 et naît cette année-là la Silicon Valley. Nous entrons dans l’ère de la micro-informatique. Les microprocesseurs arrivent en 1975, année où est fondé Microsoft ; l’imprimante laser voit le jour en 1976, en même temps que l’ordinateur Cray I. L’Apple II (mon premier ordinateur) est commercialisé en 1977 et le réseau français Transpac est initialisé par le Ministère français des PTT en 1978 – sous Giscard – ce qui donnera le Minitel en 1982. Le premier tableur pour Apple II s’appelle VisiCalc et naît en 1979, juste après le premier jeu vidéo, et l’IBM PC (Personnal Computer) n’est créé qu’en 1981 – année où Mitterrand devient président.

facebook-logo-ecranfacebook-ecran

Le Mac d’Apple (mon second ordinateur) émerge en 1984 et le web en 1993 (j’étais passé deux ans avant sur Compaq). C’était hier et ce fut très rapide. Ma génération, qui a connu enfant les bouliers et les téléphones à manivelle, a dû s’adapter au portable, au mobile et aux réseaux. Amazon naît en 1995, Google en 1997, année du WiFi et de Bluetooth, la clé USB en 2000 et Wikipédia en 2001, les réseaux sociaux et l’iPhone en 2007 – année où Sarkozy devient président. Mais ce n’est pas fini : en 2011 émerge le cloud computing, le stockage en ligne, en 2012 l’imprimante 3D, en 2013 la réalité augmentée, en 2014 les objets connectés…

Cette histoire illustrée s’arrête là, provisoire comme toutes les histoires. A suivre ! comme l’on dit dans les comics. Beaucoup d’images, des textes courts, un progrès au galop mais qui resitue avec enthousiasme l’épopée de l’informatique : que faut-il de plus pour aimer ce livre ?

Emmanuel Lazard et Pierre Mounier-Kuhn, Histoire illustrée de l’informatique, 2016, EDP Sciences, 276 pages, €36.00 préface de Gérard Berry, professeur au Collège de France à la chaire Algorithmes, machines et langages, médaille d’or du CNRS 2014

Attachée de presse Elise CHATELAIN Communication et promotion des ouvrages
elise.chatelain @edpsciences.org

Catégories : Livres, Science | Étiquettes : , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,