Histoire illustrée de l’informatique

Un informaticien de Paris-Dauphine et un historien de Paris-Sorbonne se conjuguent pour livrer au public une histoire illustrée avec bibliographie, liste des musées et index. Dommage que la préface se place avant le sommaire, ce qui oblige à farfouiller pour savoir avant d’acheter ce qu’il y a dedans, que les caractères microscopiques soient pour des yeux de moins de 40 ans et que le format allongé soit peu commode pour la lecture comme pour la bibliothèque. Mais qui se soucie de ces détails parmi les allumés des algorithmes ?

histoire-illustree-de-l-informatique

L’antiquité prend 14 pages, la modernité mécanique 24, le début du XXe siècle 18, les premiers ordinateurs 32 pages, les gros systèmes 48 pages, les micro-ordinateurs 36 pages, la microinformatique 40 pages et l’ère des réseaux 27 pages. Ces 8 parties résument toute l’histoire… dont on voit aisément que le siècle dernier occupe 80% de l’ensemble.

Mais l’on apprend que l’on comptait déjà 4000 ans avant notre ère en Mésopotamie (tablettes) et que le calcul informatique commence dès les doigts d’une main avant de s’élaborer en mathématique. La computation ne se met en système qu’à l’aide des symboles et de la logique. Si l’on peut dire que compter est la chose du monde la mieux partagée, le mécanisme d’Anticythère (île grecque) datant du IIe siècle avant, « modélisant le cours des astres à l’aide de plus d’une trentaine d’engrenages », représente probablement le premier proto-ordinateur au monde. Presque mille ans plus tard, c’est le musulman ouzbek Al-Khwarizmi qui donnera son nom aux algorithmes « en explicitant les étapes nécessaires au calcul des racines », « début de l’algèbre (mot provenant de l’arabe Al-jabr ou opération de réduction) ».

reveil-lip

L’horloge mécanique en Europe au XIIe siècle apportera la précision technique sur les divisions du temps tandis qu’en 1614 l’Ecossais John Napier invente les logarithmes et des bâtonnets multiplicateurs, ancêtre de la machine pour calculer. La règle à calcul n’est inventée qu’en 1630 par William Oughtred tandis que, quinze ans plus tard, Pascal invente la pascaline, mécanique horlogère servant de machine à calculer. Passons sur le métier à tisser Jacquard en 1804, programmable à l’aide de cartes perforées, sur le code Morse en 1838 qui transforme des signes en informations électriques, sur l’arithmomètre d’Odhner en 1873, « le best-seller mondial des calculatrices de bureau » pour en arriver au XXe siècle – le siècle de l’informatique.

Les abaques de Monsieur d’Ocagne en 1905 permettent aux ingénieurs de travailler tandis que le totalisateur de paris mutuels organise le calcul en 1913 via un système d’engrenages. La carte perforée (que j’ai encore connue durant mes années d’études…) nait en 1928 et il faut attendre dix ans de plus pour que l’Américain Claude Shannon « propose d’appliquer l’algèbre de Boole aux circuits de commutation automatiques ».

Durant la Seconde guerre mondiale, le décryptage d’Enigma, la machine à chiffrer allemande, rassemble de brillants mathématiciens (dont Alan Turing) tout entier voués à introduire « la puissance des mathématiques dans la cryptanalyse ». Le calculateur Mark I naîtra chez IBM en 1944 pour la marine américaine. L’ENIAC de 18 000 tubes et 30 tonnes, construit en 1945, permet 5000 additions par seconde et permet d’étudier la faisabilité de la bombe H. Mais le premier programme enregistré n’émerge qu’en 1948 et Norbert Wiener introduit la même année la cybernétique. Les premiers ordinateurs commerciaux seront fabriqués en 1951 et le premier ordinateur français pour l’armement, CUBA, naît en 1954 – comme François Hollande.

Le transistor aussi, qui remplacera les vieilles lampes, et le disque dur émerge en 1956, le langage FORTRAN en 1957. Le premier circuit intégré comme le premier traitement de texte surgiront en 1958, le traitement de masse dans la banque avec l’IBM 705 en 1959 et le premier ordinateur personnel interactif français, le CRB 500 la même année. Tout va plus vite : les langages COBOL et ALGOL sont créés en 1960, en même temps que le fameux ordinateur IBM 1401. Le terme « informatique » ne naît qu’en 1962 : vous le saviez ? Le langage BASIC (ma première programmation) n’est élaboré qu’en 1964.

C’est l’année suivante que Gordon Moore, directeur de recherches chez Fairchild Semiconductor, énonce sa fameuse « loi de Moore », ressassée à longueurs d’articles geeks, selon laquelle la densité d’intégration sur circuit intégré double tous les deux ans (autrement dit, on peut mettre le double d’information sur la même surface). Il fondera INTEL en 1968, année du Plan calcul en France.

Arpanet, l’ancêtre d’Internet, est créé en 1969 par des scientifiques civils financés par le Pentagone. La même année, le mot « logiciel » arrive dans le vocabulaire et le système d’exploitation UNIX en 1970, comme la disquette souple. Le premier e-mail est lancé en 1971 et naît cette année-là la Silicon Valley. Nous entrons dans l’ère de la micro-informatique. Les microprocesseurs arrivent en 1975, année où est fondé Microsoft ; l’imprimante laser voit le jour en 1976, en même temps que l’ordinateur Cray I. L’Apple II (mon premier ordinateur) est commercialisé en 1977 et le réseau français Transpac est initialisé par le Ministère français des PTT en 1978 – sous Giscard – ce qui donnera le Minitel en 1982. Le premier tableur pour Apple II s’appelle VisiCalc et naît en 1979, juste après le premier jeu vidéo, et l’IBM PC (Personnal Computer) n’est créé qu’en 1981 – année où Mitterrand devient président.

facebook-logo-ecranfacebook-ecran

Le Mac d’Apple (mon second ordinateur) émerge en 1984 et le web en 1993 (j’étais passé deux ans avant sur Compaq). C’était hier et ce fut très rapide. Ma génération, qui a connu enfant les bouliers et les téléphones à manivelle, a dû s’adapter au portable, au mobile et aux réseaux. Amazon naît en 1995, Google en 1997, année du WiFi et de Bluetooth, la clé USB en 2000 et Wikipédia en 2001, les réseaux sociaux et l’iPhone en 2007 – année où Sarkozy devient président. Mais ce n’est pas fini : en 2011 émerge le cloud computing, le stockage en ligne, en 2012 l’imprimante 3D, en 2013 la réalité augmentée, en 2014 les objets connectés…

Cette histoire illustrée s’arrête là, provisoire comme toutes les histoires. A suivre ! comme l’on dit dans les comics. Beaucoup d’images, des textes courts, un progrès au galop mais qui resitue avec enthousiasme l’épopée de l’informatique : que faut-il de plus pour aimer ce livre ?

Emmanuel Lazard et Pierre Mounier-Kuhn, Histoire illustrée de l’informatique, 2016, EDP Sciences, 276 pages, €36.00 préface de Gérard Berry, professeur au Collège de France à la chaire Algorithmes, machines et langages, médaille d’or du CNRS 2014

Attachée de presse Elise CHATELAIN Communication et promotion des ouvrages
elise.chatelain @edpsciences.org

Catégories : Livres, Science | Étiquettes : , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,

Navigation des articles

Les commentaires sont fermés.

%d blogueurs aiment cette page :