Articles tagués : loi de moore

Histoire illustrée de l’informatique

Un informaticien de Paris-Dauphine et un historien de Paris-Sorbonne se conjuguent pour livrer au public une histoire illustrée avec bibliographie, liste des musées et index. Dommage que la préface se place avant le sommaire, ce qui oblige à farfouiller pour savoir avant d’acheter ce qu’il y a dedans, que les caractères microscopiques soient pour des yeux de moins de 40 ans et que le format allongé soit peu commode pour la lecture comme pour la bibliothèque. Mais qui se soucie de ces détails parmi les allumés des algorithmes ?

histoire-illustree-de-l-informatique

L’antiquité prend 14 pages, la modernité mécanique 24, le début du XXe siècle 18, les premiers ordinateurs 32 pages, les gros systèmes 48 pages, les micro-ordinateurs 36 pages, la microinformatique 40 pages et l’ère des réseaux 27 pages. Ces 8 parties résument toute l’histoire… dont on voit aisément que le siècle dernier occupe 80% de l’ensemble.

Mais l’on apprend que l’on comptait déjà 4000 ans avant notre ère en Mésopotamie (tablettes) et que le calcul informatique commence dès les doigts d’une main avant de s’élaborer en mathématique. La computation ne se met en système qu’à l’aide des symboles et de la logique. Si l’on peut dire que compter est la chose du monde la mieux partagée, le mécanisme d’Anticythère (île grecque) datant du IIe siècle avant, « modélisant le cours des astres à l’aide de plus d’une trentaine d’engrenages », représente probablement le premier proto-ordinateur au monde. Presque mille ans plus tard, c’est le musulman ouzbek Al-Khwarizmi qui donnera son nom aux algorithmes « en explicitant les étapes nécessaires au calcul des racines », « début de l’algèbre (mot provenant de l’arabe Al-jabr ou opération de réduction) ».

reveil-lip

L’horloge mécanique en Europe au XIIe siècle apportera la précision technique sur les divisions du temps tandis qu’en 1614 l’Ecossais John Napier invente les logarithmes et des bâtonnets multiplicateurs, ancêtre de la machine pour calculer. La règle à calcul n’est inventée qu’en 1630 par William Oughtred tandis que, quinze ans plus tard, Pascal invente la pascaline, mécanique horlogère servant de machine à calculer. Passons sur le métier à tisser Jacquard en 1804, programmable à l’aide de cartes perforées, sur le code Morse en 1838 qui transforme des signes en informations électriques, sur l’arithmomètre d’Odhner en 1873, « le best-seller mondial des calculatrices de bureau » pour en arriver au XXe siècle – le siècle de l’informatique.

Les abaques de Monsieur d’Ocagne en 1905 permettent aux ingénieurs de travailler tandis que le totalisateur de paris mutuels organise le calcul en 1913 via un système d’engrenages. La carte perforée (que j’ai encore connue durant mes années d’études…) nait en 1928 et il faut attendre dix ans de plus pour que l’Américain Claude Shannon « propose d’appliquer l’algèbre de Boole aux circuits de commutation automatiques ».

Durant la Seconde guerre mondiale, le décryptage d’Enigma, la machine à chiffrer allemande, rassemble de brillants mathématiciens (dont Alan Turing) tout entier voués à introduire « la puissance des mathématiques dans la cryptanalyse ». Le calculateur Mark I naîtra chez IBM en 1944 pour la marine américaine. L’ENIAC de 18 000 tubes et 30 tonnes, construit en 1945, permet 5000 additions par seconde et permet d’étudier la faisabilité de la bombe H. Mais le premier programme enregistré n’émerge qu’en 1948 et Norbert Wiener introduit la même année la cybernétique. Les premiers ordinateurs commerciaux seront fabriqués en 1951 et le premier ordinateur français pour l’armement, CUBA, naît en 1954 – comme François Hollande.

Le transistor aussi, qui remplacera les vieilles lampes, et le disque dur émerge en 1956, le langage FORTRAN en 1957. Le premier circuit intégré comme le premier traitement de texte surgiront en 1958, le traitement de masse dans la banque avec l’IBM 705 en 1959 et le premier ordinateur personnel interactif français, le CRB 500 la même année. Tout va plus vite : les langages COBOL et ALGOL sont créés en 1960, en même temps que le fameux ordinateur IBM 1401. Le terme « informatique » ne naît qu’en 1962 : vous le saviez ? Le langage BASIC (ma première programmation) n’est élaboré qu’en 1964.

C’est l’année suivante que Gordon Moore, directeur de recherches chez Fairchild Semiconductor, énonce sa fameuse « loi de Moore », ressassée à longueurs d’articles geeks, selon laquelle la densité d’intégration sur circuit intégré double tous les deux ans (autrement dit, on peut mettre le double d’information sur la même surface). Il fondera INTEL en 1968, année du Plan calcul en France.

Arpanet, l’ancêtre d’Internet, est créé en 1969 par des scientifiques civils financés par le Pentagone. La même année, le mot « logiciel » arrive dans le vocabulaire et le système d’exploitation UNIX en 1970, comme la disquette souple. Le premier e-mail est lancé en 1971 et naît cette année-là la Silicon Valley. Nous entrons dans l’ère de la micro-informatique. Les microprocesseurs arrivent en 1975, année où est fondé Microsoft ; l’imprimante laser voit le jour en 1976, en même temps que l’ordinateur Cray I. L’Apple II (mon premier ordinateur) est commercialisé en 1977 et le réseau français Transpac est initialisé par le Ministère français des PTT en 1978 – sous Giscard – ce qui donnera le Minitel en 1982. Le premier tableur pour Apple II s’appelle VisiCalc et naît en 1979, juste après le premier jeu vidéo, et l’IBM PC (Personnal Computer) n’est créé qu’en 1981 – année où Mitterrand devient président.

facebook-logo-ecranfacebook-ecran

Le Mac d’Apple (mon second ordinateur) émerge en 1984 et le web en 1993 (j’étais passé deux ans avant sur Compaq). C’était hier et ce fut très rapide. Ma génération, qui a connu enfant les bouliers et les téléphones à manivelle, a dû s’adapter au portable, au mobile et aux réseaux. Amazon naît en 1995, Google en 1997, année du WiFi et de Bluetooth, la clé USB en 2000 et Wikipédia en 2001, les réseaux sociaux et l’iPhone en 2007 – année où Sarkozy devient président. Mais ce n’est pas fini : en 2011 émerge le cloud computing, le stockage en ligne, en 2012 l’imprimante 3D, en 2013 la réalité augmentée, en 2014 les objets connectés…

Cette histoire illustrée s’arrête là, provisoire comme toutes les histoires. A suivre ! comme l’on dit dans les comics. Beaucoup d’images, des textes courts, un progrès au galop mais qui resitue avec enthousiasme l’épopée de l’informatique : que faut-il de plus pour aimer ce livre ?

Emmanuel Lazard et Pierre Mounier-Kuhn, Histoire illustrée de l’informatique, 2016, EDP Sciences, 276 pages, €36.00 préface de Gérard Berry, professeur au Collège de France à la chaire Algorithmes, machines et langages, médaille d’or du CNRS 2014

Attachée de presse Elise CHATELAIN Communication et promotion des ouvrages
elise.chatelain @edpsciences.org

Catégories : Livres, Science | Étiquettes : , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,

Giacometti et Ravenne, Le règne des Illuminati

giacometti ravenne le regne des illuminati
Lire un thriller complotiste est une récréation. Ne croyez pas que j’y croie, ni tout ce que vous lisez, ni même les auteurs lorsqu’ils relativisent à la fin. La vérité n’est jamais qu’une modalité de la croyance, comme l’a montré Paul Veyne après Nietzsche : elle est relative au niveau du savoir, à la capacité à penser par soi-même et à analyser l’information, comme à l’époque où vous vivez. Le complot est à la mode depuis que les gouvernements peinent à répondre, empêtrés dans des considérations diplomatiques, le politiquement correct, et la toute simple bêtise, souvent, de leurs propres enquêteurs.

Antoine Marcas (en référence au Z. Marcas de Balzac ?) est flic parisien et franc-maçon entre deux affectations, déjà héros de plusieurs enquêtes des auteurs. Lorsque le célèbre abbé Emmanuel (mixte d’abbé Pierre et de sœur Emmanuelle) est assassiné d’une balle dans la tête à l’UNESCO lors d’un discours, la juge antiterroriste conclut très vite au loup solitaire, qui s’est d’ailleurs « suicidé » juste après son acte en avouant son forfait dans une lettre. Mais la perquisition de son pavillon de banlieue révèle une cave secrète, dans laquelle des photos découpées aux yeux et des slogans le rapprochent de la franc-maçonnerie. A Marcas d’enquêter – sous le manteau – pour ne pas attiser le syndrome du bouc émissaire envers les francs-maçons français, ni déjuger l’enquête qui satisfait le gouvernement et l’Église. Sauf que la juge est renversée par une voiture (par hasard ?) et décède.

Le lecteur entre alors dans une suite d’actions et de rebondissements pimentés de sexe et de bagarres qui font les bons thrillers. Les coups de théâtre ne manquent pas et le roman est monté à la façon d’une série télé américaine, en chapitres courts qui s’achèvent sur une interrogation. Deux époques sont mêlées pour donner de la profondeur : 1794 et de nos jours, la révolution française en son épisode de terreur robespierriste et les groupes de maîtres du monde américains de l’ère Internet. Vous pourrez même assister, dans la galerie des glaces à Versailles, à l’énucléation tout vivant du jeune roi Louis XVII, 9 ans, par les francs-maçons sous la direction de Saint-Just, puis à l’arrachage de son cœur d’un coup de couteau par l’archange de la Terreur qui fouille sa poitrine. Beurk !

L’humanitaire médiatique se mêle à la Silicon Valley et à l’engouement pour une pop star à la mode. Pendant le spectacle, les recherches continuent. Pour mieux traquer ce que vous faites, ce que vous êtes, et ce qu’on pourrait vous vendre. La manipulation commerciale peut servir aussi à d’autres fins – pour votre bien comme pour celui de la planète. Il n’y a guère que les hackers, mutants de hippies bi et d’otakus, qui parviennent à surfer sur la vague qui emporte la technique selon la loi de Moore.

Internet porte à haut degré la paranoïa de la surveillance, dont la punition n’est jamais qu’à un pas. Les auteurs jouent à merveille de ce fait réel, notamment l’eye tracking de vos Smartphones et ordinateurs portables, qu’ils assaisonnent du merveilleux maçonnique. L’un des auteurs est franc-maçon, l’autre ex-journaliste du Parisien. Le pseudonyme affiché du « frère » est contredit par sa photo en quatrième de couverture – ou comment jouer théâtralement du faux anonymat… Tout est donc vrai dans la fiction, sauf que c’est au lecteur de mesurer ce qui est vrai de ce qui n’est que vraisemblable, ou seulement possible, ou encore pas croyable.

eye tracking illuminati

Les Illuminati ont existé en Bavière à la fin du XVIIIe siècle ; la secte s’est rattachée aux sociétés franc-maçonnes qui existent depuis la fin du XVIe siècle ; le Jésuite Barruel – fermement anti-Lumières – a voulu à toute force trouver dans un complot franc-maçon les origines de la révolution française ; un correspondant italien lui expose même en 1806 les origines juives de ce complot… Tout cela est attesté, mais tout est fantasmé. Comme le disent les auteurs, les Illuminati « constitue une formidable source d’inspiration pour les auteurs de thrillers ».

Les Lumières étaient une libération des déterminismes biologiques et sociaux par le savoir. Mais l’arbre de la Connaissance cache toujours un serpent car, ici-bas, rien n’est jamais tout bien ni tout mal mais, comme toute pièce, a son revers. Les Illuminés des Lumières se croyaient au-dessus du bas peuple ignorant comme des demi-lettrés des cours alentours. Ils ont donc fondé un Ordre pour guider les masses vers la lumière. Tout comme les Jésuites pour répandre les Évangiles, Robespierre et son Comité de Salut public, les Fils de la Liberté dans l’indépendance américaine, puis Lénine et son parti bolchevique. Ceux qui croient ardemment détenir « la » Vérité veulent l’imposer à tous les autres, par la force s’il le faut – pour leur bien… Ce pourquoi les philosophes d’après 68 n’ont pas tort en repérant dans le libéralisme des Lumières ce démon du bien : un totalitarisme potentiel.

Lorsque vous ressortirez du livre, lessivés, vous ne regarderez plus votre doudou Smartphone de la même façon. Vous empresserez-vous de scotcher une bande noire sur la caméra ? De réviser les permissions que vous donnez aux applications ? Vous venez d’apprendre cette vérité que, même l’appareil éteint, Internet peut traquer à distance tout ce que vous faites !

De ce métissage de vrai, de vraisemblable, de possible, ou de pas croyable, c’est bien à vous de juger.

Eric Giacometti et Jacques Ravenne, Le règne des Illuminati, 2014, Pocket 2015, 720 pages, €8.40

Site des auteurs

Catégories : Livres, Romans policiers | Étiquettes : , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,

Dans quelle économie entrons-nous ?

Il y a déjà 40 ans, Richard Easterlin a mis en évidence le paradoxe de la croissance : une hausse de la richesse ne se traduit pas forcément par un meilleur bien-être. Les Français sont par exemple environ deux fois plus riches que dans les années 1970, mais ne se sentent pas plus heureux. Faut-il incriminer le thermomètre ? La mesure de la croissance par le seul PIB (production intérieure brute) est certes un instrument imparfait, mais minimal. Il semble que ce soient plutôt vers les relations sociales qu’il faille se tourner : le sentiment de bien-être s’accroît lorsqu’existe un espoir de gagner plus que ses parents, de vivre mieux que ses voisins, et que son revenu personnel relatif augmente.

C’est donc l’inégalité croissante qui a fait le bonheur croissant dans l’économie industrielle, pas le niveau de richesse brut.

Le problème survient avec l’économie numérique. Si l’industrie accroissait la productivité du travail, permettant une hausse rapide du niveau de vie de chacun, la nouvelle économie substitue la machine au travail, améliorant peu la productivité. Elle permet de couper les coûts de production, donc d’offrir des produits de consommation moins chers ; elle permet de mettre en relations des consommateurs, donc d’offrir des services décentralisés à la carte (Uber, MOOC, Couchsurfing, Amazon…) ; elle permet de gérer les inconvénients de la croissance industrielle (pollutions, épuisement des matières premières, consommation d’énergie, etc.) – mais elle n’invente rien de vraiment neuf : les avions volent moins cher et moins polluants mais pas plus vite.

dinky toys

Avons-nous encore besoin de croissance, diront les décroissants ?

Oui, car la démographie fait que nous sommes plus nombreux dans le monde et même en France à partager le même gâteau ; il est donc nécessaire que le gâteau augmente. Oui, car tous nous désirons vivre mieux, plus vieux, être mieux soignés, disposer d’objets et de loisirs meilleurs. Il faut bien sûr repenser l’exploitation de la planète pour que ce soit soutenable, mais l’économie numérique et le capitalisme (comme système de meilleurs coûts) y aident. La fameuse loi de Moore, qui observe que la capacité des composants électroniques double à peu près tous les 18 mois, ne restera pas vérifiée à l’infini, mais elle a encore quelques décennies devant elles.

Dès lors, le monde n’est pas infini mais il se complexifie, offrant des potentialités de croissance – de quelque façon qu’on la mesure. Le logiciel crée moins d’innovations industrielles qu’il ne permet de les rendre plus accessibles et plus sophistiquées. La croissance a toujours besoin d’emplois, mais moins qu’avant et pas les mêmes : les non-qualifiés sont requis (pour effectuer les tâches que les machines ne peuvent réaliser), et les surqualifiés sont adulés (car ils imaginent les architectures, créent les logiciels, inventent les objets ou les services à produire). Seule la classe moyenne, petits maîtres et cadres moyens, sert de moins en moins, l’organisation suppléant à leur fonction dans la nouvelle société.

Clavier ordi gris b

Comment gérer cette transition entre société industrielle et société numérique, moins créatrice d’emplois ?

Dans la société industrielle, le capital était complémentaire au travail : il fallait investir dans les machines et les réseaux pour produire et vendre des voitures. Dans la société numérique, le capital se substitue au travail, les logiciels ayant vocation à remplacer tout travail répétitif – mais le capital financier a beaucoup moins d’importance : en raison de la loi de Moore, le numérique coûte de moins en moins cher.

Restent donc les emplois de services orientés vers la relation : éducation, formation, santé, restauration, sports, loisirs. Mettant en connexion des êtres humains entre eux, ils devraient se développer hors des machines, même s’ils sont aidés par elles (ordinateurs, Smartphones, GPS, MOOC, sites de réservations, etc.).

Selon le choix de société, ces emplois peuvent être publics ou privés, l’État n’a pas vocation à emplir tout l’espace social. Dans la santé, nombre d’infirmières et de médecins n’officient pas dans le public ; dans l’éducation, les écoles privées, dont les écoles de commerce, s’ajoutent aux écoles publiques ; dans les services fiscaux, les conseillers privés sont plus proches, sinon plus efficaces, que les fonctionnaires du Trésor – et ainsi de suite.

A l’inverse de la société industrielle qui rassemblait les travailleurs, l’organisation sociale issue de la société numérique les fragmente, chaque travailleur étant plus ou moins voué à être employé à la carte ou en indépendant. Les rapports de force ne peuvent donc plus être les mêmes, les syndicats devenant moins puissants, les créateurs plus individualistes et les intermédiaires court-circuités par les réseaux. Si le salariat est menacé, pas le travail, qui reste indispensable.

L’État ne doit donc pas disparaître (vieille utopie de Marx), mais ses fonctions doivent évoluer. Il doit servir de protection aux travailleurs, qui deviendront majoritairement non salariés. Côté négatif, il ne doit plus par exemple laisser les chômeurs à leur solitude mais leur réserver les taxes à la formation pour requalifier périodiquement les métiers menacés. Côté positif, il ne doit plus « soutenir l’innovation », il y a pléthore d’innovations, mais doit plutôt favoriser leur émergence en révisant la masse de règlementations et de normes qui inhibent toute création d’entreprise (même en agriculture « de qualité » !).

Il est donc nécessaire de revoir l’État-providence : non pas le faire disparaître, ni lui faire jouer le rôle d’empêcheur d’innover (comme pour Uber), mais requalifier ses missions pour les adapter à la société nouvelle numérique. Par exemple, le système des retraites, fondé sur la croissance, ne peut plus être viable ; comme dans les pays scandinaves, il faut adopter un système d’équilibre à points, où la production annuelle sert de référence aux retraites servies. Protéger des aléas du travail, alors qu’il n’a jusqu’ici protégé que des autres aléas (santé, maternité, vieillesse).

C’est ce que prône Daniel Cohen, dans une intéressante émission de l’Esprit public sur France-Culture cet été, qui fera l’objet d’un livre prochain.

Livre désormais paru :

Daniel Cohen, Le monde est clos et le désir infini, 2015, Albin Michel, 220 pages, €17.90 / format Kindle €12.99

Catégories : Economie | Étiquettes : , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,