Articles tagués : amazon

Histoire illustrée de l’informatique

Un informaticien de Paris-Dauphine et un historien de Paris-Sorbonne se conjuguent pour livrer au public une histoire illustrée avec bibliographie, liste des musées et index. Dommage que la préface se place avant le sommaire, ce qui oblige à farfouiller pour savoir avant d’acheter ce qu’il y a dedans, que les caractères microscopiques soient pour des yeux de moins de 40 ans et que le format allongé soit peu commode pour la lecture comme pour la bibliothèque. Mais qui se soucie de ces détails parmi les allumés des algorithmes ?

histoire-illustree-de-l-informatique

L’antiquité prend 14 pages, la modernité mécanique 24, le début du XXe siècle 18, les premiers ordinateurs 32 pages, les gros systèmes 48 pages, les micro-ordinateurs 36 pages, la microinformatique 40 pages et l’ère des réseaux 27 pages. Ces 8 parties résument toute l’histoire… dont on voit aisément que le siècle dernier occupe 80% de l’ensemble.

Mais l’on apprend que l’on comptait déjà 4000 ans avant notre ère en Mésopotamie (tablettes) et que le calcul informatique commence dès les doigts d’une main avant de s’élaborer en mathématique. La computation ne se met en système qu’à l’aide des symboles et de la logique. Si l’on peut dire que compter est la chose du monde la mieux partagée, le mécanisme d’Anticythère (île grecque) datant du IIe siècle avant, « modélisant le cours des astres à l’aide de plus d’une trentaine d’engrenages », représente probablement le premier proto-ordinateur au monde. Presque mille ans plus tard, c’est le musulman ouzbek Al-Khwarizmi qui donnera son nom aux algorithmes « en explicitant les étapes nécessaires au calcul des racines », « début de l’algèbre (mot provenant de l’arabe Al-jabr ou opération de réduction) ».

reveil-lip

L’horloge mécanique en Europe au XIIe siècle apportera la précision technique sur les divisions du temps tandis qu’en 1614 l’Ecossais John Napier invente les logarithmes et des bâtonnets multiplicateurs, ancêtre de la machine pour calculer. La règle à calcul n’est inventée qu’en 1630 par William Oughtred tandis que, quinze ans plus tard, Pascal invente la pascaline, mécanique horlogère servant de machine à calculer. Passons sur le métier à tisser Jacquard en 1804, programmable à l’aide de cartes perforées, sur le code Morse en 1838 qui transforme des signes en informations électriques, sur l’arithmomètre d’Odhner en 1873, « le best-seller mondial des calculatrices de bureau » pour en arriver au XXe siècle – le siècle de l’informatique.

Les abaques de Monsieur d’Ocagne en 1905 permettent aux ingénieurs de travailler tandis que le totalisateur de paris mutuels organise le calcul en 1913 via un système d’engrenages. La carte perforée (que j’ai encore connue durant mes années d’études…) nait en 1928 et il faut attendre dix ans de plus pour que l’Américain Claude Shannon « propose d’appliquer l’algèbre de Boole aux circuits de commutation automatiques ».

Durant la Seconde guerre mondiale, le décryptage d’Enigma, la machine à chiffrer allemande, rassemble de brillants mathématiciens (dont Alan Turing) tout entier voués à introduire « la puissance des mathématiques dans la cryptanalyse ». Le calculateur Mark I naîtra chez IBM en 1944 pour la marine américaine. L’ENIAC de 18 000 tubes et 30 tonnes, construit en 1945, permet 5000 additions par seconde et permet d’étudier la faisabilité de la bombe H. Mais le premier programme enregistré n’émerge qu’en 1948 et Norbert Wiener introduit la même année la cybernétique. Les premiers ordinateurs commerciaux seront fabriqués en 1951 et le premier ordinateur français pour l’armement, CUBA, naît en 1954 – comme François Hollande.

Le transistor aussi, qui remplacera les vieilles lampes, et le disque dur émerge en 1956, le langage FORTRAN en 1957. Le premier circuit intégré comme le premier traitement de texte surgiront en 1958, le traitement de masse dans la banque avec l’IBM 705 en 1959 et le premier ordinateur personnel interactif français, le CRB 500 la même année. Tout va plus vite : les langages COBOL et ALGOL sont créés en 1960, en même temps que le fameux ordinateur IBM 1401. Le terme « informatique » ne naît qu’en 1962 : vous le saviez ? Le langage BASIC (ma première programmation) n’est élaboré qu’en 1964.

C’est l’année suivante que Gordon Moore, directeur de recherches chez Fairchild Semiconductor, énonce sa fameuse « loi de Moore », ressassée à longueurs d’articles geeks, selon laquelle la densité d’intégration sur circuit intégré double tous les deux ans (autrement dit, on peut mettre le double d’information sur la même surface). Il fondera INTEL en 1968, année du Plan calcul en France.

Arpanet, l’ancêtre d’Internet, est créé en 1969 par des scientifiques civils financés par le Pentagone. La même année, le mot « logiciel » arrive dans le vocabulaire et le système d’exploitation UNIX en 1970, comme la disquette souple. Le premier e-mail est lancé en 1971 et naît cette année-là la Silicon Valley. Nous entrons dans l’ère de la micro-informatique. Les microprocesseurs arrivent en 1975, année où est fondé Microsoft ; l’imprimante laser voit le jour en 1976, en même temps que l’ordinateur Cray I. L’Apple II (mon premier ordinateur) est commercialisé en 1977 et le réseau français Transpac est initialisé par le Ministère français des PTT en 1978 – sous Giscard – ce qui donnera le Minitel en 1982. Le premier tableur pour Apple II s’appelle VisiCalc et naît en 1979, juste après le premier jeu vidéo, et l’IBM PC (Personnal Computer) n’est créé qu’en 1981 – année où Mitterrand devient président.

facebook-logo-ecranfacebook-ecran

Le Mac d’Apple (mon second ordinateur) émerge en 1984 et le web en 1993 (j’étais passé deux ans avant sur Compaq). C’était hier et ce fut très rapide. Ma génération, qui a connu enfant les bouliers et les téléphones à manivelle, a dû s’adapter au portable, au mobile et aux réseaux. Amazon naît en 1995, Google en 1997, année du WiFi et de Bluetooth, la clé USB en 2000 et Wikipédia en 2001, les réseaux sociaux et l’iPhone en 2007 – année où Sarkozy devient président. Mais ce n’est pas fini : en 2011 émerge le cloud computing, le stockage en ligne, en 2012 l’imprimante 3D, en 2013 la réalité augmentée, en 2014 les objets connectés…

Cette histoire illustrée s’arrête là, provisoire comme toutes les histoires. A suivre ! comme l’on dit dans les comics. Beaucoup d’images, des textes courts, un progrès au galop mais qui resitue avec enthousiasme l’épopée de l’informatique : que faut-il de plus pour aimer ce livre ?

Emmanuel Lazard et Pierre Mounier-Kuhn, Histoire illustrée de l’informatique, 2016, EDP Sciences, 276 pages, €36.00 préface de Gérard Berry, professeur au Collège de France à la chaire Algorithmes, machines et langages, médaille d’or du CNRS 2014

Attachée de presse Elise CHATELAIN Communication et promotion des ouvrages
elise.chatelain @edpsciences.org

Catégories : Livres, Science | Étiquettes : , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,

La fin du livre ?

Entre le Smartphone qui accapare et YouTube qui permet à chacun de se faire médiateur, l’image semble l’emporter sur l’écrit. Pour les mots qui restent, les encyclopédies wiki pour pèdes et les articles pour citoyens diffusés sur la toile l’emportent de plus en plus sur les journaux et sur les livres. La presse nationale voit son lectorat se réduire d’année en année, les magazines naissent et disparaissent par effets de mode. Les étudiants lisent de moins en moins, y compris en grandes écoles. Ils ont le sentiment du relatif et de l’usure de tous les contenus et lorsque, d’aventure, ils achètent un livre pour le cours, ils le revendent en fin d’année sur Amazon. Ils exigent des bibliothèques d’investir dans plusieurs manuels car nul ne veut « s’encombrer » d’un savoir qui sera vite obsolète.

livres

Deux attitudes coexistent sur l’avenir du livre : l’anglo-saxonne et la française – comme souvent.

La première est optimiste, innovatrice. Le roi est mort ? Vive le roi ! Le livre décline ? Vive le net. Le numérique est plus efficace à stocker et plus rapide à diffuser. Il démocratise, via les réseaux informels gratuits plutôt que de se couler dans le moule social et hiérarchique cher aux pays catholiques, France en tête. Tout le monde est auteur, vidéaste, commentateur – sans passer par les intermédiaires et autres intellos, prescripteurs d’opinion. Tout le monde échange et les idées se forment des mille courants qui sinuent et se rencontrent. Tout le monde est médiateur en direct, le support est réduit au minimum : un clavier, un numérique, une liaison net. On blogue, publie ses vidéos, s’auto-édite.

La seconde est pessimiste, conservatrice. L’écran roi va tout détruire, comme Attila, avec la brutalité de l’ignorance et l’énergie de la barbarie. Promoteur du « moi-je », il sera médiatique plus que médiateur. N’existant que dans l’instant, il sera émotionnel et sans distance. Exit la réflexion, la pensée et l’écrit, objectivés par un livre qui dure. Tout dans le scoop et les paillettes. Le livre est mort, c’était mieux avant.

Nul besoin de dire que des deux, aucune ne me semble satisfaisante. La caricature pousse aux extrêmes des tendances qui se contrastent et se contredisent dans chaque courant. Les Français lisent encore, les femmes surtout, et la classe moyenne plébiscite les bibliothèques ; les éditeurs font la course à qui publiera le plus, près de 50 000 livres chaque année en France. La question est de savoir quels sont ces livres publiés, demandés, lus. A produire très vite, on produit n’importe quoi et mal écrit, les tirages baissent et seulement 2500 auteurs peuvent vivre de leur stylo, tous domaines confondus. L’astrologie et la psycho de bazar se vendent mieux que l’essai philosophique ou la littérature – mesurez les rayons relatifs des « grandes librairies ». Mais il reste quelques exceptions.

Un livre est aujourd’hui moins un monument qu’on révère, honoré dans sa bibliothèque comme dans une châsse et sorti une fois l’an avec des précautions de Saint-Sacrement – qu’un ami qu’on emporte avec soi dans le métro ou le train, qu’on annote et qu’on corne, qu’on relit et sur lequel, parfois, il nous arrive de réfléchir. Symbole social ? Certes, il le reste en France, pays dévot où la révérence pour le savoir passe souvent par l’étalage des catalogues de musée sur table basse ou des classiques reliés peau en bibliothèque trônant dans le salon de réception. Mais le plaisir de lire demeure car il se fait en silence, par l’imagination intérieure. La pensée écrite stimule la réflexion personnelle.

Toute autre est la lecture par devoir : celle de textes utilitaires, de l’actualité, ou de manuels techniques. On s’y réfère, mais on court vers l’édition la plus récente. Là, le numérique remplace le livre utilement. A condition d’oublier cette religion hippie du tout gratuit pour tous qui a deux inconvénients : 1/ la fiction de croire qu’un bon auteur va passer plusieurs années de sa vie à composer un manuel exhaustif pour la beauté du geste, au lieu de se vautrer comme les autres dans le divertissement, 2/ la fiction de croire que le gratuit est réellement gratuit, alors que tant de bandeaux publicitaires et de captations d’adresses passent par l’interrogation des moteurs.

Le livre va-t-il disparaître ? L’actualité, la mode, le mal écrit et le people, probablement – soit 95% de la production annuelle peut-être.

Mais la qualité restera – comme toujours, comme partout. Des lecteurs continueront à s’intéresser à Louis XVI dont la biographie de l’historien Petitfils rencontre un grand succès, ou même à la littérature dont le Dictionnaire égoïste de Charles Dantzig plaît beaucoup. Malgré le trollisme ambiant, ce qui est bien pensé, bien bâti et bien présenté demeure la référence. Et on lira encore des livres. Par élitisme, par goût du beau, par désir de penser par soi-même.

Ce n’est pas donné à tout le monde.

Catégories : Livres | Étiquettes : , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,

Internet nous change

L’autisme affiché des jeunes dans le métro ou dans la rue, casque vissé sur les oreilles et œil dans le vague, dansotant en rythme d’une musique qu’ils sont seuls à entendre, paraît ridicule aux générations d’avant les i (iPod, iPhone, iTunes, iPod, iPad…). Il n’est pourtant que la version oreilles d’un comportement largement admis pour l’œil : la lecture. Les passagers du métro plongés dans leur bouquin s’isolaient tout autant du monde alentour, parfois même en marchant. Fuite devant le réel ou désir de quant-à-soi ? Avons-nous changé de monde ou seulement changé d’outils ?

Les enquêtes réalisées depuis 1973 (presque 40 ans !) montrent que les tendances sont lourdes : baisse de la lecture imprimée et hausse des consommations d’écrans (TV, jeux vidéo, Internet, réseaux, baladeurs… et les liseuses qui tendent à remplacer le livre de poche !). Même les forts lecteurs, même très diplômés, lisent moins. En cause, le temps, qui n’est pas élastique. La multiplication des écrans nomades multiplie les tentations d’expérience au détriment de la pause réflexion. D’autant que l’éducation dite « nationale » privilégie la sélection par les maths, qui n’encourage en rien à lire ! La culture littéraire et artistique serait élitiste, « bourgeoise » (capitaliste), reproductrice des inégalités sociales, voire tentation de pédé (un livre dans un collège de banlieue est aussi mal vu qu’une jupe pour un garçon). La démagogie jeuniste accentue les prescriptions à lire court, en extraits, si possible par emprunt (surtout ne jamais acheter de livre, surtout ne pas s’encombrer !).

D’autres habitudes de lecture naissent de la facilité des outils : finis les textes trop longs, trop pavés, trop bavards. Place au vif, à l’illustré, au témoignage. Les articles du ‘Monde’ qui tenaient des pages entières en 1970, remontant aux calendes grecques avant même d’aborder le sujet traité, puis terminant sur une interminable morale en conclusion, ne sont tout simplement plus « lisibles » aujourd’hui. On s’en fout de l’opinion du journaliste (toujours bien conventionnelle, en majorité tendance mainstream, donc gauche bobo) ; on s’en fout de la préhistoire de la délinquance, du nucléaire ou de tout autre sujet : place à aujourd’hui ! Ici et maintenant. Ce qui se passe, ce qu’on peut faire et comment. Ni plus, ni moins. Merde aux concepts et vive le pragmatique. C’est à mon avis un progrès.

Ce qui l’est moins semble le zapping permanent qui nait de l’hypertexte. A force de cliquer sur les liens offerts ici ou là, vous perdez le fil de votre recherche, vous digressez, vous foncez sur les détails sans plus envisager l’ensemble. Faites l’expérience : consultez l’historique de votre moteur… Les jeunes nés avec le net passent, selon les enquêtes, très facilement d’un journal à un autre, selon l’humeur et les circonstances. Ils saisissent les occasions de lire quand elles se présentent (chez le coiffeur, les amis, les gratuits du métro…). Sans critique des sources, croyant le prescripteur le plus connu ou le plus captivant, sans réfléchir par eux-mêmes. D’où la présentation de plus en plus éclatée, remplie de balises pour capter une attention évanescente. Lire fragmenté, est-ce comprendre l’argumentation ? N’est-ce pas plutôt sauter sur les seuls faits qui vont dans votre sens ? La tentation est de rester entre soi plus que de se confronter à des idées nouvelles ou contraires aux vôtres. Les errements de Wikipedia il y a quelques années ont obligé à une reprise en main : l’égalité et le partage sont des valeurs de convivialité, pas de vérité. Celle-ci est une construction critique à l’aide de sources évaluées et confrontée. La misère des mémoires de master ou de thèse montre à quel point le « plan » est un enseignement qui n’est plus jamais fait.

Quant à l’imaginaire, il ne sait plus naître des seuls mots, il exige aussitôt l’image. Même réinventée, déformée, artistiquement traitée, l’image support d’imaginaire ne laisse jamais aussi libre que les mots, elle préforme. Au risque de tomber dans les stéréotypes. Est-ce vraiment un progrès ? L’essor de la presse people et des interrogations sentimentales sur Internet sont de la même veine. Facebook, Twitter, YouTube, SkyBlog et autres réseaux sociaux sont une façon pour les jeunes de se stariser. Se faire voir et côtoyer les célèbres. Faute d’identité formée par la conscience de soi, qui nait des livres, de la confrontation de la pensée avec celle d’un autre par les mots – on se crée un personnage, fait de photos en situation, de vidéos amusantes ou décalées, de fantasmes surjoués, de maximes illustrées, de mentions « J’aime » qui situent. La jeunesse se met en uniforme, même torse nu : il s’agit de montrer les abdos et les pectos bosselés chez les garçons, les seins et les hanches rebondis chez les filles.

Et la liberté dans tout ça ?

La liberté ontologique est contrainte par les outils et les nouvelles manières de penser imagées. La liberté politique est quant à elle réduite. Les Français transfèrent massivement leurs données personnelles en Californie, sur des serveurs étrangers appartenant à une compagnie privée. Carnets d’adresse, liste d’amis, photos de vie privée, messages intimes sont stockés sous la loi de Sacramento et visibles sans contrôle par les organes de police et de renseignement d’un pays tiers (Patriot Act). Au risque de se voir accuser de crimes et délits dont ils n’auront même pas conscience, mais que tout débarquement sur le sol américain révèlera aussitôt (c’est arrivé). Au risque de se voir supprimer tout accès du jour au lendemain sans préavis, sur un caprice technique ou juridique du pays étranger (Amazon via Kindle sur les traductions d’Hemingway). Au risque de voir perdre l’information de cette masse de données, offertes gratuitement en exploitation à des entreprises de divertissement ou de commerce hors de France (Google). A-t-on bien conscience de ces implications lorsqu’on documente Facebook, Twitter, YouTube, Google et autres ? Et pourtant, on ne les entend guère, les gueulards du souverainisme, anticapitalistes forcenés, adeptes de la théorie du Complot CIA & multinationales ! Est-ce naïveté ou posture ?

Internet est comme la langue d’Ésope : la meilleure et la pire des choses. Il est ce que nous en faisons. Auparavant nous séparions vie privée et vie publique ; aujourd’hui nous séparons vie ordinaire et vie médiatique. La parole publique se démocratise, mais dans le même temps envahit l’existence. Se connecter aux médias sociaux, c’est se déconnecter de l’ordinaire, de la société, au profit d’un entre-soi choisi et construit. Rêve d’une interaction sans risque, le réseau social est un préservatif pour aller sonder les autres. Sans conflit puisqu’il suffit d’ignorer, d’effacer ou de « tej ». Nul doute que l’ouverture à l’autre, grand projet social des Lumières, en est réduite…

On peut lire sur le sujet le numéro 170 de mai-août 2012 de la revue Le Débat, Gallimard, €17.10. Redondant, souvent chiant, se sentant obligé de donner la parole à tous les « noms » qui comptent dans l’univers du numérique et qui se répètent à l’envi, les 175 pages consacrées au sujet donnent cependant des idées.

Catégories : Economie | Étiquettes : , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,