close
    • Co chevron_right

      Interdiction des moteurs thermiques : l’innovation sacrifiée

      ancapism.marevalo.net / Contrepoints · Wednesday, 15 February, 2023 - 09:35 · 9 minutes

    Les politiques n’aiment pas l’innovation. Ils la tolèrent si celle-ci se fait dans des laboratoires agréés, avec marqué « innovation » au-dessus de l’entrée et sur les papiers à en-tête, et avec des subventions décidées en commission et un planning bien défini : janvier, définition des objectifs ; février, rédaction du rapport préliminaire destiné aux politiques ; mars, échanges avec les politiques ; avril, mai, juin… décembre (des années à venir), remise du ou des prototypes et du rapport final aux politiques.

    Le lamentable exemple récent de l’interdiction des moteurs thermiques à partir de 2035 nous montre à quel point les politiques

    1. ne comprennent rien à l’innovation et l’ont en horreur,
    2. refusent obstinément de changer de comportement sur le sujet,
    3. sont capables de dépenser des sommes faramineuses pour une danseuse à haut risque mais qui leur plaît,
    4. prennent des décisions qui mettent des dizaines de milliers de personnes au chômage par pure idéologie.

    L’innovation et le marché automobile européen

    L’ innovation désigne « l’introduction sur le marché d’un produit ou d’un procédé nouveau ou significativement amélioré par rapport à ceux précédemment élaborés. Deux types d’innovation sont distingués : les innovations de produits (biens ou services) et de procédés (incluant les innovations d’organisation et de marketing) . »

    En pratique, la véritable innovation conduit à des situations imprévues qui sortent systématiquement de ce qui avait été (soigneusement) planifié. C’est la raison principale pour laquelle finalement, les politiques n’aiment pas l’innovation.

    Choisir l’innovation consiste à se lancer dans l’inconnu : ni la planification, ni le dogme ne peuvent renseigner sur ce qu’elle sera. De ce fait, elle peut apparaître comme très risquée. C’est pour cela que les politiques ne veulent pas la mettre en pratique.

    Mais par ailleurs, lorsqu’on présente aux politiques une « révolution » qui coche positivement toutes les cases d’un problème à résoudre, ils l’acceptent en général avec enthousiasme car le côté « risque » leur apparait résolu, et ils ouvrent en grand le portefeuille des citoyens.

    Prenons l’ exemple de l’hydrogène .

    Le produit semble bien résoudre le problème de l’intermittence de l’éolien et du solaire. Il résout le problème de l’émission de CO2 (son oxydation ne rejette que de la vapeur d’eau). Et il permet de remplacer les batteries au lithium, lourdes et chères, par un dispositif génial : la pile à combustible.

    L’innovation « hydrogène », vue par les politiques, a donc tout juste.

    Mais la question qui se pose est la suivante : pourquoi un produit aussi génial n’est-il pas déjà utilisé depuis longtemps s’il présente vraiment tous les avantages décrits ?

    Et la réponse est : peut-être que ces avantages sont contrebalancés par des inconvénients qui n’ont jamais été pris sérieusement en compte…

    L’Europe représente un marché gigantesque au niveau mondial pour les déplacements individuels routiers. Pour cette raison, elle compte de nombreuses entreprises d’importance mondiale qui ont investi des milliers de milliards d’euros dans des usines qui servent ce marché. Remplacer en moins de 15 ans la technologie automobile de base (le moteur thermique) par une autre (électrique) représente un pari d’une audace réellement suicidaire qu’il semble démontrer que les motivations des décideurs sont purement dogmatiques. Ce remplacement va mettre des dizaines de milliers d’ouvriers de l’automobile sur le carreau, et il ne faut pas compter sur la bonne santé de l’industrie actuelle, déjà traumatisée par un certain nombre de contraintes environnementales, pour assurer l’avenir de ces victimes du « progrès ».

    Évidemment, les lobbies écolos ont été à la manœuvre à Bruxelles pour convaincre suffisamment de députés européens afin que ces fatales décisions soient énoncées et mises en œuvre. Ceux qui doivent d’ailleurs bien rigoler, ce sont les non-Européens dans le monde, et en particulier les Chinois qui voient se concrétiser un de leurs rêves les plus fous : un nouveau marché à prendre, de la taille de l’Europe, avec leurs voitures électriques déjà opérationnelles ainsi qu’avec les composants nécessaires pour les quelques véhicules qui continueront peut-être à être fabriqués en Europe. Pour paraphraser la CGT : il s’agit d’une véritable casse industrielle organisée.

    Comment résoudre vraiment le problème

    Dans un monde raisonnable qui voudrait résoudre le problème important des émissions de gaz à effet de serre, il aurait été judicieux de réfléchir plusieurs années avant de prendre la décision que l’on prend normalement en dernier : celle du planning.

    Les alternatives au problème des émissions de CO2 par les moteurs thermiques n’ont même pas été prises en compte. Voici, schématiquement, comment on peut présenter le problème à résoudre :

    Schéma du problème posé aux députés européens

    Dans le schéma ci-dessus, le problème posé consiste à interrompre la chaîne qui emmène dans l’air le CO2 issu du moteur thermique. Nos députés ont choisi de résoudre le problème en supprimant tout simplement le moteur thermique, ce qui montre qu’ils sont incapables d’envisager des solutions qui n’apparaissent pas dans le schéma.

    Les autres voies possibles

    D’autres voies existent pourtant pour résoudre le problème.

    Par exemple, en alimentant le moteur thermique avec un carburant qui a pris son CO2 dans l’air environnant, afin de soustraire à l’air autant de CO2 que celui qui est émis, et d’arriver ainsi à la situation dite zéro émission !

    Comment faire ? tout simplement en fabriquant un carburant synthétique qui va chercher son carbone dans l’air. Ou bien en utilisant un carburant issu non pas du pétrole, mais synthétisé par des plantes qui puisent, elles aussi, leur carbone dans l’air.

    C’est ce qu’a fait remarquer le ministre des Finances allemand Christian Linder qui a déclaré, au sujet de la décision d’interdire les moteurs thermiques à partir de 2035  que « Cette mesure était mauvaise et que le gouvernement allemand n’acceptera pas de se conformer à cette décision ».

    Cette déclaration, qui montre que la coalition gouvernementale allemande est en train de se déchirer et risque d’éclater, ne restera probablement pas sans suite. En effet, pour que la décision des députés européens soit réellement appliquée un jour, il faut que chaque gouvernement européen donne son accord. Or, il apparaît que la position de l’Allemagne risque bien de faire tache d’huile et encourage les oppositions au projet dans d’autres pays d’Europe.

    Qu’est-ce qu’on y gagne ?

    Lorsqu’une instance de gouvernement prend une décision, il est de bon ton qu’elle explique à ses administrés quels sont les avantages que cette décision leur apportera. (Pour les inconvénients, la presse s’en charge en général). Comme apparemment nous assistons à un silence général, aussi bien de la part des instances qui en sont normalement chargées que des lobbies comme les ONG environnementalistes qui ne sont habituellement pas en reste pour commenter les décisions, je vais me livrer à un petit calcul fondé sur les chiffres que nous procure le GIEC et qui concerne les prévisions de réchauffement à venir.

    Le GIEC nous annonce des hausses de températures à venir de 1,4 à 4,8 degrés en 2100 suivant les scénarios, le scénario à 4,8 degrés étant considéré d’ailleurs comme hautement improbable.

    Ces scénarios sont représentés dans le graphique ci-dessous :

    Pour rester dans une hypothèse réaliste, on peut considérer le scénario médian SSP2-4.5. Dans cette hypothèse, l’anomalie de température moyenne du globe évolue de +1,3 degré en 2022 à +2,8 degrés en 2100, soit 1,5 degré en 78 ans ou encore 0,0192 degré par an.

    Les transports routiers représentent le quart des émissions de gaz à effet de serre en Europe ( référence ), et le CO2 émis par les voitures représente 60,6 % de ce total ( référence ), soit 25 % x 60,6% = 15 % du total du CO2 émis par l’Europe.

    En admettant une relation linéaire entre l’augmentation de température, le temps, et le CO2 (voir, sur le graphique, la quasi-linéarité de la courbe SSP-2-4.5 entre 2022 et 2100) l’interdiction des moteurs thermiques à partir de 2035, soit pendant 65 ans, améliorera donc la situation prévue de :

    15 % x 0,0192 x 65 / 78  = 0,0024 degré par an, soit encore -0,156 degré en… 2100.

    On pourrait se demander si l’amélioration consistant à atteindre à la fin du siècle une température moyenne de 0,156 degré plus basse constitue une performance telle que cela justifie la mise au chômage de quelques dizaines de milliers d’ouvriers de l’automobile. Et aussi si cette performance aura un effet d’entrainement tel dans le monde, que les plus gros émetteurs de CO2 ne pourront que s’incliner devant ce magnifique résultat et s’empresser d’imiter l’Europe. Personnellement, j’ai cependant certains doutes…

    Chacun son métier et les vaches seront bien gardées

    Une conclusion évidente s’impose : le problème créé vient du fait que nos députés ont élargi leur champ de décision vers un domaine qui sortait de leurs compétences.

    Dans le domaine de la gouvernance comme dans de nombreux autres domaines, chacun doit s’efforcer de rester à sa place, et exercer ses talents en fonction de ses aptitudes. Si les députés veulent améliorer les choses, et c’est leur devoir, il est important qu’ils réalisent par exemple que l’avenir n’est jamais celui qu’on imagine. De ce fait, lorsqu’on est député européen et qu’on légifère sur le domaine de l’innovation, on a le devoir d’améliorer le cadre dans lequel peut s’épanouir cette innovation, et on ne doit jamais essayer de la forcer en décrivant l’avenir sans tenir compte des changements qui apparaîtront peut-être bien entretemps. En bouclant l’avenir au moyen d’une interdiction, les députés ferment la porte à un domaine important qui pourrait comporter la solution à leur problème.

    Par ailleurs, on peut aussi s’interroger sur les raisons du choix de l’Europe de commencer par réduire les émissions de CO2 en s’attaquant aux voitures individuelles qui ne représentent, nous l’avons vu, que 15 % des émissions totales européennes de CO2.

    Décidément, les politiques ne sont pas doués pour manier l’innovation, et ils devraient se rendre compte que cela ne fait pas partie de leur domaine de compétence. Ils devraient également essayer de ne pas se laisser entraîner par des lobbies dont la motivation première n’est probablement pas le bien-être de la population. Je veux parler, évidemment du lobby des ONG environnementalistes.

    Article publié initialement le 7 juillet 2022

    • Co chevron_right

      ChatGPT, le wokisme à portée des caniches numériques

      ancapism.marevalo.net / Contrepoints · Friday, 10 February, 2023 - 12:00 · 6 minutes

    Décidément, depuis le 30 novembre dernier, date à laquelle le produit a été proposé pour tous, la « révolution » ChatGPT chamboule le paysage informatique en donnant une petite idée de l’état des lieux de l’intelligence artificielle et du paysage sociétal en remettant en cause certaines habitudes pourtant bien ancrées…

    ChatGPT, évoqué récemment dans ces colonnes , c’est ce moteur conversationnel basé sur un gros modèle de langage ( Large Language Model ) dont l’entraînement a été réalisé avec des millions de documents en ligne, et qui est capable de générer du texte de manière fluide et naturelle à même de simuler une conversation humaine convaincante.

    Dès sa sortie, l’outil d’intelligence artificielle avait défrayé la chronique et voyait son nombre d’utilisateurs augmenter rapidement à tel point qu’il est à présent utilisé par plus de cent millions d’internautes (oui, vous avez bien lu, 100 millions ). De ce point de vue, c’est l’application informatique qui a attiré le plus d’attention humaine dans le temps le plus court : outre la curiosité qui attire c’est la capacité de la machine à singer un dialogue, y apporter des réponses sinon exactes au moins superficiellement cohérentes qui étonne le plus.

    Devant ce succès, OpenAI, la jeune société qui propose gratuitement ChatGPT, vient de lancer une version payante de son produit. Pour 20 dollars par mois, les Américains d’abord – le reste du monde progressivement – pourront interagir avec le robot conversationnel et obtenir de l’aide sur les sujets qu’il est capable de comprendre. Ainsi, en matière de code, le moteur a montré d’excellentes capacités à assister le programmeur informatique dans son développement, une bonne versatilité dans les langages maîtrisés voire une aide précieuse pour le débogage .

    chatGPT vs Stackoverflow

    Sans grande surprise, Microsoft, qui détient déjà des parts dans OpenAI, a soigneusement remis quelques billets au bot pot : un petit chèque de 10 milliards qui viendront mettre du beurre financier dans les épinards numériques d’OpenAI.

    Il faut dire que les idées d’utilisations pratiques d’un tel outil ne manquent pas, depuis l’intégration évidente avec Bing , le moteur de recherche de la firme de Redmond, jusqu’à par exemple l’utilisation d’un modèle proche associé à des logiciels de téléconférence comme Teams afin de produire, à la volée, un compte rendu de réunion, la liste des principales décisions prises ou des actions décidées lors de la réunion tenue en ligne. Apparemment, le secrétariat est amené à évoluer très très vite dans les prochains mois, au moins pour ceux qui sont prêts à avoir leurs conversations (ici, celles passées sur Teams) analysées par des fermes de serveurs étrangères…

    Devant le succès de ChatGPT et l’intérêt de Microsoft, Google est presque passé en mode panique : l’entreprise a bien conscience de l’importance du robot conversationnel et de son impact sur la recherche internet, cœur de métier de Google. Elle a d’ailleurs largement progressé dans sa propre version, Lamda , qu’elle destine plus ou moins à la même chose que ChatGPT en offrant la possibilité aux utilisateurs de Google d’ interagir avec . Chaque semaine qui passe est donc cruciale pour Google et toutes les firmes lancées dans l’intelligence artificielle, afin de ne pas voir le marché se refermer trop vite.

    Et pendant que les cadres de Google s’agitent pour rattraper ChatGPT, on observe un peu la même fébrilité dans certains établissements scolaires : comme prévu, l’apprentissage tel qu’il est encore pratiqué actuellement va devoir s’adapter assez rudement à ce changement rapide de paradigme ; les professseurs vont devoir modifier leur façon de tester les connaissances de leurs élèves : le risque est maintenant grand de récupérer une production du moteur d’OpenAI à la place d’un devoir personnel. Et s’il est pour le moment encore possible de différencier les productions du robot des productions généralement moins propres (et aussi truffées de fautes d’orthographe) des élèves, les prochaines générations de l’IA textuelle permettront de s’adapter à ces contraintes scolaires de façon beaucoup plus efficace.

    Logiquement, ce sont les écoles et universités qui se basent le plus sur les pénibles productions écrites de leurs élèves qui sont le plus à la peine devant ce phénomène : la panique s’est ainsi emparée des enseignants de SciencePo lorsqu’ils ont vu arriver les premiers devoirs rédigés par l’IA. Il est en effet difficile de distinguer la soupe plate de l’IA de celle des élèves façonnés par les cours de la célèbre école, au point que la direction a enjoint les professeurs à interdire purement et explicitement l’utilisation ChatGPT .

    En cela, l’école est logique : depuis de nombreuses années, elle avait déjà banni toute forme d’intelligence qui aurait constitué un handicap pour par exemple entrer à l’ENA. L’artificielle ne faisait donc pas le poids et son interdiction était inévitable.

    sciences pipo

    Cependant, avec ce succès et l’augmentation exponentielle de l’usage du moteur par des internautes du monde entier, un nouveau souci est apparu très vite : ChatGPT, qui avait été entraîné sur un ensemble déjà largement sélectionné avec soin (et biais afférent), est maintenant de plus en plus châtrée dans ses réponses à mesure que s’amoncellent les requêtes des internautes.

    Consciente qu’un dérapage pourrait coûter cher en image de marque, OpenAI n’a de cesse d’orienter les réponses pour éviter toute « mauvaise publicité », c’est-à-dire risquer le politiquement incorrect, tâche ô combien délicate à définir pour une machine, aussi complexe soit-elle.

    Malheureusement, ce « politiquement correct » commence furieusement à ressembler à une forme très particulière de censure, de la même nature que celle qu’on trouve déjà sur certains réseaux sociaux. À tel point que plusieurs internautes ont commencé à réaliser une mesure objective des biais introduits dans la base documentaire et dans les réponses de ChatGPT pour aboutir à la conclusion que le moteur traite de moins en moins similairement les différents démographies auxquelles il est confronté.

    On comprend qu’une dérive, déjà visible, ne présage rien de bon sur le moyen ou long terme de ces outils.

    Il n’y a pas le moindre doute que l’avenir verra se développer des IA de plus en plus puissantes, de plus en plus adaptées et versatiles à toutes les idées que les individus peuvent faire germer dès qu’une nouvelle technologie apparaît. Mais dans le développement de ces outils surgissent déjà des écueils qu’il semble complexe d’éviter.

    Or, si dans un avenir trop proche on ne veut pas se retrouver avec des IA transformées en « commissaires politiques» et juges de la bienséance, il va devenir impératif de s’assurer que la plus âpre des concurrences apparaisse rapidement entre tous les moteurs possibles, qu’elle s’exprime sans frein et qu’elle permette de faire émerger des modèles autorisant de traiter tous les sujets, même les plus sulfureux.

    Espérons ainsi que des projets comme OpenAssistant.io (on pourra en avoir une description ici ) bénéficient de l’exposition la plus large possible pour que les briques initiales, les sources et les bases de données d’entraînement soient les plus larges et les moins censurées possibles.

    Car sans cela, l’intelligence artificielle ne sera que le reflet des pires névroses de notre société et au lieu d’aider à les guérir, elle les nourrira de la pire des façons possibles, avec une puissance rhétorique, de persuasion et d’articulation que, dans un avenir pas si lointain, personne ne pourra plus combattre.

    En entraînant les IA à être les plus lisses, les plus consensuelles et les plus inclusivement et politiquement correctes, prenons garde de ne pas former et entraîner le plus impitoyable des Big Brother.

    Sur le web

    • Co chevron_right

      Google, victime du dilemme de l’innovateur avec ChatGPT ?

      ancapism.marevalo.net / Contrepoints · Tuesday, 7 February, 2023 - 03:40 · 6 minutes

    Le robot conversationnel ChatGPT , un moteur de recherche « intelligent », représente une rupture majeure. On aurait pu s’attendre à ce que ce soit Google, le leader des moteurs de recherche depuis vingt ans, et qui depuis des années investit dans l’intelligence artificielle, qui en soit à l’origine, mais il n’en a rien été.

    Google est-il la nouvelle victime du dilemme de l’innovateur, un syndrome souvent observé qui voit un leader se faire dépasser par un nouvel entrant ?

    Interpellé par des employés qui l’interrogeaient sur « l’opportunité manquée » de lancer un concurrent à ChatGPT, son PDG Sundar Pitchai s’est défendu en expliquant qu’un robot conversationnel représentait un risque réputationnel important pour une grande entreprise, ajoutant que Google devait être géré de façon plus prudente qu’une start-up comme OpenAI (à l’origine de ChatGPT). La réponse de Pitchai semble très raisonnable. Il agit de façon responsable pour protéger son entreprise, conscient des risques encourus à se précipiter sur une nouvelle technologie qui n’a pas fait ses preuves. Elle est pourtant caractéristique du dilemme de l’innovateur , un syndrome décrit par le chercheur Clayton Christensen dans ses recherches il y a plus de vingt ans.

    Le dilemme de l’innovateur

    Le dilemme de l’innovateur part d’une observation assez simple : malgré leurs moyens souvent considérables, les entreprises leaders ont tendance à échouer face à une innovation de rupture. C’est rarement dû à un aveuglement sur les ruptures en cours, un manque de moyens ou de compétences.

    Mais alors à quoi ? Christensen explique que lorsque se produit une rupture, l’acteur en place est confronté à un dilemme qui est le suivant : s’il mise sur la rupture, il risque de compromettre son activité historique sans pour autant être certain de réussir. Il peut donc se retrouver avec une perte massive, immédiate et certaine, tout cela pour un gain limité, à un horizon éloigné et pas du tout certain. En substance, il lâche la proie pour l’ombre. Mais s’il refuse de miser sur la rupture pour protéger son activité historique, il prend le risque de rater l’opportunité et de péricliter.

    Dans mon ouvrage Relevez le défi de l’innovation de rupture , je montre ainsi que le dilemme explique l’ échec de Kodak . Parfaitement conscient de l’émergence du numérique, l’entreprise a néanmoins cherché à préserver son activité argentique le plus longtemps possible, ce qui était rationnel, avant de tout miser, mais bien trop tard, sur le numérique. Marconi, une société de technologie d’électronique très en pointe dans les années 1990 offre l’exemple inverse : poussée par les analystes, elle a abandonné son activité traditionnelle pour tout miser sur Internet, juste avant l’éclatement de la bulle en 2000. Elle a disparu peu après.

    C’est ainsi qu’on peut lire la situation de Google.

    L’entreprise, créée en 1998, gagne principalement de l’argent avec son moteur de recherche et la publicité associée. Elle a depuis lancé de nombreuses initiatives d’innovation, dont beaucoup ont cependant échoué. ChatGPT représente une rupture pour Google Search parce qu’on peut imaginer que les gens abandonnent ce dernier pour ne plus se servir que de ChatGPT. Après tout, pourquoi utiliser un « bête » moteur de recherche quand on peut avoir un outil beaucoup plus sophistiqué ? Il y a donc une vraie menace de substitution. Il faut évidemment nuancer cette menace parce que la substitution n’est jamais complète (le magnétoscope n’a pas tué le cinéma). Google search est plus simple, plus rapide, moins coûteux en temps machine et gratuit, ce qui ne restera probablement pas le cas pour ChatGPT. Il n’empêche, il est quand même étonnant que ce ne soit pas Google, qui depuis des années est le spécialiste de la recherche et a investi des milliards en IA, qui ait sorti ChatGPT.

    Cela ressemble fort à ce qui est arrivé à Sony : à partir des années 1980, l’entreprise japonaise a investi des milliards pour marier le contenu (musique, films) au contenant (électronique). C’est pourtant Apple qui a gagné le marché du lecteur MP3. Pourquoi ? Parce que Sony craignait que le MP3 développe le piratage et compromette ses ventes de CD.

    Bien qu’ayant toutes les cartes en main pour sortir un équivalent de ChatGPT et y aller à fond, Google est pourtant victime du dilemme de l’innovateur :

    D’une part, il y a la crainte que GoogleGPT (appelons-le ainsi) cannibalise Google Search et fasse donc baisser les revenu publicitaires.

    D’autre part, ChatGPT, tout impressionnant qu’il soit, a encore de nombreuses limitations. C’est typiquement le cas d’une rupture: elle offre un service séduisant, mais souffre de nombreuses faiblesses. Son niveau de performance reste longtemps insuffisant pour l’acteur en place. Les premières automobiles tombaient tout le temps en panne et personne de « sérieux » ne les utilisait. Une entreprise « sérieuse » (grande) va donc attendre que la technologie soit suffisamment performante à ses yeux, avant de miser sur elle; ce-faisant, elle laisse la place aux autres.

    Enfin, comme le souligne Pitchai, GoogleGPT représenterait un risque réputationnel. On se souvient sans doute de Tay , le robot conversationnel, ancêtre de ChatGPT, lancé par Microsoft en 2016. En quelques heures, il s’est mis à émettre des messages racistes et misogynes. Il fut retiré précipitamment et causa un tort considérable à Microsoft. Après cet épisode, on comprend la prudence du PDG de Google qui ne veut pas revivre la même chose. Cette prudence, tout à fait rationnelle et défendable, laisse néanmoins de facto le champ libre à des concurrents qui ne courent pas le même risque, notamment les startups. Le fait de laisser le champ libre à des concurrents sur une rupture n’est donc pas dû à l’aveuglement ou à l’incompétence. C’est le résultat d’une réaction rationnelle de l’acteur en place qui doit gérer son risque.

    Les avantages des nouveaux entrants

    Face à un acteur en place comme Google, les startups ont donc trois avantages :

    1. Elles n’ont pas d’activité historique à protéger
    2. Elles peuvent déjà prospérer avec la nouvelle technologie, même si elle est moins performante
    3. Elles courent un risque réputationnel bien moindre. On peut tolérer des choses d’une startup qu’on ne pardonnerait pas à une très grande entreprise comme Google.

    C’est pour cela que les startups auront toujours un avantage sur les grandes entreprises en place dans les situations de rupture.

    Le dilemme de l’innovateur touche toutes les entreprises, y compris les plus en pointe. Ce qui est intéressant avec Google c’est que nous n’avons pas à faire à un vieux mastodonte de « l’ancienne économie », mais à une entreprise de la Silicon Valley. Pour paraphraser Karl Marx, les disrupteurs d’hier sont disputés à leur tour. L’histoire se répète. Ce qui est étonnant ici, c’est que le dilemme a été décrit depuis plus de vingt ans et que des dirigeants aguerris comme ceux de Google ne semblent pas conscients qu’ils jouent contre eux en ce moment. On ne peut que leur recommander, ainsi qu’aux leaders de n’importe quel autre secteur, de s’y intéresser fortement s’ils ne veulent pas finir comme Kodak.

    Sur le web

    • Co chevron_right

      Les centres de progrès (30) : Tokyo (technologie)

      ancapism.marevalo.net / Contrepoints · Sunday, 5 February, 2023 - 03:50 · 10 minutes

    Un article de Human Progress

    Notre trentième Centre du progrès est Tokyo, qui, après avoir été presque détruite pendant la Seconde Guerre mondiale, a été rapidement reconstruite et s’est réinventée en tant que leader mondial de l’industrie et de la technologie.

    Aujourd’hui, Tokyo est le centre économique du pays et le siège du gouvernement japonais. La ville est réputée sûre et prospère. Elle est réputée pour son glamour et son cosmopolitisme. La région du Grand Tokyo est actuellement la zone métropolitaine la plus peuplée du monde, avec plus de 37 millions de résidents. En tant que dernier Centre du progrès, la forte population de Tokyo est appropriée car, comme dans toute ville, ce sont ceux qui y vivent qui font avancer le progrès et créent la richesse. Et plus il y a de gens, plus on rit, ce qui est également confirmé par des recherches empiriques.

    Située dans la baie de Tokyo, la métropole a commencé comme un humble village de pêcheurs. Appelée à l’origine Edo, ce qui signifie estuaire, la région a connu sa première grande notoriété lorsqu’elle a été désignée comme siège du shogunat Tokugawa en 1603. Au XVIII e siècle, cette localité autrefois obscure était devenue l’une des villes les plus peuplées du monde, avec une population de plus d’un million d’habitants.

    La ville a bénéficié d’une longue paix connue sous le nom de Pax Tokugawa, qui a permis à ses habitants de consacrer leurs ressources au développement économique plutôt qu’à la défense militaire. C’était particulièrement bienvenu car la ville devait souvent être reconstruite après des catastrophes. Elle était vulnérable aux incendies en raison de son architecture essentiellement en bois, ainsi qu’aux tremblements de terre – une conséquence de la situation du Japon le long de la « ceinture de feu « , la zone la plus exposée aux tremblements de terre sur la Terre. La capacité de Tokyo à prospérer lorsqu’elle est épargnée par les vicissitudes des conflits est un thème récurrent de son histoire.

    Lorsque le shogunat Tokugawa a pris fin en 1868, la nouvelle cour impériale s’est installée à Edo et a rebaptisé la ville Tokyo, ce qui signifie « capitale orientale », en référence à l’ancienne capitale, Kyoto, située à près de 300 miles à l’ouest de Tokyo. En tant que siège du nouveau régime, Tokyo a été à l’avant-garde de la restauration Meiji (1868-1912), une période de l’histoire japonaise caractérisée par une modernisation rapide. En quelques décennies seulement, le pays a aboli les privilèges féodaux et industrialisé son économie, devenant un État moderne doté de routes pavées, de téléphones et d’énergie à vapeur. Au cours de l’ère Taisho qui a suivi (1912-1926), Tokyo a continué à s’étendre, tandis que le Japon s’urbanisait et se modernisait davantage.

    En 1923, une catastrophe a frappé la ville. Le grand tremblement de terre de Kanto, d’une magnitude de 7,9 sur l’échelle de Richter, a provoqué un tourbillon de feu et incendié le centre de la ville. Plus de 140 000 personnes ont péri dans cette catastrophe et environ 300 000 maisons ont été détruites. À l’époque, il s’agissait de la pire tragédie que la ville ait jamais connue. Mais un peu plus de deux décennies plus tard, la catastrophe a été supplantée par les ravages bien pires causés par la Seconde Guerre mondiale.

    Le Japon a été l’un des pays les plus dévastés par cette guerre, perdant entre 1,8 et 2,8 millions de personnes ainsi qu’un quart de la richesse du pays. Le pays a été endommagé non seulement par les bombes nucléaires larguées sur Hiroshima et Nagasaki, mais aussi par une campagne extrêmement efficace de bombardements conventionnels sur certaines de ses plus grandes villes, dont Nagoya, Osaka, Kobe et Tokyo. L’opération Meetinghouse (mars 1945), ou le grand raid aérien de Tokyo, est considérée comme le bombardement le plus destructeur de la Seconde Guerre mondiale. Il a été plus meurtrier que les bombardements de Dresde ou de Hambourg et même que les attaques nucléaires sur Hiroshima ou Nagasaki.

    Ce raid incendiaire à basse altitude a coûté la vie à au moins 100 000 Tokyoïtes. Il en a blessé plus de 40 000 autres, a réduit en cendres un quart de la ville et a laissé un million de personnes sans abri. Les températures ont atteint 1800 degrés au sol dans certaines parties de Tokyo et les structures de la ville principalement en bois ont rapidement disparu dans les flammes. Et ce n’était là qu’un des multiples bombardements incendiaires subis par la ville pendant la guerre. En plus d’avoir été la cible des bombardements les plus meurtriers de la Seconde Guerre mondiale, Tokyo a également été la cible de ce qui a probablement été le plus grand raid de bombardement de l’histoire, impliquant plus de mille avions.

    Les bombardements ont collectivement réduit de moitié la production économique de Tokyo. Dans l’ensemble, la production industrielle du Japon a été réduite à un dixième de son niveau d’avant-guerre. Les bâtiments industriels et commerciaux ainsi que les machines étaient particulièrement susceptibles d’avoir été détruits pendant la guerre.

    Ces destructions ont contribué aux vastes pénuries alimentaires et énergétiques de l’après-guerre, et les dommages subis par les infrastructures ont rendu les transports presque impossibles dans certaines régions. Associée à la démobilisation brutale des 7,6 millions de soldats du pays, d’environ 4 millions de civils engagés dans des travaux liés à la guerre et de 1,5 million de rapatriés des territoires occupés par le Japon pendant la guerre, la dévastation a contribué à un chômage déjà massif. Avec plus de 13 millions de personnes sans emploi dans l’ensemble du pays, une inflation galopante et une dévaluation de la monnaie, l’économie de Tokyo s’est arrêtée net.

    Malgré cette sombre situation, le Tokyo d’après-guerre disposait de quelques avantages qui favorisaient une reprise rapide. Avant la guerre, le Japon était une grande puissance. La capitale a conservé la mémoire institutionnelle de ce qu’était un centre industriel et possède encore une main-d’œuvre instruite et qualifiée. L’administration américaine d’occupation était également très motivée pour aider au redressement économique car les États-Unis souhaitaient voir le pays se démilitariser et se démocratiser rapidement.

    Les États-Unis ont forcé le Japon à renoncer à son droit à une armée et ont assumé le coût de la défense du pays, permettant ainsi au Japon d’allouer toutes ses ressources à des activités civiles telles que l’investissement commercial. De nombreux dirigeants japonais, comme le Premier ministre Shigeru Yoshida (1878-1967), soutenaient pleinement la démilitarisation. Il est parfois appelé le père de l’économie japonaise moderne. Même après la création d’une force de défense nationale au Japon en 1954, les dépenses étaient faibles et ont diminué en pourcentage du PIB au fil des ans. Certains économistes estiment que l’économie japonaise aurait été réduite de 30 % en 1976 si le pays n’avait pas été libéré du fardeau des dépenses militaires.

    La croissance économique de Tokyo

    Le Japon a rapidement adopté plusieurs réformes économiques.

    Les Alliés obligent le pays à dissoudre les zaibatsu , les conglomérats capitalistes qui avaient bénéficié d’un traitement préférentiel de la part du gouvernement impérial, allant de taux d’imposition réduits à des injections de liquidités. Grâce à leurs liens avec le gouvernement, les zaibatsu avaient réussi à maintenir un quasi-monopole sur de vastes pans de l’économie et à écraser leurs concurrents. La fin du règne des zaibatsu a permis à de nouvelles entreprises de se former et d’entrer en concurrence dans une économie plus ouverte. Dans le même temps, le Japon a adopté des réformes agraires qui ont transformé l’agriculture du pays qui fonctionnait auparavant selon des principes féodaux inefficaces.

    Au début de la guerre froide, à la fin des années 1940, les États-Unis espéraient que le Japon deviendrait un allié capitaliste solide dans la région. À cette fin, en 1949, le banquier et conseiller présidentiel américain Joseph Dodge (1890-1964) a aidé le Japon à équilibrer son budget, à maîtriser l’inflation et à supprimer les subventions gouvernementales généralisées qui soutenaient des pratiques inefficaces. Les politiques de Dodge, désormais connues sous le nom de « ligne Dodge », ont réduit le niveau d’intervention de l’État dans l’économie japonaise, rendant cette dernière beaucoup plus dynamique. Peu après l’entrée en vigueur de ces politiques, la guerre de Corée (1950-1953) a éclaté et les États-Unis ont acheté une grande partie de leurs fournitures de guerre au Japon géographiquement proche. La libéralisation économique combinée à l’augmentation soudaine de la demande manufacturière, a accéléré la reprise du Japon, et en particulier de Tokyo.

    Tokyo a commencé à connaître une croissance économique d’une rapidité époustouflante. La ville s’est rapidement réindustrialisée et a fait office de plaque tournante du commerce, les importations et les exportations du pays ayant augmenté de façon spectaculaire. La nation de l’archipel disposait de relativement peu de ressources naturelles, mais en important de grandes quantités de matières premières pour fabriquer des produits finis, le Japon a pu réaliser d’impressionnantes économies d’échelle, multiplier la production manufacturière et augmenter ses bénéfices. Ces bénéfices étaient ensuite réinvestis dans de meilleurs équipements et dans la recherche technologique, ce qui augmentait la production et les bénéfices dans un cercle vertueux.

    Outre l’achat pur et simple de produits japonais, le gouvernement américain a supprimé les barrières commerciales sur les marchandises japonaises et, dans l’ensemble, a résisté aux appels à l’instauration de mesures protectionnistes anti-japonaises, garantissant ainsi aux entrepreneurs japonais la liberté de vendre leurs produits aux États-Unis et ailleurs. Au cours de la période qui a suivi la guerre de Corée, les banques des États-Unis et d’ailleurs ont investi massivement dans l’économie japonaise et en attendaient des rendements élevés.

    Elles ont été récompensées lorsque le « miracle économique » du Japon s’est matérialisé et que Tokyo a prospéré. Entre 1958 et 1960, les exportations japonaises vers les États-Unis ont augmenté de 150 %. En 1968, moins de vingt-deux ans après la Seconde Guerre mondiale, le Japon se targue d’être la deuxième économie mondiale et Tokyo est au cœur de la nouvelle prospérité du pays.

    Tokyo a rapidement été le berceau et le siège de grandes entreprises mondiales, produisant des voitures (Honda, Toyota, Nissan, Subaru et Mitsubishi), des appareils photo (Canon, Nikon et Fujifilm), des montres (Casio, Citizen et Seiko) et d’autres produits numériques (Panasonic, Nintendo, Toshiba, Sony et Yamaha).

    Le succès entrepreneurial de Tokyo est en partie dû à l’innovation. Toyota, par exemple, a devancé les constructeurs automobiles américains en créant un nouveau système de production qui utilise l’automatisation stratégique et la « fabrication juste à temps », ce qui permet d’accroître l’efficacité. La « fabrication juste à temps », qui consiste à programmer chaque étape du processus de fabrication de manière à éliminer le besoin de stockage de stocks excédentaires, est depuis devenue la norme mondiale dans tout une série d’industries.

    Depuis les années 1970, Tokyo est également réputée pour sa robotique de pointe. Le développement de l’expertise en matière de robotique industrielle était une extension naturelle des prouesses manufacturières de la ville, mais les entreprises et les chercheurs de Tokyo ont depuis étendu leurs activités à de nombreux autres domaines de la robotique. La ville a créé des innovations allant des grooms et des agents d’accueil des aéroports robotisés aux bébés phoques robotisés amicaux qui aident les patients atteints de la maladie d’Alzheimer.

    La capitale en grande partie détruite d’un pays dévasté par la guerre a réussi à se transformer en l’espace de quelques décennies en l’un des principaux centres technologiques du monde. Grâce à l’ingéniosité et à la détermination de ses habitants, combinées à des conditions de paix, de liberté économique et de possibilité de participer au commerce mondial, Tokyo est devenue un « miracle économique » qui la qualifie comme l’une des grandes réussites urbaines de l’histoire moderne. Il est donc normal qu’une ville à l’avant-garde du progrès technologique soit notre trentième Centre du progrès.

    Traduction Contrepoints

    Sur le web

    • Co chevron_right

      Grands projets d’innovation : faut-il condamner les lubies de riches ?

      ancapism.marevalo.net / Contrepoints · Saturday, 4 February, 2023 - 03:40 · 6 minutes

    Que fait un riche quand il s’ennuie ?

    Il se lance dans un projet d’innovation. Conquérir Mars, traverser l’Atlantique, prolonger la vie humaine, inventer une intelligence artificielle fondamentale, créer un robot, etc. Expression de l’ego de leurs promoteurs, ces projets sont souvent jugés inutiles et qualifiés de lubies, c’est-à-dire d’envie capricieuse et déraisonnable.

    Mais est-ce si sûr ? Et si les lubies d’aujourd’hui étaient les innovations utiles de demain ? Et s’il fallait se garder de porter un jugement moral à la fois sur ce qui se fait (inutile !) et sur ceux qui le font (les riches et leurs caprices) ?

    Lorsqu’on évoque les lubies de riches, les noms de Elon Musk et Jeff Bezos viennent immédiatement à l’esprit. Tous les deux se sont lancés dans l’aventure spatiale. Musk veut installer une colonie humaine sur Mars , ce que de nombreux spécialistes jugent irréalisable. Le très sérieux hebdomadaire The Economist les a même qualifiés d’activité ploutocratique (en gros, un sport de riches).

    Il y a deux modèles mentaux derrière cette critique : le premier porte sur l’inutilité supposée de tels projets ; le second sur l’illégitimité supposée de ceux qui les portent.

    L’utilité d’une innovation est souvent impossible à évaluer a priori

    La plupart de ces projets semblent largement inutiles. À quoi cela peut-il bien servir d’installer une colonie sur Mars, se demandent beaucoup d’entre nous, à l’heure de [insérez ici votre problème majeur actuel : réchauffement climatique, guerre en Ukraine, inflation, etc.]. Ne peuvent-ils pas faire des choses utiles ? Déterminer ce qui est déraisonnable est cependant un jugement de valeur, en général en référence aux modèles mentaux dominants. L’innovation, qui par définition correspond à des modèles alternatifs, est donc facilement jugée déraisonnable.

    En outre, l’utilité d’une innovation est souvent impossible à évaluer a priori. Il y a des cas évidents mais rares : on savait qu’un vaccin contre la covid serait utile avant de réussir à le produire. La plupart des innovations ont été jugées inutiles au début. Ce fut le cas notamment de la photocopieuse Xerox, du laser, d’Internet, de la téléphonie mobile, de Nespresso, pour ne citer que quelques exemples. « Laser à quoi ? Laser à rien ! » titrait ainsi Le Monde dans les années 1970.

    Certaines de ces « lubies » réussissent et se révèlent très utiles après coup. Starlink , d’Elon Musk encore, est un fournisseur d’accès Internet par satellite créé en 2018. L’idée était un peu étrange. À quoi cela pouvait-il bien servir ? Pourtant aujourd’hui, Starlink est pleinement opérationnel et permet à l’armée ukrainienne de coordonner ses opérations. La lubie de riche est devenue vitale pour les Ukrainiens en l’espace de moins de cinq ans.

    C’est donc le défi de l’innovateur que de consacrer sa vie à quelque chose que tout le monde trouve inutile aujourd’hui et trouvera peut-être indispensable demain.

    L’illégitimité de l’innovateur

    La seconde chose qui insupporte nombre d’observateurs c’est que ces projets sont portés par des riches qui ne semblent le faire que pour s’amuser. Le côté gratuit de l’entreprise est insupportable. Les frères Wright sont des fabricants de vélo qui s’ennuient. Ils sont convaincus que l’on peut faire voler un avion, ce qui semble ridicule à nombre de leurs contemporains. Après de nombreux essais, ils réussissent un vol historique en décembre 1903, qui marque la naissance de l’aviation.

    Insupportable aussi le fait que, comme ils sont riches, ils n’ont besoin de rien demander à personne et en particulier à aucune autorité pour se lancer dans leurs projets et les financer. Pour les moralistes qui, souvent, ont une vision aristocratique de la société, cette liberté est dangereuse, comme est dangereux l’orgueil que ces projets traduisent. Les premiers efforts d’Elon Musk dans le domaine spatial ont été marqués par plusieurs échecs qui ont suscité des moqueries. Ainsi, après l’explosion au sol d’une de ses fusées en 2016, la journaliste Dominique Nora dans L’Obs cachait ainsi à peine sa satisfaction en écrivant : « L’explosion du lanceur Falcon 9 de Space X révèle l’incroyable fragilité d’un entrepreneur qui promet toujours plus qu’il ne peut tenir. La fin d’un mythe ? » On sait ce qu’il est advenu : aujourd’hui, SpaceX lance en moyenne plus d’une fusée par mois, libère son contenu dans l’espace et revient se poser sur Terre ; une performance technique extraordinaire absolument inenvisageable il y a dix ans.

    Toutes les « lubies » ne réussissent cependant pas.

    Howard Hughes était le Elon Musk des années 1950. Il fut l’un des hommes les plus riches du monde, à la fois producteur de films et pionnier de l’aviation. Il acheta et développa la Trans World Airline pour en faire l’une des plus grandes compagnies aériennes de l’après-guerre. Mais sa grande lubie fut le projet H-4 Hercules , un hydravion géant… en bois, conçu pour l’armée. Achevé en 1947, l’avion ne vola qu’une seule fois, et avec difficulté, puis le projet fut abandonné. Hughes aura dépensé 300 millions de dollars actuels en pure perte.

    Est-ce qu’il y a une part d’ego, parfois démesuré, dans ces entreprises ? Bien évidemment. L’ego n’est pas à la mode ces temps-ci mais c’est un moteur historique des grands projets innovants. Sans ego démesuré, pas de Léonard de Vinci ni de Steve Jobs . Ces projets traduisent donc une caractéristique profondément humaine, celle d’essayer de résoudre des grands problèmes, de rêver très haut, parfois de façon démesurée.

    Tous les milliardaires peuvent se permettre des lubies. Certaines sont ridicules, comme se payer un 747 et y installer une piscine en or . D’autres sont potentiellement utiles, mais il est souvent difficile de distinguer lesquelles. Mais tous les milliardaires ne cherchent pas à être des pionniers. Ainsi Bernard Arnault finance des musées ou des journaux, des activités plus traditionnelles pour des gens fortunés. Les lubies ne sont donc pas le fait de milliardaires qui s’amusent, mais de pionniers qui ont les moyens de réaliser leurs rêves, ou du moins d’essayer.

    Les lubies de riches, un bon deal pour la société

    Parce qu’il va à l’encontre des modèles mentaux dominants, l’innovateur se retrouve face à une hostilité sociale qui peut largement entraver sa réussite.

    Les débuts de la radio au XIX e siècle ont ainsi suscité des tentatives de boycott et d’interdiction de la part des syndicats de musiciens. Face à cette hostilité qui peut rapidement se traduire par un assèchement des financements, le riche a un avantage évident : il peut financer son projet sur ses propres fonds. C’est sa lubie, il la finance, et si ça échoue, eh bien ce n’est pas grave, il lui restera toujours quelques milliards pour faire bouillir la marmite. Autrement dit, ce que les lubies de milliardaires offrent au système, c’est l’optionalité, c’est-à-dire le fait de permettre de créer des options alternatives auxquelles il ne croit pas. Le système ne croit pas que le vol d’un objet plus lourd que l’air soit possible. Pas grave, un milliardaire essaie de prouver le contraire. Si ça ne marche pas, c’est lui qui en est de sa poche. Si ça marche, le système en bénéficie sans avoir dépensé un centime. Que le milliardaire en bénéficie amplement aussi est anecdotique. Et donc, n’en déplaisent aux moralistes, les lubies de riches sont un bon deal pour la société. Ils sont une source efficace, même si elle n’est pas la seule, de progrès humain.

    Sur le web

    • chevron_right

      À quoi sert MagSafe, la recharge magnétique d’Apple ?

      news.movim.eu / Numerama · Friday, 3 February, 2023 - 17:25

    La technologie MagSafe a été lancée par Apple en 2006 avec le premier MacBook Pro. Depuis, elle a été déclinée en plusieurs formats. On la trouve sur les iPhone et les Mac, mais aussi dans des accessoires. [Lire la suite]

    Abonnez-vous aux newsletters Numerama pour recevoir l’essentiel de l’actualité https://www.numerama.com/newsletter/

    • Co chevron_right

      Alzheimer : comment les modèles mentaux bloquent l’innovation

      ancapism.marevalo.net / Contrepoints · Sunday, 22 January, 2023 - 03:50 · 8 minutes

    On perçoit souvent la recherche scientifique comme la pure poursuite de la vérité sans entrave ni idée préconçue et comme un progrès continu de l’obscurité vers la lumière.

    Dans son fameux ouvrage Les somnambules , Arthur Koestler avait pourtant bien montré qu’il n’en était rien et que les scientifiques , tout éclairés qu’ils fussent, avaient tout autant de mal que les autres mortels à se débarrasser de leurs modèles mentaux.

    « L’inertie de l’esprit humain, sa résistance aux nouveautés ne s’affirment pas, comme on pourrait le croire, dans les masses ignorantes – aisément persuadées dès que l’on frappe leur imagination – mais chez les professionnels qui vivent de la tradition et du monopole de l’enseignement » Arthur Koestler , Les Somnambules

    Un bon exemple de ce phénomène est fourni par l’ absence de progrès dans le traitement de la maladie d’Alzheimer et des démences séniles en général depuis de nombreuses années malgré des investissements colossaux.

    La maladie d’Alzheimer

    C’est la grande maladie du siècle, hors Covid-19 .

    Cinquante-cinq millions de personnes vivent avec une démence sénile dans le monde, un chiffre qui s’accroît de dix millions par an en raison du vieillissement de la population. La plus fréquente est la maladie d’Alzheimer, du nom du psychiatre allemand qui l’a le premier identifiée en 1906.

    En autopsiant Auguste Deter (photo), une patiente récemment décédée qui avait souffert de perte importante de mémoire, Alzheimer observe des plaques denses dans son cerveau. Elles seront plus tard identifiées comme étant constituées d’une protéine appelée beta-amyloïde. Pourtant, depuis 1906, quasiment aucun progrès n’a été accompli dans le traitement de la maladie qui signifie toujours une condamnation à mort lorsqu’elle est diagnostiquée. L’une des raisons est que ces plaques ont été d’entrée de jeu vues comme la cause de la maladie et l’enjeu est devenu leur élimination. Depuis, la communauté scientifique s’est enfermée dans cette explication. C’est étonnant car certaines personnes atteintes de la maladie n’ont pas de plaques discernables tandis que certaines ont des plaques sans avoir de symptômes. Malgré cela, le modèle s’est durablement installé.

    Un deuxième enfermement a suivi logiquement : une fois la cause identifiée, les médecins se sont focalisés sur la recherche d’une solution pour les supprimer. Des milliards ont été investis mais les rares médicaments proposés sont inefficaces. Tout l’effort a porté sur la solution à une question qui n’est plus discutée, plutôt que de reposer la question de la cause.

    Un troisième enfermement s’ensuit désormais : avec l’absence de résultats les milliards investis et le nombre de patients qui augmente sans pouvoir être soignés, la pression publique et donc la pression institutionnelle augmentent. La FDA, l’organisme qui gère les médicaments aux États-Unis, finit par autoriser des médicaments non pas parce qu’ils ont des effets démontrés mais parce qu’ils prétendent réduire la fameuse plaque dont on n’est pourtant, rappelons-le, pas certain qu’elle soit en cause.

    C’est ici que le serpent se mord la queue et que le modèle mental initial dans lequel la communauté scientifique s’est enfermée produit ses effets catastrophiques.

    Un consensus étouffant imposé par un groupe politiquement dominant

    Le blocage a également une dimension sociologique.

    Comme l’a fameusement montré le sociologue Bruno Latour , la recherche scientifique est un processus, un métier, une pratique, avec ses institutions et ses enjeux politiques et de carrière. Il y a donc une sociologie du travail scientifique.

    Lorsque vous trouvez un résultat, il faut le publier. Sans cela, il n’existe tout simplement pas. Il faut qu’il soit publié dans une bonne revue sinon ça ne sert à rien. Une bonne revue sélectionne les papiers qu’elle reçoit en les faisant valider par des évaluateurs. Qui sont-ils ? Eh bien des experts du même domaine, c’est-à-dire des tenants du modèle mental dominant. Ils ont tout à perdre si ce modèle qui les a rendus experts et donc puissants, avec direction de laboratoire, budgets et prestige, est remis en question et qu’ils sont remplacés par des challengers . Écrire un papier remettant en cause le modèle dominant, c’est un peu comme essayer de vendre Noël à une dinde.

    Et donc le système est bloqué : sans papier, les tenants d’explications alternatives ne peuvent avoir ni budget ni carrière et doivent soit se soumettre, soit se démettre. C’est ainsi qu’un modèle mental dominant peut persister malgré sa faiblesse. C’est aussi pourquoi il ne suffit pas d’avoir raison pour que votre idée soit acceptée par tous.

    Cette situation n’est pas sans rappeler la tragique histoire de Ignace Semmelweis. En 1840 à Vienne, cet obstétricien cherchait à comprendre pourquoi tant de femmes mouraient en couches dans sa clinique. Il finit par trouver que si les médecins, qui pratiquaient les accouchements, se lavaient les mains, le taux de mortalité chutait considérablement. Il ne savait pas pourquoi car la théorie des microbes ne serait formulée que 40 ans plus tard mais il savait comment.

    Et pourtant il n’a jamais réussi à convaincre les médecins de faire un geste aussi simple que se laver les mains. Pourquoi ? Parce que leur modèle mental de la maladie était que la cause était interne. Elle était due à un déséquilibre des humeurs. Se laver les mains n’avait aucun sens pour eux. Là encore, un mauvais modèle mental explicatif a bloqué un progrès humain pour 40 ans, jusqu’à Lister , Pasteur et Koch . La puissance du corps médical a fait que Semmelweis n’a eu nulle part ailleurs où se tourner et s’est retrouvé seul, isolé de tous. Il est d’ailleurs mort dans un asile psychiatrique. Nulle méchanceté ni indifférence au sort des victimes chez les médecins ; ils étaient tout aussi soucieux de trouver l’explication mais ils étaient enfermés dans un modèle mental incorrect.

    On retrouve ici les mêmes mécanismes que dans l’économie où un acteur en place, tenant d’un modèle dominant sur lequel il a bâti son succès, bloque tout progrès.

    On pense par exemple à la façon dont France Télécom et le corps des ingénieurs télécom a ralenti le développement d’Internet en France, étant hostile à un système décentralisé et ouvert (voir mon article sur le rapport Théry ici ). Ce n’est pas un hasard si la lutte contre les monopoles dans l’économie a pris une grande importance dès la fin du XIX e siècle.

    Mais cette lutte doit aussi exister dans le domaine de la recherche. Il faut s’assurer de conserver une pluralité d’hypothèses sur les grandes questions du monde. Étouffer les options alternatives se paie en général au centuple lorsque le modèle dominant est faux. Si elles n’ont pu être créées en parallèle, les conséquences sont catastrophiques, avec une perte considérable de temps, en l’occurrence ici pour le traitement d’Alzheimer, qui n’a pas fait le moindre progrès depuis des dizaines d’années.

    Créer un système pluraliste

    Comme Koestler et Latour l’ont rappelé à leur manière les scientifiques sont des humains avec leurs croyances et leurs intérêts et la machine scientifique est une institution avec ses logiques propres.

    Cela ne signifie pas qu’elle ne puisse pas produire des résultats extraordinaires, comme le prouvent les progrès de la médecine depuis de nombreuses années mais qu’elle peut elle aussi se retrouver parfois enferrée dans des modèles mentaux qui bloquent son avancée.

    Dans mon expérience, il est extrêmement difficile de faire évoluer les modèles mentaux d’un collectif si cela fragilise le pouvoir de ceux qui les tiennent. Ils n’ont pas intérêt à cette évolution. L’approche alternative est donc de créer une pluralité sinon dans l’institution, ce qui est difficile, du moins dans l’environnement pour qu’un chercheur puisse aller poursuivre une théorie disruptive ailleurs.

    C’est ce qui s’est passé avec le vaccin anti-covid Pfizer basé sur l’ARN messager. La chercheuse Katalin Kariko , qui en est à l’origine était l’une des seules à croire au potentiel de cette technique depuis longtemps.

    Le modèle mental de la communauté scientifique était « L’ARN messager n’a pas d’avenir ». Et il bloquait tout au point que les rares qui n’y souscrivaient pas suscitaient l’agacement de leurs collègues. Par son obstination, elle a ainsi fini par être virée de son laboratoire. Heureusement, elle a trouvé refuge dans un autre labo grâce à un ami et elle a fini par aller travailler avec une startup (BioNTech). Le vaccin n’a pu voir le jour que parce qu’il existait une voie de sortie alternative pour elle, ce qui lui a permis de contourner le blocage.

    L’enjeu est donc de créer des voies de sorties pour les théories alternatives, seule possibilité pour éviter le monopole des modèles mentaux qui freine l’innovation, c’est-à-dire qui fait perdurer la souffrance humaine. L’entrepreneuriat est l’une de ces portes de sorties comme l’a montré la réussite de BioNTech, mais un système de recherche publique pluraliste est également crucial. En recherche comme ailleurs, nous devons créer des institutions pluralistes qui ont pour objet de lutter contre le consensus, et de susciter et faire vivre des théories alternatives sur les phénomènes considérés. Il en va du progrès humain.

    Sur le web

    • Co chevron_right

      ChatGPT, l’outil d’intelligence artificielle controversé

      Philippe Silberzahn · ancapism.marevalo.net / Contrepoints · Wednesday, 21 December, 2022 - 03:30 · 8 minutes

    À moins d’avoir vécu sur Mars ces dernières semaines, vous n’avez pas pu échapper à ChatGPT , l’outil d’intelligence artificielle qui répond à toutes vos questions : résumer un article, faire une synthèse sur la crise économique, écrire un poème, etc.

    Comme pour toute nouvelle technologie, elle est présentée comme révolutionnaire par certains et futile, inutile, voire dangereuse par d’autres. S’il faudra du temps pour que la lumière se fasse, on peut néanmoins éviter quelques écueils, et surtout des positions tranchées, en s’appuyant sur l’histoire de l’innovation qui offre au moins sept leçons pour une approche plus nuancée du débat.

    L’histoire de l’innovation est compliquée

    Elle est parsemée de technologies promises à un grand avenir mais qui n’ont rien donné. D’autres ont mis des années avant de réussir : la première automobile naît en 1765 mais il faut attendre la fin des années 1880 pour qu’on puisse en acheter. D’autres, enfin, sont nées dans l’indifférence, totalement sous-estimées à leurs débuts. Le premier vol des frères Wright en 1903, un événement historique, a fait trois lignes dans le journal local et il a fallu très longtemps pour voir l’aviation comme autre chose qu’un caprice de riches. Les plus grands esprits se sont trompés dans leur estimation du potentiel et de l’impact d’une nouvelle technologie et l’auteur de ces lignes n’a pas l’intention d’ajouter son nom à cette liste.

    Voici toutefois sept leçons historiques pour mieux réfléchir au potentiel de ChatGPT.

    1) La réussite d’une nouvelle technologie résulte rarement de ses seules performances techniques

    La diffusion est en effet un processus social : le corps social accepte la technologie mais son utilisation conduit généralement à une modification. C’est donc un processus complexe. Une très bonne technologie peut donc être rejetée en raison de critères sociaux liés aux modèles mentaux dominants. Par exemple, les OGM sont rejetés en France parce qu’il existe un modèle mental « OGM = danger » qui s’est opposé avec succès au modèle « OGM= excellente solution ».

    Les conséquences économiques, sociales et politiques d’une nouvelle technologie sont donc impossibles à prévoir. Ce qu’il advient d’une technologie est le produit d’un processus à la fois technique (son invention et son amélioration) et social (son adoption, son rejet, son adaptation pour des usages parfois inattendus). Quand on pense au potentiel de ChatGPT, on ne peut donc se limiter à une discussion sur ses performances techniques. On sait par exemple que certaines de ses réponses iront nécessairement à l’encontre des croyances de certains groupes, ce qui pourra entraîner des réactions hostiles. ChatGPT va donc être « modéré » (c’est-à-dire censuré) ce qui va entraîner d’autres réactions hostiles.

    2) Comme tout outil toute technologie a ses limites

    Ce n’est par sur celles-ci qu’il faut la juger. Aucune n’est universelle. Ainsi, les limites de ChatGPT ont très rapidement été pointées : manque de références, positions discutables, résultats parfois bizarres, manque de créativité, faiblesses dans certaines tâches, etc.

    Il est essentiel de comprendre ces limites pour déterminer où la technologie sera pertinente et où elle ne le sera pas. Pointer ces limites pour la rejeter en bloc est une erreur. Un logiciel de dessin ne peut pas vous transformer en artiste, ce n’est pas pour ça qu’il n’a pas d’utilité. Ce qu’il faut, ce n’est pas rejeter une technologie à cause de ses limites mais se focaliser sur son potentiel pour comprendre ce qu’elle nous permet de faire de nouveau.

    3) On tend à juger une nouvelle technologie à l’aune de la technologie actuelle

    Or, une nouvelle technologie introduit de nouveaux critères de performance et c’est sur eux qu’il faut la juger. Les imprimantes 3D n’offrent pas la qualité d’une fabrication traditionnelle en usine et elles sont donc comparées défavorablement à cette dernière. Mais ce n’est pas ce qu’elles essaient de faire. Dans les domaines où la qualité qu’elles offrent est suffisante, elles apportent une souplesse et une personnalisation très utiles. Elles sont donc pertinentes pour certains usages et pas pour d’autres.

    Le fait que la performance d’une nouvelle technologie soit inférieure sur certains critères et supérieure sur d’autres à la technologie existante explique ainsi pourquoi elle remplace rarement complètement cette dernière. Nous continuons à utiliser des fours traditionnels en plus des fours à micro-ondes, des avions à hélice et pas seulement des avions à réaction, des agendas papier et pas seulement électroniques, etc. Parfois, elle va rester inférieure sur les critères historiques (un téléphone mobile peut être à court de batterie ou perdre le réseau au contraire d’un téléphone fixe) et parfois elle va finir par dépasser la technologie actuelle sur tous les critères comme ce fut le cas pour la photographie numérique à partir des années 2000, auquel cas le basculement devient total et l’ancienne technologie disparaît.

    4) Une nouvelle technologie améliore ses performances au cours du temps

    Pour l’évaluer, il faut donc regarder non pas où elle est à ses débuts mais où elle peut aller, ce qui est évidemment difficile voire impossible. Le service de traduction automatique en ligne Google translate a été lancé en 2006. Quelle magie de soumettre un texte qui revenait traduit en anglais en quelques secondes ! Bien sûr, celui-ci nécessitait un retravail important. Disons que Google translate faisait environ 50 % du travail mais le gain de temps était considérable. Puis la qualité s’est progressivement améliorée. En 2017 est apparu DeepL , qui a marqué un progrès notable. Un texte traduit ne nécessitait plus que quelques minutes de finition, on arrivait à environ 80 %. Aujourd’hui, la qualité est devenue remarquable. Il n’y a pratiquement plus besoin de retravailler le texte. Si on avait jugé la traduction automatique en 2006 à l’aune de la traduction humaine, on l’aurait définitivement rejeté.

    Adoption et rejet de la nouvelle technologie

    5) Une nouvelle technologie tend à être adoptée d’abord par des non-consommateurs

    La qualité de la traduction automatique à partir de 2006 était très inférieure à celle d’un traducteur professionnel sauf que je n’avais ni le temps ni les moyens de m’en payer un sans compter qu’aucun d’entre eux ne travaillerait pour traduire trois paragraphes par-ci, par-là.

    Malgré sa performance médiocre, la traduction automatique me rendait déjà un service immense. Pour moi, l’alternative c’était Google translate ou rien. Or, quelle que soit sa médiocrité, Google translate était mieux que rien ; sa performance était donc suffisante pour le non-consommateur que j’étais. C’est pour cela qu’une nouvelle technologie est adoptée par les non-consommateurs malgré sa performance limitée. Elle leur apporte quelque chose qu’ils ne pouvaient pas avoir avant.

    6) Les utilisateurs de la technologie existante tendent à rejeter la nouvelle technologie

    C’est le corollaire du point précédent. Cela est dû au fait que cette dernière n’est généralement pas assez performante pour eux. J’ai commencé à utiliser la téléphonie sur Internet à partir de 1998. La qualité était exécrable mais je pouvais appeler à l’étranger pour le prix d’une communication locale. Autrement dit, la performance de la téléphonie Internet était suffisante pour moi au regard de son coût. En revanche, pour une entreprise il était hors de question de l’utiliser, la performance étant insuffisante au regard de ses exigences. Pour elle, « ça ne marchait pas », ce qu’il faut entendre par « au regard de mes exigences, ses performances sont insuffisantes, donc je ne peux pas l’utiliser ». Fort logiquement, les entreprises ont initialement rejeté la téléphonie par Internet, qui a donc décollé par les usages individuels.

    7) On tend à mettre en avant les inconvénients d’une nouvelle technologie plutôt que ses avantages

    Parlez robots, on vous répond chômage . Parlez biotech et génétique, on vous répond Frankenstein. Parlez IA, on vous répond Skynet et domination des machines. Ce n’est pas nouveau. L’apparition de la photo a fait craindre la disparition des artistes et de la radio celle des musiciens.

    On se focalise sur ce qui va disparaître ou risque de disparaître, sans imaginer ce qui peut naître : le livre imprimé de Gutenberg a fait disparaître les magnifiques manuscrits enluminés, véritables ouvrages d’art, privant les moines copistes d’une source de revenu, mais il a ouvert la lecture et l’écriture à tous. Avec les livres, un érudit n’avait plus besoin d’apprendre les textes par cœur ; il pouvait donc utiliser la capacité de son cerveau ainsi libérée pour des tâches bien plus créatives. Impossible de ne pas penser à un possible effet similaire pour ChatGPT, qui va nous libérer de certaines tâches pour nous permettre d’en effectuer d’autres.

    Homo ludens

    L’histoire de l’innovation est complexe et il est difficile, voire impossible, de prédire l’impact d’une technologie sur la société.

    Son succès dépend souvent de facteurs sociaux et de modèles mentaux sociétaux et son potentiel ne doit pas être jugé uniquement sur ses limites ou ses performances techniques. Son succès dépend de ce qu’on en fera et donc d’une danse étrange entre ses promoteurs et ses utilisateurs.

    Et donc, si vous voulez vous forger une idée sur chatGPT, commencez à l’utiliser pour en découvrir les forces et les faiblesses. Tirez parti des premières et soyez indulgents pour les secondes ; regardez-le évoluer comme pour la traduction automatique. En bref, ignorez les professeurs de morale et les experts trop sûrs d’eux-mêmes et jouez avec. Amusez-vous bien !

    Sur le web

    • Co chevron_right

      Les centres du progrès (22) : Manchester (industrialisation)

      Chelsea Follett · ancapism.marevalo.net / Contrepoints · Sunday, 4 December, 2022 - 03:40 · 11 minutes

    Un article de Human Progress

    Notre vingt-deuxième Centre du progrès est Manchester pendant la première révolution industrielle (1760-1850). Parfois appelée « la première ville industrielle », Manchester a incarné les changements rapides d’une époque qui a transformé l’existence humaine plus que toute autre période de l’histoire. Manchester a été l’une des premières villes à connaître l’industrialisation. Sa métamorphose n’a pas été facile car elle impliquait des conditions de travail et de vie bien inférieures à celles auxquelles nous sommes habitués aujourd’hui. Mais Manchester a finalement contribué à élever l’humanité en ouvrant la voie à la prospérité post-industrielle dont tant d’entre nous bénéficient aujourd’hui.

    Aujourd’hui, Manchester est la cinquième ville la plus peuplée du Royaume-Uni. Elle est célèbre pour son équipe de football, Manchester United, qui a remporté plus de trophées que tout autre club de football anglais (c’est-à-dire une équipe de football). Surnommée les Red Devils, l’équipe de Manchester fait partie des équipes de football les plus populaires et les plus lucratives du monde. Manchester est également connue pour sa grande université de recherche, où l’atome a été fendu pour la première fois en 1917. L’université de Manchester gère l’observatoire de Jodrell Bank, classé au patrimoine mondial de l’UNESCO en raison de son impact considérable sur la recherche au début de l’ère spatiale. Manchester a également apporté une contribution notable à la musique en produisant des groupes tels que les Bee Gees, qui comptent parmi les artistes musicaux les plus vendus de l’histoire. Une grande partie de l’architecture de la ville date de l’ère industrielle, avec de nombreux entrepôts, usines, viaducs ferroviaires et canaux de premier plan qui subsistent encore.

    La région où se trouve aujourd’hui Manchester est habitée depuis au moins l’âge de bronze, à l’origine par d’anciens Bretons celtes. Vers les années 70 de notre ère, les Romains ont conquis la région. Ils ont baptisé l’avant-poste Mamucium. Il s’agirait d’une latinisation du nom antérieur de l’établissement en vieux brittonique qui signifiait probablement « colline en forme de poitrine ». Mamucium a fini par être connu sous le nom de Manchester, le suffixe vieil anglais chester venant du latin castra , qui signifie « ville fortifiée ». Après le départ des Romains de Grande-Bretagne, la colonie de Manchester a changé de mains entre plusieurs royaumes au cours du Moyen Âge et de la conquête normande de la région. Manchester s’est d’abord fait connaître pour le commerce du tissu au XIV e siècle, lorsqu’une vague d’immigrants flamands tisserands qui produisaient du lin et de la laine se sont installés dans la ville. Au XVI e siècle, l’économie de Manchester tournait autour du commerce de la laine. Industrie artisanale, la production de laine était un processus lent et minutieux qui se déroulait dans les foyers individuels.

    Avant la révolution industrielle, Manchester était une petite ville de marché florissante, avec une population de moins de dix mille habitants au début du XVIII e siècle. Les progrès technologiques ayant augmenté l’efficacité du commerce du tissu, la croissance de la ville a commencé à décoller dans les années 1760. Les canaux de la ville, son climat favorable au coton et sa situation géographique facilitant le transport des marchandises à l’intérieur et à l’extérieur de la ville, tout cela destinait Manchester à devenir un centre industriel clé dès que la technologie adéquate serait disponible.

    On dit souvent que la révolution industrielle a commencé lorsque la machine à filer a été inventée à Oswaldtwistle, à 40 km au nord-ouest de Manchester, en 1764 ou 1765. La spinning jenny était un cadre permettant de filer la laine ou le coton à une vitesse accrue grâce à l’utilisation de plusieurs fuseaux. Elle représentait le premier processus de production entièrement mécanisé. Puis, en 1771, une autre nouvelle invention, le cadre à eau, a été installée dans une usine de Cromford, à 80 km au sud-est de Manchester. Cette invention utilisait une roue à eau pour actionner un métier à filer.

    Vers 1779, à Bolton, qui est situé à 15 miles au nord-ouest de Manchester, l’inventeur Samuel Crompton a combiné des aspects de la machine à filer et du métier à eau dans la « mule à filer ». La mule à filer a considérablement accéléré le processus de production du fil. En fait, des versions de la mule à filer sont encore utilisées aujourd’hui pour la production de fils à partir de certaines fibres délicates comme le poil d’alpaga. Des usines textiles alimentées par l’eau et utilisant cette nouvelle technologie ont rapidement fait leur apparition dans la région.

    En 1781, deux ans seulement après l’introduction de la mule à filer, le développement de moteurs à vapeur viables a permis la croissance d’usines textiles à vapeur plus grandes et plus puissantes. La puissance de la vapeur a changé la donne. Si l’humanité connaissait la puissance de la vapeur depuis qu’Héro d’ Alexandrie avait démontré le phénomène comme une nouveauté au premier siècle de notre ère, le fait de pouvoir enfin exploiter la vapeur de manière pratique a été le moment décisif de la révolution industrielle. L’amélioration des moteurs à vapeur a conduit à l’industrialisation rapide de l’industrie textile en Angleterre, permettant le filage et le tissage des textiles avec une rapidité jamais atteinte auparavant.

    Manchester a ouvert sa première usine de coton en 1782, l’usine Shudehill de cinq étages, parfois aussi appelée Simpson’s Mill. Elle utilisait une roue à aubes de trente pieds et une énergie à vapeur d’avant-garde. En 1800, Manchester était décrite comme « folle des moulins à vapeur », avec plus de quarante moulins. Cette même année, la population de la ville avait presque décuplé depuis le début du XVIII e siècle, atteignant environ 89 000 âmes. Entre 1801 et les années 1820, la population a doublé. En 1830, Manchester comptait 99 filatures de coton.

    Cette année-là, le premier chemin de fer moderne du monde, le « Liverpool and Manchester » (L&MR), a été inauguré et a donné un coup de fouet à l’industrie textile de Manchester déjà en plein essor. Il l’a fait en accélérant l’importation de matières premières des ports de Liverpool vers les usines de Manchester, ainsi que l’exportation de produits textiles finis hors de la ville. Le L&MR, d’une longueur de 31 miles, était à la fois le premier chemin de fer à desservir exclusivement des automobiles à vapeur et le premier chemin de fer interurbain du monde. Il a également été le premier chemin de fer à utiliser une double voie, à fonctionner entièrement selon un horaire régulier, à employer un système de signalisation et à transporter du courrier. À la fin de la première révolution industrielle, en 1850, Manchester comptait quelque 400 000 habitants. L’obscure ville de marché de jadis était devenue la deuxième ville de Grande-Bretagne après Londres, et on l’appelait la « deuxième ville » du pays.

    Le gonflement de la population est dû à l’afflux de jeunes hommes et femmes venus de la campagne anglaise et d’Irlande, attirés par la promesse d’un travail dans les nouvelles usines et fabriques. Par rapport au travail agricole éreintant ou à la vie de servitude domestique (à une époque où de nombreux employeurs battaient leurs domestiques en toute impunité), nombreux étaient ceux qui trouvaient que les conditions de travail, même les plus dures, dans les usines étaient préférables à leurs autres options. Les usines versent des salaires élevés par rapport aux possibilités offertes dans les zones rurales et la plupart des migrants vers la ville voient leurs revenus augmenter de manière appréciable. Progressivement et pour la première fois dans l’histoire, une importante classe moyenne a émergé.

    Il ne s’agit pas de minimiser l’environnement de travail dans les usines de Manchester au début de la révolution industrielle ; les heures de travail étaient longues, les taux d’accidents élevés et le travail des enfants fréquent. Bien qu’il faille noter que le travail des enfants n’était pas une innovation de la révolution industrielle – il existait tragiquement depuis des temps immémoriaux parmi les pauvres. En fait, ce n’est qu’au cours de la révolution industrielle que les conditions de vie se sont tellement améliorées que le travail des enfants a commencé à faire l’objet d’un examen minutieux, qui a abouti à la loi britannique de 1833 sur les usines. Cette loi est considérée comme la première législation mondiale contre le travail des enfants. D’autres lois ont suivi.

    Si vous pouviez visiter Manchester à l’époque de la première révolution industrielle, vous entreriez probablement dans la ville à bord d’une locomotive à vapeur et votre première vision de la ville serait sa gare animée. Vous sortiriez de la gare dans une ville définie par une ligne d’horizon de cheminées industrielles que le poète William Blake a décrit comme de « sombres usines sataniques ». En 1814, le fonctionnaire britannique Johann May a décrit cette ligne d’horizon comme un signe de progrès technologique :

    Manchester [a] des centaines d’usines […] qui s’élèvent jusqu’à cinq ou six étages. D’énormes cheminées sur le côté de ces bâtiments crachent des vapeurs de charbon noir, ce qui nous indique que de puissantes machines à vapeur sont utilisées. Les nuages de vapeur peuvent être vus de loin. Les maisons en sont noircies.

    Le bruit aurait pu être assourdissant. Le philosophe politique français Alexis de Tocquevillle décrit Manchester en 1835 : « le crissement des roues des machines, le hurlement de la vapeur des chaudières, le battement régulier des métiers à tisser […] sont les bruits auxquels on ne peut jamais échapper ».

    Et parmi les gens dans les rues, vous auriez pu observer divers manifestants. La ville était à l’avant-garde des mouvements politiques radicaux, allant du suffrage des femmes au communisme en passant par la défense de la loi sur le maïs .

    Le philosophe politique allemand Friedrich Engels est arrivé à Manchester en 1842. Il y travaillait comme marchand de coton le jour et s’exprimait sur l’état des pauvres de la ville la nuit, jusqu’à la publication de The Condition of the Working Class in England en 1844. On peut y lire un passage sur les bidonvilles de Manchester,

    « Dans un trou assez profond […] entouré des quatre côtés par de grandes usines […] se trouvent deux groupes d’environ 200 cottages, construits principalement dos à dos, dans lesquels vivent environ 4000 êtres humains, la plupart irlandais. Les cottages sont vieux, sales et de la plus petite espèce, les rues sont inégales, creusées d’ornières et en partie dépourvues d’égouts ou de pavés ; des masses d’ordures, d’abats et d’immondices nauséabonds gisent parmi les mares stagnantes dans toutes les directions ».

    Ce qu’Engels n’a pas remarqué, c’est que pour la première fois dans l’histoire, des niveaux de pauvreté aussi abjects étaient en fait en déclin. Au cours de sa vie, l’Anglais moyen est devenu trois fois plus riche.

    La pénurie a toujours été l’état par défaut de la grande majorité de l’humanité. Puis, soudainement, les revenus moyens ont non seulement commencé à augmenter mais l’ont fait de façon exponentielle. Le célèbre graphique en crosse de hockey , peut-être le plus important au monde , illustre ce changement spectaculaire. L’humanité a produit plus de biens économiques au cours des deux derniers siècles que pendant tous les siècles précédents réunis. Cette explosion de la création de richesses a rapidement entraîné une diminution massive du taux de pauvreté et une amélioration du niveau de vie. Peu après l’envolée des revenus, l’espérance de vie a suivi. L’historienne de l’économie Deirdre McCloskey désigne ce changement par le terme de « grand enrichissement ».

    Engels a vécu à Manchester de façon intermittente pendant trois décennies. C’est là qu’il a reçu à plusieurs reprises la visite de son ami et collègue philosophe allemand, Karl Marx. Émus par la situation des pauvres à Manchester et dans d’autres villes industrielles, et ne reconnaissant pas le grand enrichissement en cours, les deux hommes ont développé une philosophie politique visant à créer un paradis pour les travailleurs.

    Les solutions qu’ils ont proposées ont tragiquement conduit à des souffrances bien pires notamment des pénuries alimentaires, des goulags, 100 millions de morts et des cicatrices psychologiques qui résonnent encore aujourd’hui, avec une malhonnêteté accrue et une baisse de confiance qui persistent dans les régions anciennement communistes. Ironiquement, les objectifs de Marx et Engels, à savoir des journées de travail plus courtes et des revenus plus élevés, ont été atteints dans le cadre d’une économie de marché.

    En tant que ville industrielle par excellence, il ne fait aucun doute que Manchester a mérité son surnom d’atelier du monde. En tant que centre clé de l’industrialisation, la ville a connu une transition parfois difficile mais aux effets profonds. La prospérité sans précédent créée par l’industrialisation a finalement permis d’améliorer les conditions de travail et d’élever le niveau de vie qui caractérise l’affluence post-industrielle. Pour avoir contribué à tisser la toile du monde moderne, Manchester est à juste titre notre vingt-deuxième Centre du progrès.

    Traduction Contrepoints

    Sur le web