• Co chevron_right

      Comment PLATO va permettre de détecter des exoplanètes

      Pierre Brisson · ancapism.marevalo.net / Contrepoints · Sunday, 8 January, 2023 - 03:50 · 11 minutes

    PLATO est l’acronyme de PLAnetary Transits and Oscillations of stars.

    C’est l’un des deux projets de missions robotiques scientifiques dont la préparation est mise en exergue par l’ESA dans son nouveau budget triennal. La mission fait partie du programme à long terme « Cosmic-Vision » de l’ESA qu’il était déjà prévu de réaliser entre 2015 et 2025. Elle vient d’être en quelque sorte « mise sur orbite » avec quelques autres par la dernière conférence interministérielle de l’ESA en novembre 2022. Son originalité, qui doit lui permettre des performances jamais atteintes dans la détection des exoplanètes, est à souligner.

    Le contexte

    Pour la situer, regardons les questions auxquelles le programme Cosmic-Vision doit permettre de répondre : « Quelles sont les conditions de formation des planètes et d’émergence de la vie ? Comment fonctionne le système solaire ? Quelles sont les lois physiques fondamentales de l’Univers ? Comment l’Univers est-il né et de quoi est-il fait ? » (selon les termes du rapport de définition de mission).

    Dans ce cadre les diverses missions sont classées S pour les petites (au niveau des agences spatiales des pays membres, coût environ 50 millions d’euros), M pour les moyennes (ESA seule ou en partenariat, coût environ 500 millions d’euros) et L pour les grosses (avec direction européenne, coût environ 900 millions d’euros). Une dernière catégorie, F pour Fast , comprend de petites missions qui peuvent être montées et lancées « rapidement » avec les missions M.

    La première mission S est CHEOPS (lancée en 2019, exoplanètes, conçue par l’Université de Berne). Les missions M sont Solar Orbiter (M1, lancée en février 2020), Euclid (M2, énergie sombre et matière noire, lancement prévu en 2023), PLATO (M3, objet de cet article), ARIEL (M4, exoplanètes, lancement prévu en 2029) et EnVision (M5, Vénus, lancement prévu au début de la décennie 2030). Les missions L sont JUICE (L1, pour les lunes de Jupiter, lancement prévu pour l’été 2023), ATHENA (L2, observatoire à rayons X) et LISA (L3, ondes gravitationnelles). Les deux missions F prévues sont Comet Interceptor et ARRAKIHS (pour tester certains aspects du modèle standard de la cosmologie – ΛCDM – à partir de l’observation des galaxies naines et des courants stellaires de leur environnement).

    À l’issue de la réunion interministérielle de novembre 2022, l’ESA a mis en exergue JUICE et Euclid (L1 et M2), PLATO et ARIEL (M3 et M4), et Comet Interceptor (F1).

    On peut en déduire que ces missions vont être complétées ou développées en priorité. Je vous parlerai donc aujourd’hui de PLATO.

    L’objet

    L’objet principal de PLATO est d’étudier les planètes de type terrestre orbitant autour des étoiles de type solaire à l’intérieur de leur zone habitable.

    Ces planètes sont évidemment les plus intéressantes mais aussi plus difficiles à observer que les grosses et ceci d’autant plus qu’elles orbitent des étoiles à forte luminosité (et non pas des naines-rouges). Elles ne parcourent en effet leur orbite que sur une période proche de l’année terrestre (elles doivent être suffisamment éloignées de l’étoile pour être dans sa zone habitable) et elles n’ont qu’un effet très réduit sur leur étoile du fait de leur différence de masse et de luminosité. Nous n’avons à ce jour identifié aucune véritable « nouvelle Terre » bien que nous ayons découvert plus de 5000 exoplanètes (5277 confirmées le 9 décembre 2022).

    Pour atteindre son objectif, PLATO fournira, selon les termes du rapport de définition de mission, « des informations clés (rayons planétaires, densités moyennes, âges, irradiance stellaire et architecture des systèmes planétaires) nécessaires pour déterminer l’habitabilité ». Et elle sera en mesure de le faire car « elle pourra capitaliser sur les énormes développements de la photométrie de haute précision depuis l’espace et des techniques de spectroscopie ultra-stable à partir du sol qui ont été largement dominées par l’Europe au cours des 20 dernières années. » NB : la photométrie est l’étude quantitative de la transmission du rayonnement lumineux.

    Comme évoqué, l’étude de PLATO ne se limitera pas à la planète seulement mais elle portera aussi sur l’étoile dont elle dépend et le système planétaire auquel elle appartient. Utilisant la technique d’« astérosismologie », le télescope va pouvoir déduire l’âge de l’étoile du fait de son activité. À noter que parler de petites exoplanètes oblige à ce que l’étoile autour de laquelle elles tournent ait pour nous une forte visibilité (autrement leur influence sur elle ne serait pas perceptible). Autrement dit, on ne va rechercher que les étoiles de cette catégorie ayant une magnitude apparente (V) élevée, donc qui sont relativement proches de notre système solaire.

    De ce point de vue on va se focaliser sur les étoiles de magnitude V<11 à V=13 (NB : Hubble « voit » jusqu’à V=31 et l’œil nu jusqu’à V=6). Ce qui n’exclut bien sûr pas que l’on étudie les étoiles plus lumineuses et certaines moins lumineuses si elles paraissent intéressantes. L’objet secondaire de PLATO, clairement énoncé, est bien d’étudier toute étoile ou planète qui seraient accessibles à l’observation du fait des capacités disponibles. Cela permettra notamment de compléter la base de données de Gaia. L’étude d’une multitude de systèmes permettra de les comparer les uns aux autres et à notre propre système solaire et permettra de mieux comprendre ce qui fait la spécificité de ce dernier.

    Toute planète jugée intéressante pourra faire ensuite l’objet d’une étude plus poussée par des télescopes plus puissants dont nous disposons tels que le JWST ou l’E-ELT (quand il sera prêt). On peut espérer ainsi analyser leur atmosphère par spectrographie lors des transits.

    Les moyens

    Le moyen utilisé principalement sera donc la photométrie.

    Les variations d’intensité de rayonnement permettront l’étude des transits des planètes (devant l’étoile et lors de leur passage derrière l’étoile), aussi bien que l’évaluation de leur albedo et l’astérosismologie de leur étoile. Ce sera la première fois que cette technique sera pratiquée systématiquement. Il s’agit de suivre les oscillations de luminosité de l’étoile pour en déduire son activité de convection interne et donc sa composition aussi bien que son stade d’évolution (son âge).

    On attend plusieurs milliers de courbes lumineuses planétaires et de 300 000 à 1 000 000 de courbes lumineuses stellaires. La précision de la photométrie permettra aussi l’utilisation du TTV ( Transit Timing Variation ) c’est-à-dire l’étude de l’éventuelle perturbation de la durée d’un transit par le passage d’une autre ou de plusieurs autres planètes (les premiers TTV ont été utilisés avec KEPLER mais pour de grosses planètes).

    Les missions précédentes

    PLATO n’est évidemment pas le premier observatoire dédié à la détection des exoplanètes.

    Il y a eu notamment KEPLER, TESS et CHEOPS. Mais c’est l’observatoire auquel on va donner le plus de chances de détecter une nouvelle Terre dans la proximité de celle-ci. KEPLER (NASA) devenue K2 après la perte de ses roues de réaction (et jusqu’à sa fin en 2019), était beaucoup plus limité dans sa sensibilité. Comme un crayon lumineux, il explorait un tout petit secteur du ciel (0,28 %), 20 fois plus petit que celui de PLATO mais sur une très grande profondeur (3000 années-lumière), et sans pouvoir focaliser longtemps une cible. Il ne pouvait donc voir que de grosses planètes orbitant très près de leur étoile. TESS ( Transit Exoplanet Survey Satellite ) également conçu et réalisé par la NASA, était plus précis mais il ne travaillait que sur les étoiles les plus brillantes (et plus brillantes que celles que va voir PLATO). Surtout il passait d’une bande d’observation à l’autre tous les 27 jours et ne pouvait donc distinguer que les planètes à plus courtes périodes orbitales sauf bien sûr dans la région polaire puisque c’est là que se rejoignent toutes les bandes d’observations. Mais cette région polaire ne représente que 2 % de la voute céleste. Sa mission prolongée a pris fin en septembre 2022. CHEOPS est une mission de suivi et de caractérisation qui n’a pas vocation à découvrir de nouvelles exoplanètes mais à mieux les comprendre (période orbitale, densité…). Elle est en cours jusqu’à la fin du premier semestre 2023.

    Le fonctionnement

    PLATO va pouvoir observer la même grande surface sur la durée d’au moins une année terrestre.

    Elle  pourra donc observer au moins deux transits de la même planète de type terrestre. Cela elle le doit à un dispositif très ingénieux, 24 + 2 petits télescopes de 20 cm de diamètre (ses yeux) qui fonctionnant ensemble, donneront l’équivalent d’un miroir primaire de 100 cm et couvriront constamment en surface sur la voûte céleste 10 000 fois la surface de la Lune soit 2232 degrés carré (NB : la totalité du ciel fait 41 253 deg 2 ).

    Elle maintiendra cette couverture à partir d’une orbite large autour du point de Lagrange L2, donc libre de toute interférence solaire ou terrestre (TESS et CHEOPS sont sur des orbites terrestres). Chaque télescope est équipé d’une caméra (24, normales, deux rapides). En réalité sur les 26 télescopes/caméras, deux ont un rôle particulier, celui de maintenir le bon positionnement de l’instrument (attitude) et son orientation. Outre que l’utilisation de tous ces télescopes/caméra ensemble donnera un champ de vision plus large, elle permettra d’améliorer le ratio signal/bruit (donc de distinguer des déplacements/fluctuations plus petits que jamais). Chaque télescope a un champ de vision de 1037 deg 2 et on parviendra aux 2232 degrés carrés collectifs en les combinant en quatre groupes de six. Accessoirement ils observeront les astres les plus brillants (V de 4 à 8).

    Le pointage pourra être maintenu pendant plus d’un an mais il devra y avoir, sans quitter l’objectif, rotation des panneaux solaires de 90° tous les trois mois afin que la surface de ces panneaux puisse garder la meilleure orientation par rapport au Soleil. Les prises de vue des 24 caméras normales se feront toutes les 25 secondes, celles des caméras rapides, toutes les 2,5 secondes. L’observatoire fonctionnera pendant au moins trois ans soit deux années d’observations primaires suivie d’une année d’observation spécifique sur les points les plus intéressants (confirmation de transits) ou bien deux fois deux ans. NB : en principe, le signal d’une planète n’est pas confirmé comme scientifiquement exploitable à moins de trois transits. Mais la durée de vie possible est plus longue (6,5 ans) au cas où (il y a souvent eu des extensions de missions) et toujours au cas où, les consommables seront fournis pour huit ans. Le lancement est prévu en 2025 ou 2026 avec un petit problème car il était prévu à ce niveau une coopération avec les Russes (utilisation d’une fusée Soyouz !).

    L’observatoire spatial sera complété par une installation au sol (observatoires terrestres existant) qui mènera des observations spectroscopiques sur les cibles identifiées et qui, par la détermination de la vitesse radiale de l’étoile, vont pouvoir évaluer la masse de la planète.

    Le contracteur principal de l’ESA est la société allemande OHB System AG qui travaille avec Thales Alenia Space (France et Grande Bretagne) et Beyond Gravity (Zürich, Suisse). NB : Beyond Gravity est l’ancienne RUAG Space (changement de nom en mars 2021). Pour PLATO, Beyond Gravity fournira le système qui utilisera l’énergie solaire (panneaux solaires de 30 m 2 ). Les panneaux solaires procureront aussi l’isolation thermique aux caméras et aux équipements électroniques.

    La mission est préparée et sera suivie par un consortium de quelques 350 scientifiques de 23 pays (européens auxquels se sont joints quelques américains et brésiliens) : Allemagne, Australie, Autriche, Belgique, Brésil, Canada, Chili, Danemark, Espagne, États-Unis, France, Hongrie, Italie, Norvège, Pays-Bas, Pologne, Portugal, Roumanie, Royaume-Uni, Slovénie, Tchéquie, Suède, Suisse. Le PI ( Principal Investigator , chef de projet) est actuellement la professeure Heike Rauer de la DLR (agence spatiale allemande). Elle a succédé en 2012 au Dr Claude Catala de l’Observatoire de Paris. Les co-PI sont le Dr Miguel Mass-Hess (CSIC INTA, Madrid) et le Dr Isabella Pagano (INAF, Italie). Les participants suisses au Consortium sont membres de l’Université de Berne (notamment le professeur Willy Benz) et de l’Université de Genève (notamment le professeur Stéphane Udry).

    Le financement est fourni par les pays membres de l’ESA. Reste le problème ennuyeux du lancement ! Mais après les deux premières années d’observation, on aura peut-être enfin découvert et certifié une vraie nouvelle-Terre ? Je suis impatient !

    Il y en a encore pour un peu de temps ! En attendant je vous souhaite une belle et bonne année 2023.

    Illustration de titre : l’observatoire spatial PLATO, vue d’artiste, crédit ESA/ATG medialab.

    Liens :

    https://platomission.com/

    https://platomission.files.wordpress.com/2018/05/plato2-rb.pdf

    https://www.esa.int/Science_Exploration/Space_Science/Plato_factsheet

    https://www.aanda.org/articles/aa/full_html/2019/07/aa35269-19/aa35269-19.html

    Sur le web

    • Co chevron_right

      Pourquoi ChatGPT n’est pas qu’une intéressante curiosité

      h16 · ancapism.marevalo.net / Contrepoints · Saturday, 7 January, 2023 - 04:40 · 5 minutes

    Le 30 novembre 2022 est une date à garder en mémoire : c’est ce jour que ChatGPT est officiellement devenu accessible à tous.

    ChatGPT a été produit par OpenAI, une société créée en 2015 et qui s’est lancée dans l’intelligence artificielle. En janvier 2021, elle proposait déjà Dall-E , un modèle de traitement du langage entraîné sur un corpus de textes issus d’internet et capable de générer des images à partir de descriptions textuelles. À sa sortie, Dall-E a suscité beaucoup d’intérêt dans les médias et a été salué comme une avancée importante dans le domaine de la génération de contenu par ordinateur. Depuis, Dall-E a été rejoint par MidJourney ou StableDiffusion que j’ai déjà évoqués dans ces colonnes.

    Avec ChatGPT, la société fait là encore un bond en avant : basé sur un moteur précédent (GPT3.0) dont l’entraînement a été réalisé avec des millions de documents en ligne, cette nouvelle version (aussi appelée GPT3.5) est, elle, entraînée sur un corpus de conversations – avec évaluation active des réponses par des humains – et elle est maintenant capable de générer du texte de manière fluide et naturelle à même de simuler une conversation humaine. Le modèle est utilisé dans un certain nombre d’applications, notamment la génération de réponses automatiques pour les chatbots et la création de contenu pour les réseaux sociaux.

    Une application d’une puissance stupéfiante

    Ceux qui ont testé l’application ( en s’inscrivant ici par exemple ) ne pourront qu’admettre l’écart maintenant stupéfiant qu’il y a entre ChatGPT et les précédents robots d’interaction fournis par certaines entreprises pour s’éviter un service clientèle coûteux. Non seulement la conversation semble fluide mais les réponses sont pertinentes et à l’occasion le robot peut même faire preuve d’humour :

    Pour le moment, l’application n’est pas en réseau ouvert : les connaissances se basent sur des textes récupérés jusqu’en 2021 et le moteur n’a pas la possibilité d’aller directement sur internet pour accroître son savoir. On comprend qu’il s’agit d’une limitation arbitraire, même si les coûts de fonctionnement de cette application rendent impossible pour le moment une mise à l’échelle comme pour Google (qui offre une recherche pour des milliards d’utilisateurs tous les jours) ; on estime en effet que pour concurrencer Google de façon réaliste, ChatGPT devrait mobiliser des ressources informatiques avoisinant les 400 millions de dollars… par jour.

    Ceci posé, compte tenu du rythme actuel de développement de l’intelligence artificielle (rappelez-vous qu’une conversation cohérente et pertinente avec un programme informatique n’était pas envisageable il y a seulement 5 ans), il est raisonnable d’imaginer que peu d’années (moins d’une poignée) seront nécessaires pour atteindre ce niveau d’efficacité et d’optimisation : il est probable qu’en 2025, la classe moyenne dispose, au travers de son téléphone portable par exemple, d’un assistant personnel autrement plus malin qu’Alexa ou Siri, dans des proportions qui imposent la réflexion.

    Et 2025 arrive très vite. À tel point que peu mesurent la vitesse et l’impact de cette technologie sur notre vie quotidienne.

    Le précédent billet sur la réalisation d’images à partir d’une description sommaire avait déjà mentionné l’inquiétude grandissante des artistes devant ce qui apparaît maintenant comme un changement tectonique majeur. L’étape suivante, la production de vidéos à la volée, est déjà en cours de réalisation.

    Couplée avec d’autres techniques comme le deep-fake qui permettent de recréer intégralement des acteurs connus (attitude, jeu, intonation, visage), il ne fait aucun doute que le Hollywood des années 2030 n’aura absolument rien à voir avec l’actuel dont on sent qu’il vit ses derniers mois : les acteurs célèbres vont de moins en moins tourner et de plus en plus se contenter de négocier des droits sur leur visage, leur voix, leur personnalité s’ils en ont une et ce jusqu’au moment où ils seront retirés de l’équation. Après tout, à quoi bon payer des fortunes et supporter parfois les caprices de celui qui peut être remplacé avantageusement par quelques grappes de serveurs loués à tarif fixe en fonction des besoins ?

    Au-delà de cet aspect, d’autres professions vont devoir furieusement se remettre en question : comme on l’a vu, les modèles de traitement du langage actuels peuvent être utilisés de manière efficace pour générer du contenu de base ou pour effectuer certaines tâches de rédaction répétitives, mais ils ont encore du mal à comprendre le contexte et à produire du contenu original et créatif.

    Cela ne va pas durer et le journalisme actuel majoritairement fait de dépêches recrachées par les médias de grand chemin n’aura bientôt plus aucune valeur tant la production de ce genre d’articulets comme des saucisses industrielles est simple pour un moteur comme chatGPT (au passage, certains paragraphes de ce billet ont d’ailleurs été générés par le moteur).

    Que peut-on attendre de cette technologie ?

    Petit à petit, des sociétés vont proposer de gros moteurs fournissant une base capable de comprendre 95 % des requêtes des utilisateurs, le contexte humain indispensable (la plupart des concepts que nous utilisons quotidiennement de façon naturelle et qui permettent à nos conversations et nos besoins de s’exprimer de façon efficace), et d’autres entreprises se chargeront de fournir des briques adaptées à des traitements spécifiques : actualité, droit, mathématique, physique, médecine, biologie, etc. Ces briques seront probablement spécialisées à des niveaux plus fins encore pour correspondre à des besoins toujours plus pointus (depuis le droit civil ou le droit commercial en passant par la médecine nucléaire ou la médecine du sport, jusqu’aux différents domaines de mathématiques).

    Vraisemblablement, certaines professions (très nombreuses, surtout intellectuelles au début) vont avoir du souci à se faire très rapidement (et on parle ici d’un horizon à cinq ans, peut-être dix mais pas plus) et il n’y a aucun doute que les gouvernements seront de toute façon bien trop lents pour comprendre et réagir à ce qui va arriver.

    Le 30 novembre dernier, le monde a complètement changé.

    • Co chevron_right

      L’intelligence artificielle au service de la médecine : l’AVC

      Francis Richard · ancapism.marevalo.net / Contrepoints · Friday, 30 December, 2022 - 04:00 · 2 minutes

    Le terme d’intelligence artificielle est défini ainsi par le Larousse :

    « Ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence humaine. »

    Comme l’explique Luc Julia dans son livre, L’intelligence artificielle n’existe pas , il faudrait donc plutôt parler d’intelligence augmentée, mais ce serait moins tendance, moins vendeur.

    Le fait est que cette simulation de l’ intelligence humaine , sans laquelle elle n’existerait tout simplement pas, peut rendre et rend déjà de signalés services, notamment en médecine, pour l’AVC.

    Une des causes importantes de mortalité et d’invalidité est l’AVC, c’est-à-dire l’accident vasculaire cérébral. C’est un véritable fléau comme le souligne le ministère de la Santé et des solidarités :

    « Chaque année, 150 000 personnes sont victimes d’un AVC, plus de 110 000 sont hospitalisées et 30 000 en décèdent. Cette pathologie représente la première cause nationale de handicap acquis de l’adulte : plus de 500 000 Français vivent avec des séquelles. Il représente aussi la troisième cause de mortalité chez l’homme et la deuxième chez la femme, après les cancers et l’infarctus du myocarde. »

    Aussi toute avancée dans sa prévention et son diagnostic est-elle bienvenue. En Angleterre, une société, Brainomix , une émanation de l’Université d’Oxford, a mis au point un logiciel ad hoc.

    Ce logiciel e-Stroke permet, à partir de l’examen des images du cerveau (scanner), à des patients toujours plus nombreux de bénéficier du bon traitement, au bon endroit et au bon moment.

    Le ministère de la Santé britannique – il y a 85 000 AVC par an en Angleterre – a fait le 27 décembre 2022 deux annonces encourageantes relatives à l’utilisation de ce logiciel au Royaume-Uni :

    – la réduction du temps moyen d’interprétation des images du cerveau de 140 minutes à 79 minutes, la rapidité d’intervention étant le facteur déterminant pour éviter ou réduire les séquelles ;

    – l’augmentation, pour 111 000 patients ayant les symptômes de l’AVC (troubles de l’équilibre, maux de tête intenses, baisse de la vision), du taux de légèreté ou nullité du handicap, de 16 % à 48 %.

    En France, la société AI-Stroke implantée à Pérols dans l’Hérault, immatriculée le 1er janvier 2022, devrait, au cours de l’année 2023, c’est-à-dire demain, apporter sa solution à cette pathologie.

    Ce que l’on désigne sous le terme d’intelligence artificielle est donc une raison d’espérer pour les hommes, n’en déplaise à tous ceux qui s’opposent au progrès technique par idéologie ou qui décrient tout humanisme.

    Sur le web

    • Co chevron_right

      Les éléments du progrès : le caoutchouc (6)

      HumanProgress · ancapism.marevalo.net / Contrepoints · Sunday, 7 February, 2021 - 04:25 · 5 minutes

    caoutchouc

    Par Tony Morley.
    Un article de HumanProgress

    Environ 10 % de toutes les plantes à fleurs produisent une petite quantité de latex lorsqu’elles sont percées ou coupées. Le latex est un mélange chimique complexe de protéines, alcaloïdes, amidons, sucres, huiles, tanins, résines et gommes qui coagulent lorsqu’ils sont exposés à l’air. Lorsque le polymère du latex durcit, il commence à ressembler à une forme brute de caoutchouc reconnaissable par quiconque connaît le caoutchouc moderne.

    Bien qu’il existe un grand nombre de plantes qui produisent au moins un peu de latex, c’est l’arbre à caoutchouc ( Hevea brasiliensis ) qui est la principale source mondiale de la matière première du latex nécessaire à la production de caoutchouc naturel. L’hévéa du Brésil est originaire des forêts tropicales amazoniennes qui s’étendent sur toute la largeur de l’Amérique du Sud et est exploité pour son latex par les habitants indigènes de la région depuis au moins l’an 1000 de notre ère.

    Les premiers indigènes d’Amazonie ont utilisé le latex dans nombre de produits artisanaux très innovants. Le latex humide était incorporé par brossage aux vêtements et aux protections pour les pieds afin d’en améliorer la résistance et de fournir une méthode efficace d’imperméabilisation. Le latex était versé sur ou dans des moules en terre et on le laissait s’évaporer pour former des bols, des récipients d’eau et des paniers à la fois résistants et flexibles.

    L’explorateur français Charles-Marie de la Condamine a été le premier Européen à observer des plantes produisant du latex au Pérou en 1735 et à envoyer des spécimens en Europe en 1736. La culture agricole des plantes productrices de latex et l’utilisation industrielle du latex et du caoutchouc en Europe ont été lentes à se développer jusqu’au début des années 1800. L’aube de la Révolution industrielle a été simultanément l’aube du caoutchouc en tant que matériau de première importance.

    La demande de caoutchouc naturel est devenue insatiable. Un nombre croissant de plantations d’hévéas en Amérique du Sud et, plus tard, en Asie, en Inde et en Afrique peinaient à répondre à la demande de l’Europe et, dans une moindre mesure, à celle de l’Amérique du Nord. Les scientifiques, les entrepreneurs et les industriels ont rapidement trouvé des milliers d’applications pour le caoutchouc. Ce matériau est devenu très précieux pour la fabrication de ceintures, de joints, d’imperméabilisants, de vêtements, de bottes, de premiers pneus et bien d’autres choses encore.

    Cependant, l’utilisation du caoutchouc naturel était limitée par deux défauts majeurs : sa résistance et sa durabilité. Le caoutchouc naturel a tendance à se raidir considérablement dans les environnements froids, à perdre toute sa robustesse et à fondre lorsqu’il est soumis à un chauffage relativement léger. C’est le hasard combiné à l’expérimentation qui a permis de dépasser ces limites en 1839, lorsque l’Américain Charles Goodyear (célèbre pour ses pneus modernes) a mis au point un procédé de chauffage du caoutchouc naturel avec du soufre. La mise au point de ce procédé s’appelle la vulcanisation.

    La vulcanisation n’était pas une amélioration marginale du matériau. Le procédé a considérablement amélioré la solidité et la résistance à la chaleur et au froid du caoutchouc. Au cours des cent années suivantes, le processus de vulcanisation a fait du caoutchouc un pilier de l’industrialisation rapide de l’Occident. Son utilisation  dans les véhicules de tourisme, les bicyclettes, les camions, les avions, les bateaux, les navires, les usines et les maisons a transformé et enrichi la civilisation.

    Cependant, la demande de caoutchouc naturel a continué à dépasser l’offre et la Seconde Guerre mondiale, en particulier, a créé une pénurie importante – surtout parmi les forces alliées.

    Le caoutchouc synthétique produit à partir d’hydrocarbures naturels a été synthétisé pour la première fois lors d’une série d’expériences entre 1875 et 1882. Mais cette production se faisait en grande partie en laboratoire jusqu’au début des années 1940.

    À la différence des plantations tropicales et des chaînes d’approvisionnement difficiles à mettre en place, l’avantage du caoutchouc synthétique était sa fabrication à partir d’hydrocarbures existants. Peu après la fin de la Seconde Guerre mondiale, l’amélioration de la composition du caoutchouc synthétique, de la technicité et de la rentabilité de sa fabrication a conduit à des percées majeures dans les technologies et les applications du caoutchouc.

    Les améliorations de sa composition et de sa fabrication se sont poursuivies tout au long des années 1960 jusqu’à l’ère moderne – le monde consommant des volumes vraiment prodigieux de caoutchouc naturel et synthétique.

    En 2019, l’humanité a produit et utilisé un peu plus de 29 millions de tonnes de caoutchouc naturel et synthétique. Près de 14 millions de ces tonnes étaient du caoutchouc naturel et 15,2 millions de tonnes étaient synthétiques.

    L’utilisation intensive du caoutchouc naturel et synthétique a un impact énorme sur la vie moderne. Presque toutes les voitures et tous les camions de la planète roulent sur des pneus en caoutchouc vulcanisé renforcé, transportant des familles, de la nourriture et des matériaux. Et presque tous les avions atterrissent sur des pneus en caoutchouc haute performance.

    L’industrie des transports est peut-être la principale utilisatrice de caoutchouc. Et ce matériau continue à rendre service à la société de centaines de milliers de façons, de la prophylaxie moderne sous forme de préservatifs en latex, à l’imperméabilisation, à l’amortissement des vibrations et aux pneus vraiment énormes qui permettent aux engins miniers et aux camions de fournir à l’humanité les minéraux et les métaux du progrès.

    À l’avenir, le caoutchouc issu de sources renouvelables, qu’il soit naturel ou synthétique, continuera à jouer un rôle clé dans la prospérité des pays développés, tout en contribuant à la croissance économique des pays en développement.

    Sur le web

    • Co chevron_right

      Les éléments du progrès : les pesticides de synthèse (5)

      HumanProgress · ancapism.marevalo.net / Contrepoints · Sunday, 31 January, 2021 - 04:25 · 5 minutes

    pesticides

    Par Tony Morley.
    Un article de HumanProgress

    Cultiver les cultures et élever les animaux qui nourrissent la population est une lutte permanente contre la détérioration induite par les parasites. L’agriculture produit une quantité anormale de calories, stockées dans un seul endroit : un trésor bien trop tentant pour un grand nombre de parasites. Les humains luttent contre les causes de la destruction et de la perte des récoltes depuis plus de dix mille ans.

    Cependant, ce n’est que depuis quelques centaines d’années que la science et la technologie agricoles ont pu faire pencher la balance de la lutte contre la perte des récoltes en faveur de l’Homme. Les annales de l’Histoire regorgent d’exemples de  destruction et de perte de récoltes causées par les parasites, ce qui a souvent entraîné famine et pauvreté généralisées.

    Entre 1845 et 1850, par exemple, un mildiou virulent s’est installé dans les champs de pommes de terre en Irlande , détruisant rapidement la quasi-totalité des récoltes. La famine a été immédiate et, sans accès à un réseau commercial vaste et varié de denrées alimentaires ni à une source plus variée de denrées disponibles chez soi, la famine s’est rapidement installée.

    Le fléau qui a ravagé l’Irlande au milieu des années 1800 a fait plus d’un million de victimes. Entre 20 et 25 % de la population a soit péri de famine, soit immigré aux États-Unis ou dans d’autres pays.

    L’application de fongicides modernes sur les champs irlandais aurait entièrement évité la famine. Malheureusement, il faudra encore une centaine d’années avant que de tels fongicides soient inventés.

    Les pesticides sont une catégorie extrêmement large de composés chimiques, naturels et synthétiques, que les humains utilisent pour contrôler les plantes, les insectes, les animaux, les champignons, les bactéries et un large éventail de microbes infectieux ou destructeurs.

    L’expérimentation de pesticides et d’herbicides naturels a débuté modestement en 2000 avant J.-C. dans le sud de la Mésopotamie, avec l’application de soufre en poudre sur les cultures maraîchères.

    En 1550, un certain nombre de pesticides d’origine naturelle mais très toxiques étaient utilisés en Europe, notamment l’arsenic, le mercure et le plomb. Ces pesticides chimiques d’origine naturelle ont été largement utilisés jusqu’à ce que les premiers pesticides synthétisés en laboratoire soient mis au point, à partir des années 1940.

    À partir des années 1950, de nouveaux pesticides synthétiques innovants ont été développés et testés en mettant progressivement l’accent sur la réduction de la toxicité chimique, du volume de pesticide nécessaire pour obtenir leur efficacité et un coût global pour l’agriculteur. Ces trois indicateurs de performance déterminants ont aidé les agriculteurs à produire davantage de cultures et à nourrir davantage de personnes et d’animaux à un coût moindre, permettant de réduire le recours au débroussaillage des terres.

    L’application de pesticides sur les cultures agricoles a transformé les agriculteurs et ceux qui achètent les produits issus de l’agriculture. L’amélioration spectaculaire des rendements a permis de maintenir le coût réel des denrées alimentaires à un niveau nettement inférieur à celui qui aurait été atteint sans l’utilisation de pesticides.

    L’utilisation moderne de fongicides aux États-Unis, par exemple, permet d’éviter entre 50 et 90 % des pertes de récoltes de fruits et légumes. À l’échelle mondiale, l’utilisation responsable des herbicides, insecticides et fongicides modernes permet d’éviter une perte de récolte annuelle moyenne d’environ 50 %.

    En 2005, l’application de pesticides à l’échelle mondiale a permis d’éviter une perte de récoltes s’élevant à près d’un demi-billion de dollars. Avec les engrais et les équipements industriels modernes, les pesticides ont été et resteront partie intégrante de l’alimentation d’une civilisation humaine en pleine croissance.

    L’application des pesticides ne se limite pas à l’agriculture intensive à grande échelle, car l’utilisation de pesticides naturels et synthétiques a également un rôle à jouer dans l’agriculture biologique.

    Beaucoup trop nombreux sont ceux qui pensent que les aliments biologiques sont produits sans l’utilisation de pesticides. C’est faux . L’agriculture biologique est fortement dépendante d’un certain nombre de pesticides naturels qui sont au moins aussi toxiques, s’ils sont mal utilisés, que leurs homologues synthétiques.

    Le sulfate de cuivre d’origine naturelle, par exemple, est largement utilisé dans la production biologique de raisins, de pommes de terre, de tomates, de pommes et d’autres fruits et légumes.

    Au cours des cinq dernières décennies, les chercheurs ont travaillé avec diligence pour améliorer les avantages des pesticides, tout en réduisant les effets négatifs de leur utilisation.

    Toutefois, il est toujours important de reconnaître que l’utilisation des pesticides modernes n’est pas sans risque. Lorsqu’ils sont utilisés de manière excessive et/ou incorrecte, les pesticides peuvent avoir un impact indésirable sur les plantes, les animaux et la santé humaine.

    La bonne nouvelle, c’est que les chercheurs et les agriculteurs continuent à travailler sur des méthodes permettant de réduire la quantité de pesticides nécessaires pour protéger les cultures, grâce à des systèmes plus précis et plus efficaces de pulvérisation guidée par GPS et à des modes avancés de détection des parasites.

    Ces deux méthodes permettent aux agriculteurs de lutter contre les petits parasites localisés avant que l’infection ou l’infestation ne se généralise.

    Dans les décennies à venir, le rôle des cultures génétiquement modifiées (GM) dans la réduction de l’utilisation des pesticides va révolutionner l’agriculture. L’incorporation de gènes sélectionnés de lutte contre les infections et les infestations dans des cultures clés peut aider de nombreuses cultures agricoles à résister aux parasites et aux maladies , sans avoir recours à un traitement externe aux pesticides.

    Aujourd’hui, les pesticides restent une protection très modeste mais solide contre les ravages de la nature qui, sinon, chercherait à dévorer ou à détruire les cultures, les matières premières et les animaux qui nourrissent l’humanité.

    Leur utilisation a été l’une des rares technologies agricoles véritablement révolutionnaires qui ont contribué à notre situation actuelle d’abondance alimentaire.

    Sur le web

    • Co chevron_right

      Les éléments du progrès : le tungstène (3)

      HumanProgress · ancapism.marevalo.net / Contrepoints · Sunday, 17 January, 2021 - 04:25 · 5 minutes

    Par Tony Morley.
    Un article de HumanProgress

    Isolé pour la première fois en tant que métal en 1783, le tungstène a eu un impact considérable sur le progrès humain. À partir de 1904, il a fourni un matériau métallique à l’éclairage à incandescence. L’intérêt de son utilisation dans les ampoules électriques était tel qu’il n’est supplanté que maintenant par des moyens d’éclairage plus efficaces.

    On ne peut guère exagérer la valeur d’un éclairage propre et peu coûteux. En 1900, quatre ans avant l’avènement de l’éclairage au tungstène, le coût d’un million de lumens/heure de lumière artificielle tournait autour des 285 dollars d’aujourd’hui. Au milieu des années 2000, il était tombé à moins de 3 dollars.

    Les propriétés uniques du tungstène en font un métal d’une immense utilité pratique aussi bien en tant qu’outil que comme matériau incorporé.

    Le tungstène (ou wolfram, d’où son symbole chimique W) a un point de fusion étonnamment élevé de 3414°C. Il est aussi extrêmement dense.

    Ces propriétés lui ont permis d’être utilisé dans un large éventail d’applications industrielles et commerciales notamment dans le domaine aérospatial ainsi que dans les équipements de laboratoires et militaires.

    Les inserts renforcés en carbure de tungstène (un composé chimique contenant à parts égales des atomes de tungstène et de carbone) sont essentiels dans le forage et le broyage par rotation et percussion, contribuant ainsi à fournir à la civilisation humaine du pétrole, du gaz, et des métaux et minéraux d’extraction minière.

    Mais c’est probablement dans l’outillage que le tungstène se montre le plus utile.

    L’histoire des produits manufacturés est celle des machines et de la recherche de procédés de fabrication plus précis et efficaces. Depuis longtemps, nous avons des capacités en génie mathématique et théorique avancés. Malheureusement, il nous manque la faculté de donner corps à beaucoup de nos concepts avant-gardistes.

    L’ère de l’usinage de précision a vraiment commencé en 1776 quand l’industriel anglais John Wilkinson a aidé James Watt à développer un cylindre pour machine à vapeur . Wilkinson avait des connaissances sans équivalent en matière de production d’objets en fer, en particulier les canons.

    Avec un outil de coupe en acier trempé, il a pu tirer d’un énorme bloc de fer un cylindre d’une précision suffisante pour retenir la vapeur sur le piston du moteur.

    Ainsi, Watt a pu considérablement augmenter l’efficacité de sa machine, contribuant ainsi à donner naissance à la révolution industrielle.

    À mesure que celle-ci avançait, progressait notre capacité à produire du fer, de l’acier et autres métaux et alliages très solides, de meilleure qualité et résistants à l’usure. Ces avancées ont créé à la fois des opportunités et des défis techniques.

    Des matériaux plus durs et plus abrasifs, ainsi que des procédés de production et des vitesses de coupe plus rapides, exigeaient des machines-outils d’une dureté, d’une résistance et d’une durabilité maximales

    Les premiers composés de carbure de tungstène ont été développés vers la fin du XIXe siècle et on a continué à les perfectionner tout au long des XXe et XXIe siècles. Les outils au carbure de tungstène permettent de couper plus rapidement des matériaux plus durs tout en réduisant leur remplacement, les temps morts et les coûts associés.

    Les inserts au carbure de tungstène des outils et machines sont créés en combinant du carbure de tungstène et, souvent, du cobalt, réduits en poudre fine avec un liant organique exclusif, le tout finalement fritté, un procédé qui consiste à faire durcir cette poudre sous une température élevée pendant un long moment.

    Les outils de coupe modernes sont fabriqués en compactant sous une pression énorme du tungstène, du cobalt et d’autres matériaux à l’état de traces. Les ébauches compactées sont ensuite portées à une température telle que le liant organique est fondu, laissant alors un outil de coupe ultra dur.

    Après une rectification au diamant pour obtenir les cotes appropriées, les outils de coupe finis servent à de l’usinage à grande vitesse et à la fabrication de pièces de fonctionnement dans des usines et des laboratoires du monde entier.

    Combinées à la Commande Numérique par Calculateur (c’est-à-dire la commande automatisée des outils d’usinage tels que les perceuses, les aléseuses et les tours), les plaquettes de coupe en carbure de tungstène constituent la base mécanique de presque toutes les fabrications de précision du monde – des moteurs à combustion interne aux moteurs électriques des véhicules, des trains d’atterrissage des avions aux turbines électriques qui font marcher notre civilisation.

    En fait, aucun autre métal n’a eu un impact aussi important sur les procédés de fabrication en général.

    De nos jours, les outils de coupe au carbure de tungstène sont utilisés dans la production de pointe des métaux dans tous les pays développés du monde. Les systèmes d’usinage CNC les plus élaborés peuvent régulièrement reproduire des pièces avec des tolérances de précision de seulement +/- 2 microns.

    Si le tungstène n’a pas engendré l’ère de la fabrication mécanique de précision, il lui a néanmoins permis d’atteindre son apogée.

    Sur le web – Traduction par Joel Sagnes pour Contrepoints