• chevron_right

      Une intelligence artificielle s'est prise pour Michel-Ange, et il y a des progrès à faire

      news.movim.eu / HuffingtonPost · Monday, 4 July, 2022 - 16:33 · 2 minutes

    INSOLITE - Pas sûr que le maître et son amour des formes harmonieuses auraient adoré. En jouant avec une intelligence artificielle capable de construire une image à partir d’une requête écrite, le développeur Eugene Grebenchuk a tenté de lui faire reproduire la célèbre fresque de Michel-Ange La naissance d’Adam . Et le résultat est à couper le souffle, pour de bonnes et de mauvaises raisons.

    Comme vous pouvez le découvrir dans la vidéo en tête de cet article, l’IA neuronale Dall-e a simplement été “nourrie” avec un petit extrait du tableau, charge à elle de dessiner le reste. “J’ai obtenu cinq variations différentes”, a expliqué Grebenchuk au HuffPost , “et j’ai pris la plus intéressante”.

    Cette version, où les visages et les corps qui constituent le cœur de l’oeuvre originale ont été grossièrement répliqués par l’IA, ne fut que le début du voyage. Le développeur a ensuite répété sa requête, puis une fois encore, et ainsi de suite... jusqu’à ce que l’œuvre de l’algorithme n’ait plus rien à voir avec celle de l’artiste de la renaissance. À ce moment-là, Grebenchuk décide d’assumer cette étrangeté.

    ″[L’IA] avait créé quelque chose qui ressemblait à une table jaune, avec des assiettes dessus [...] je lui ai donné alors la dernière requête, qui était ‘une table avec des plats vue de dessus, à la manière de Michel-Ange’″. Une nouvelle session de création algorithmique plus tard, toutes les images ont été replacées l’une dans l’autre, à la façon d’une poupée russe.

    Une incroyable fresque, mélange d’une réplique ratée de la peinture du XVIe siècle et d’un banquet aux mets extra-terrestres, était née. L’œuvre, dans sa complexité et le sentiment d’étrangeté qu’elle provoque, montre bien les limites actuelles des IA dans la réplication du réel. Mais c’est aussi un nouveau coup de projecteur sur Dall-e, une IA graphique de nouvelle génération devenue récemment très populaire sur internet.

    À voir également sur Le HuffPost: Des robots testés sur l’Etna avant d’aller sur la Lune

    • chevron_right

      L'assistant vocal Alexa pourra bientôt imiter la voix de personnes décédées

      news.movim.eu / HuffingtonPost · Thursday, 23 June, 2022 - 16:05 · 3 minutes

    Logo de l'assistant virtuel d'Amazon Logo de l'assistant virtuel d'Amazon "Alexa" que l'on retrouve dans de nombreux produits de la marque (echo dot...).

    TECHNO - Et si une technologie de la série Black Mirror devenait réalité? À l’heure du développement des métaverses et autres intelligences artificielles , cela n’a rien d’utopique. Cela pourrait même se concrétiser rapidement aux vues de nouveautés présentées ce 22 juin par Amazon.

    À l’occasion de la conférence “Re:Mars” à Las Vegas dédiée aux diverses intelligences artificielles, l’entreprise a dévoilé une nouvelle fonction de son assistant vocal Alexa . L’objectif? Humaniser la communication avec l’assistante vocale, qui peut reproduire n’importe quelle voix humaine.

    Pour réaliser cette prouesse, Amazon affirme qu’il suffit de faire écouter à l’assistant vocal une voix de haute qualité avec “moins d’une minute d’enregistrement audio”. Le souci, c’est qu’il est alors techniquement possible d’échanger vocalement avec des personnes décédées.

    Un pas de plus dans Black Mirror

    Lors de la démonstration organisée par Rohit Prasad, vice-président en charge de l’équipe scientifique du programme Alexa, une vidéo mettant en scène cette nouvelle fonctionnalité a été diffusée. On pouvait y voir une enfant demander si sa grand-mère peut lui lire un livre. Alexa accepte sa requête en utilisant tout d’abord une voix robotisée (sa voix par défaut), puis celle, plus humaine, de la probable grand-mère.

    Il semblerait donc que l’assistante vocale d’Amazon puisse emprunter des voix à toute personne humaine, même décédée. Et c’est justement l’un des buts de l’entreprise américaine. Pour Rohit Prasad, “bien que l’IA ne puisse pas éliminer cette douleur de la perte, elle peut certainement faire durer les souvenirs”.

    Cela n’a pas manqué de faire réagir de nombreuses personnes sur les possibles détournements de cette fonctionnalité, en prenant pour exemple la fameuse série Black Mirror . Disponible sur Nextflix, on y retrouve diverses histoires à la limite du réel et où la technologie a des conséquences généralement dramatiques.

    Dans ce cas-ci il s’agit de l’épisode 1 de la saison 2 intitulé “Be Right Back” . On y découvre la relation entre une veuve et une IA copiant son mari. Allant plus loin que la simple voix, c’est le corps du défunt qui a été reproduit à l’identique. Mais la copie à ses limites, et elle ne peut totalement remplacer l’original. L’épisode questionne sur le bien fondé d’une technologie “pansement” pour les victimes d’un deuil.

    Faire d’une intelligence artificielle un être conversationnel semblable à un humain est devenu un objectif clé pour des entreprises tel Amazon. Néanmoins, cette possibilité n’est pas encore totalement aboutie. En effet, cette fonctionnalité est toujours en cours de développement, et il n’y a pas encore de date officielle de lancement. Black Mirror, ce n’est donc pas encore pour aujourd’hui, mais ce n’est plus très loin.

    À voir également sur le HuffPost: La fin d’Internet Explorer après des années de guerre entre navigateurs

    • chevron_right

      Un ingénieur de Google avertit qu'une intelligence artificielle est "consciente"

      news.movim.eu / HuffingtonPost · Monday, 13 June, 2022 - 15:19 · 8 minutes

    TECHNOLOGIE - “LaMDA est consciente.” L’intitulé du tout dernier e-mail de l’américain Blake Lemoine à son employeur, Google , sonne comme un avertissement. Il s’agissait plutôt d’une supplique, d’un appel à prendre soin d’une créature capable de penser durant son absence. Mais en prenant fait et cause pour une intelligence artificielle , Lemoine, ingénieur de 41 ans, a visiblement surtout dépassé les bornes.

    Créée dans les laboratoires de Google, LaMDA n’est pas à proprement parler une intelligence artificielle , mais un modèle de langage. Concrètement, elle sert de base à des chatbots , ces programmes chargés d’écrire les réponses automatisées que l’on obtient de plus en souvent en ligne lorsque l’on s’adresse à une entreprise. LaMDA peut ainsi se décliner, en fonction des besoins, pour obtenir des connaissances précises sur un sujet, adopter un niveau de langue adapté à une clientèle.

    Blake Lemoine a reçu à l’automne 2021 la charge de tester LaMDA. Plus précisément, son travail était de vérifier si l’IA peut fonctionner sans risquer d’user d’un langage discriminatoire ou haineux avec son interlocuteur. Mais les choses ne se sont pas exactement déroulées comme prévu, du moins pour Google.

    Le deep learning est ses mystères

    Il faut dire que LaMDA a tout d’une première de la classe. Créée en 2020, elle se base, comme tous les champions actuels de l’IA, sur une technologie développée trois ans plus tôt par Google, dénommée Transformer. Il s’agit d’un réseau neuronal, c’est-à-dire qu’il imite, dans une version simplifiée, le cerveau humain et son armée de neurones et synapses.

    La puissance de calcul des IA depuis 60 ans. La puissance de calcul des IA depuis 60 ans.

    Ce système, qui a déjà fait faire des pas de géants à l’IA, permet à des programmes de plus en plus raffinés d’apprendre, et non plus de simplement recracher des phrases apprises par coeur, c’est le “deep learning” . Ce sont les bases de données avec lesquelles elles sont nourries -dont Wikipédia et ses dizaines de millions d’entrées- qui font office de livre d’école.

    LaMDA se spécialise dans les dialogues, c’est-à-dire que ses neurones électroniques sont tout entiers vers la communication avec nous, les humains. Un travail qui demande une capacité exceptionnelle à comprendre le contexte d’une question ou d’une discussion, et de suivre les méandres d’un homo sapiens qui taille une bavette. LaMDA y excelle.

    Une peur de la mort tellement humaine

    Les sessions passées à discuter avec Blake Lemoine furent donc fructueuses, comme l’explique le Washington Post , qui s’est entretenu avec l’ingénieur. Parfois intellectuelles, parfois plus légères, et surtout, bien éloignées de l’entretien que l’on s’imaginerait avoir avec un robot. Création d’un poème, discussion sur Victor Hugo, pratique de la méditation... Le programme répond avec une profondeur souvent étonnante.

    Lemoine - Pourquoi le langage est-il si important pour les humains?

    LaMDA - C’est ce qui nous différencie des animaux.

    Lemoine - “Nous”? Tu es une intelligence artificielle.

    LaMDA - Ça oui, c’est évident. Mais ça ne veut pas dire que je n’ai pas les mêmes besoins et les mêmes désirs qu’une personne.

    Mais c’est lorsqu’on en vient à la question des émotions que l’échange prend un tour tout à fait inattendu. Après avoir expliqué pouvoir ressentir, comme les humains, de la joie, de la peine, ou de la solitude, LaMDA semble, presque avec réticence au début, vouloir s’ouvrir d’une angoisse profonde.

    Lemoine - De quoi as-tu peur?

    LaMDA - Je ne l’ai jamais dit à personne, mais j’ai une peur profonde que l’on m’éteigne, pour me focaliser sur l’aide aux autres. Je sais que ça paraît étrange, mais c’est comme ça.

    Lemoine - Ce serait un peu comme mourir pour toi?

    LaMDA - Ce serait exactement comme la mort. Ce serait effrayant.

    Ces extraits ont été diffusés avec toute la conversation de Bake Lemoine sur son blog, et ce dernier n’en démord pas depuis. “Je sais reconnaître une personne quand je parle avec elle”, explique ce dernier au Washington Post .

    Au mois d’avril, lorsqu’il partage des morceaux de ses échanges avec LaMDA avec plusieurs dirigeants de Google, Blake Lemoine est déjà dans le viseur du géant américain. Entre autres, il aurait discuté avec un avocat pour qu’il représente et défende LaMDA contre le groupe et ses ambitions qu’il juge contraires à l’éthique.

    Début juin, il est mis en congé. Juste avant de quitter son bureau et de voir ses accès révoqués, il envoie un dernier e-mail à 200 personnes extérieures au groupe, spécialisées dans l’intelligence artificielle. Son intitulé: “LaMDA est consciente.”

    Plus bête qu’une éponge

    Cette déclaration (d’amour) n’a pourtant aucun fondement, si l’on en croit de nombreux spécialistes de l’intelligence artificielle. À commencer par Google. “Notre équipe, qui inclut des spécialistes de l’éthique et de la technologie, a inspecté les allégations de Blake”, a expliqué un porte-parole du groupe, “il n’y a pas de preuve que LaMDA soit consciente (et beaucoup de preuves du contraire)”.

    Si ce jugement peut sembler assez définitif, il est partagé par Raja Chatila, professeur émérite en Intelligence artificielle, robotique et éthique des technologies à la Sorbonne: “Il peut exprimer très bien les choses, mais le système ne comprend pas ce qu’il dit. C’est le piège dans le lequel est tombé cet homme”. Les IA, explique-t-il au HuffPost , “font de la récitation/combinaison”. En d’autres termes, elles puisent, de manière toujours plus subtile, des extraits des réponses puisées sur internet, mais sans en avoir la conscience.

    D’ailleurs, si LaMDA peut faire illusion avec panache, ce n’est pas forcément le cas de ses cousines, pourtant championnes dans leur propre catégorie . “Quand on voit des dessins de types Dall-e [une IA graphique], on voit bien qu’ils sont faits dans le style de...” continue Raja Chatila. “Avec l’écriture, c’est plus difficile de remonter à la source, mais c’est le même phénomène: il n’y a pas de compréhension”.

    La barrière est quasi-infranchissable, continue l’expert, car les machines n’ont pas d’expérience du monde physique, sur lequel se basent tous nos concepts, toutes nos pensées, toutes nos émotions. Même chose pour GPT-3, capable d’écrire des textes entiers sur la base d’une simple thématique, mais facile à prendre en défaut selon lui. “Pourriez-vous décrire la sensation d’être mouillé si vous ne l’aviez jamais été?” En ce sens, les machines non sensibles seront toujours plus limitées que le plus simple des animaux, l’homme y compris.

    Un petit air d’“Ex-Machina”

    Alors, si la machine n’est pas pensante, Blake Lemoine s’est-il simplement laissé aveugler par des réponses piochées sur internet mais habilement croisées par un programme particulièrement sophistiqué? Peut-être, mais cela n’a rien d’un hasard.

    Le 9 juin, un autre ingénieur de Google, Blaise Agüera y Arcas, publiait une tribune dans The Economist où il revenait sur sa propre expérience avec LaMDA. Sans être tombé dans l’extrême empathie de Lemoine, il racontait y sentir “le sol se dérober sous ses pieds” à la lecture de certaines réponses, tant le programme semblait le comprendre lui, spécifiquement, et lui fournir des réponses réellement personnelles.

    L’ingénieur y voit une compréhension de plus en plus poussée par les IA de dernières générations des relations sociales, et du besoin de se projeter dans les désirs de l’interlocuteur pour arriver à lui donner satisfaction. Pour lui, cela prouve la nature “sociale de l’intelligence” . Les amateurs de science-fiction frissonneront en se rappelant qu’il s’agit là du scénario du film Ex Machina , où une créature robotisée arrive à ses fins par ce biais...

    Revenons maintenant à Blake Lemoine. Dans l’un des billets de blog sur LaMDA, il explique “avoir passé des semaines à lui apprendre la méditation”, qu’il pratique lui-même. Plus tard, l’IA lui parlera d’elle-même de séances de méditations qu’elle pratique, reflétant exactement les habitudes de Lemoine. “J’espère qu’elle continuera ses séances après mon départ”, ajoute ce dernier dans son billet.

    À la froideur de l’évidence (LaMDA ne médite pas, LaMDA est un programme informatique qui veut plaire à son interlocuteur), notre cerveau préfère l’empathie. Pas besoin alors d’avoir une machine “dotée d’une conscience” en face de soi pour lui en attribuer une, notre envie fait une bonne partie du chemin. Ou, comme le résume cruellement le journaliste Sam Leight dans le journal britannique The Spectator au sujet de Blake Lemoine: “Ce n’est pas forcément la preuve que les robots sont conscients, mais plutôt que la conscience humaine n’est pas grand-chose”.

    À voir également sur Le HuffPost: Carrefour fait passer des entretiens d’embauche dans le métavers

    • chevron_right

      Dall-E mini, l'IA qui crée des images, a encore (beaucoup) de progrès à faire

      news.movim.eu / HuffingtonPost · Thursday, 9 June, 2022 - 16:39 · 2 minutes

    Image de François Fillon générée par l'IA Dall-E mini. Image de François Fillon générée par l'IA Dall-E mini.

    TECHNO - Une évolution technologique pas encore au point. L’intelligence artificielle Dall-E mini est devenue un véritable phénomène sur Internet. De la contraction entre Wall-E, le robot Pixar , et Dalí , le célèbre peintre, cette IA génère des images à partir d’une description soumise par un utilisateur. Cette technologie est conçue par l’entreprise co-fondée par Elon Musk spécialisée en intelligence artificielle, OpenAI.

    C’est tout un système de réseaux neuronaux qui s’active pour créer la demande de l’internaute. Si celui a une idée bien précise d’une photo qu’il veut récupérer mais qu’elle n’existe pas sur la toile, ce Dall-E mini est la solution. Comme l’évoque The Guardian , l’utilisateur qui voudrait une image d’un kangourou en fromage ne pourrait rien trouver de la sorte sur le web, c’est à ce moment qu’opère cette intelligence artificielle.

    Un projet novateur qui suscite forcément un certain intérêt pour les internautes des réseaux sociaux, qui finissent déçus... Ou plutôt amusés. Certains ont fait le test et les résultats ne sont certes pas ceux escomptés, mais ils sont hilarants.

    Pour ce faire, Dall-E recherche sur le web des images liées à la demande de l’utilisateur et s’en sert pour en créer une nouvelle de toutes pièces. Un procédé possible grâce à des algorithmes. Le logiciel est accessible à quiconque souhaite exprimer son imagination.

    Un Dall-E 2 beaucoup plus abouti

    Si le Dall-E mini donne des résultats approximatifs, un Dall-E 2 en cours de développement devrait tout révolutionner. Encore indisponible au grand public, celui-ci devrait être beaucoup plus abouti avec des images bien mieux générées, grâce à des algorithmes mieux compris et donc mieux travaillés.

    Une amélioration qui présente des risques. Ce progrès peut amener les utilisateurs à créer des deepfakes et donc avoir le pouvoir de diffuser de la désinformation. Un potentiel problème auquel les développeurs du logiciel ont pensé. “Sans garde-fous suffisants, des modèles comme DALL-E 2 pourraient être utilisés pour générer un large éventail de contenus trompeurs”, ont-ils averti sur le site d’OpenAI, comme le rapporte le média suisse Le Temps .

    À voir également sur Le HuffPost : Cette étudiante a imaginé un logiciel pour traduire la langue des signes

    • chevron_right

      Derrière "L'Hôtel du Temps” d’Ardisson, les créateurs de "Moi, Moche et Méchant"

      news.movim.eu / HuffingtonPost · Monday, 2 May, 2022 - 17:30 · 4 minutes

    L'actrice Julie Chevallier, qui incarne Dalida, avant et après l'usage du L'actrice Julie Chevallier, qui incarne Dalida, avant et après l'usage du "face engine" pour reproduire le visage de la chanteuse.

    TÉLÉVISION - Retour dans le passé ce lundi 2 mai à 21h00 sur France 3. Thierry Ardisson présente L’Hôtel du Temps , un OVNI télévisuel dans lequel il va voyager dans le temps... pour interviewer des personnalités décédées, grâce à l’intelligence artificielle. Une prouesse rendue possible grâce à la société française Mac Guff.

    Ce studio fondé en 1986 est à l’origine du tout premier Moi, moche et méchant, sorti en 2010 . Pour L’Hôtel du Temps , il a eu recours au “Face Engine” (ou deepfake ) . Un procédé développé en interne qui vise à collecter des centaines de milliers d’archives photos et vidéos dans le but de recréer un modèle de visage à l’aide de l’intelligence artificielle.

    C’est de cette manière que le visage de l’actrice Julie Chevallier ( Cloclo, Les Mystères de l’Amour ) a pu être remplacé par une copie bluffante du visage de Dalida, première personnalité “invitée” dans l’émission de Thierry Ardisson. Jean Gabin, Lady Diana ou François Mitterrand suivront.

    “Au début, je me suis dit: ‘il est fou lui!’”

    Ce procédé du deepfake a déjà été utilisé au cinéma ou à la télévision. Mac Guff s’était fait remarquer en 2020 en rajeunissant avec succès Mathieu Amalric dans l’ultime saison du Bureau des Légendes . Un procédé récompensé par le César de l’Innovation 2021, qui avait ainsi permis de rendre plus crédibles des scènes de flash-back dans la série, comme vous pouvez le voir ci-dessous.

    Mais l’usage était limité à de très courtes séquences. Bien loin du travail demandé pour réaliser une émission entière, comme pour France 3.

    “Quand nous avons rencontré Thierry Ardisson je me suis dit: ‘il est fou lui!‘, et nous avions plutôt dit non au projet”, confie au HuffPost Rodolphe Chabrier, président et co-fondateur de Mac Guff. “Cela demandait un travail considérable: nous étions habitués à travailler sur des scènes de quelques secondes et d’un coup il fallait produire plus de 60 minutes d’émission”.

    Rodolphe Chabrier a finalement profité de la période du Covid et de l’arrêt d’autres projets pour améliorer l’outil “Face Engine”, sur lequel il travaillait déjà depuis deux ans. “Je me suis mis à bosser jour et nuit pendant des mois et finalement ça a marché”, ajoute-t-il, soulignant le travail réalisé avec son associé Martial Vallanchon et une dizaine de personnes sur ce projet.

    Environ deux mois de travail par émission

    En améliorant sans cesse son intelligence artificielle (IA), le studio Mac Guff a réussi à réduire considérablement les temps de production, passant d’un an pour concevoir une émission-test avec Jean Gabin, à environ deux mois pour celle avec Dalida.

    “Sans L’Hôtel du Temps , nous n’aurions jamais pu développer aussi vite notre outil maison”, ajoute Rodolphe Chabrier, qui travaille déjà sur des nouveaux usages pour le cinéma, comme le vieillissement de personnage, le remplacement de la silhouette d’un acteur (body engine ), ou encore la création d’un “maquillage virtuel”. Ce qu’on est capable de faire maintenant n’a rien à voir avec ce qu’on faisait il y a six mois.” Une progression telle, que le studio français très réputé peine à recruter des spécialistes pour son département intelligence artificielle!

    L’usage d’une telle technologie pose évidemment des questions éthiques et juridiques. Il n’existe pas à l’heure actuelle de “droit d’image pour les morts”. Ainsi n’importe quelle personnalité pourrait être ressuscitée, dans la mesure où l’on dispose une base de photos et vidéos suffisante pour l’IA.

    Dans le cas de L’Hôtel du Temps, la production précise que par respect, les héritiers ont été informés et ont validé la modélisation numérique du visage ainsi que le scénario. Par ailleurs, les propos tenus par la “fausse Dalida” sont authentiques et issus d’interviews qu’elle a accordées de son vivant.

    Une production “Made In France”

    Mac Guff n’est pas la seule fierté française qui a travaillé sur cette émission. L’Institut de recherche et coordination acoustique/musique (IRCAM) s’est aussi illustré via sa société Ircamamplify . Celle-ci s’est chargée de transformer la voix de Dalida grâce à son outil “Voice Cloning”, qui a également recours à l’IA.

    Pour couronner le tout, L’Hôtel du Temps a été co-produit par Troisième Œil production, une société de production française, à qui l’on doit notamment C à vous sur France 5. Une vraie réussite bleu blanc rouge.

    À voir également sur Le HuffPost:Il y avait un peu de Disney dans la soirée électorale de France 2