• chevron_right

      Rabbit R1 – Le super gadget IA trop hype n’est en fait qu’une app Android

      news.movim.eu / Korben · 2 days ago - 23:31 · 2 minutes

    Rabbit R1 , le joujou IA dont tout le monde parle depuis des mois, avait créé un sacré buzz à son annonce. On nous promettait une révolution, un assistant personnel intelligent toujours à portée de main pour répondre à nos questions, identifier des objets, jouer votre musique préférée ou commander un Uber. Bref, l’accessoire indispensable pour notre vie connectée qui remplacerait ce foutu smartphone.

    Sauf que… en fait non.

    Les premiers tests sont tombés et le verdict est sans appel, exactement comme je l’avais prédit sur Twitter y’a quelques semaines : le Rabbit R1 est un bide intersidéral. Sous ses airs de gadget futuriste, il s’agit en réalité d’un appareil fonctionnant sous une version modifiée d’ Android , le tout dans une coque en plastique.

    Et ses fonctionnalités révolutionnaires ?

    Et bien c’est juste une application préinstallée…

    Je déconne pas. Toute la magie s’envole d’un coup. Fini le rêve du compagnon IA révolutionnaire, on se retrouve juste avec une merde de plus en plastique qui recycle des technologies existantes et bridées. Mais le pire, c’est que cette fameuse app Android, il est possible de l’installer sur un smartphone Android. C’est ce qu’on réussi à faire les journalistes d’ Android Authority sur un bon gros Pixel 6a . Et ça fonctionne plutôt bien même si l’affichage est tout petit vu que c’est prévu pour l’écran rikiki du R1 . Mais on peut discuter avec l’assistant, lui poser des questions et obtenir des réponses exactement comme si on avait un Rabbit R1 dans les mains !

    Alors bien sûr des trucs comme la prise de photos ou la reconnaissance d’images ne fonctionnent pas car il manque les autorisations système et l’intégration matérielle dont bénéficie l’app sur le vrai appareil mais y’a l’essentiel, à avoir l’ IA conversationnelle !

    Cela veut dire que ce gadget vendu 200 balles n’était en fait qu’une surcouche logicielle, un simple lanceur Android customisé. Pas besoin d’appareil dédié, un APK aurait suffit… et vendre à ce prix un produit qui tient en grande partie sur une app, c’est quand même gonflé surtout que l’autonomie est ridicule et qu’il faut un forfait data en plus !

    La douille.

    Bref, si vous attendiez le Rabbit R1 comme le messie, contentez-vous d’installer l’app ChatGPT, vous aurez une expérience similaire pour 0€.

    Allez, bisous mes lapins de 3 semaines 🐰

    • chevron_right

      GitHub Copilot Workspace – L’environnement de dev piloté par l’IA !

      news.movim.eu / Korben · 2 days ago - 11:48 · 4 minutes

    J’espère que vous êtes bien installés dans votre cockpit, parce que GitHub nous a reservé une sacrée surprise : Copilot Workspace , un environnement de développement nouvelle génération entièrement propulsé par l’IA.

    Vous connaissez sûrement déjà GitHub Copilot , ce fidèle acolyte qui nous assiste depuis l’année dernière en nous soufflant des suggestions de code directement dans votre IDE, et bien avec Copilot Workspace, GitHub veut carrément révolutionner la façon de concevoir des logiciels.

    L’idée est simple : vous exprimez ce que vous voulez faire en langage naturel, comme si vous discutiez avec votre pote développeur et Copilot Workspace vous aide à transformer votre concept en réalité, étape par étape.

    Par exemple, si vous avez une idée de fonctionnalité à ajouter à votre projet, vous ouvrez Copilot Workspace, vous saisissez une description de ce que vous voulez faire, et hop ! L’IA analyse votre requête, génère un plan d’action détaillé, et vous guide tout au long du processus de développement.

    Brainstorming, planification, implémentation, tests… Chaque phase est assistée par Copilot Workspace qui vous fera des suggestions, répondra à vos questions, et automatisera un maximum de tâches fastidieuses, le tout de manière transparente et collaborative.

    Le top du top, c’est que tout est « steerable » comme ils disent chez GitHub. Cela veut dire que vous gardez le contrôle à tout moment et chaque suggestion de l’IA peut être affinée, modifiée ou rejetée selon vos désirs. Bref, vous restez le pilote et Copilot n’est que votre copilote (et gardez votre culotte) !

    D’ailleurs, Copilot Workspace vous permet d’orienter le système via le langage naturel à 2 endroits : en modifiant la spécification (une description de la base de code actuelle et de l’état souhaité) et en modifiant le plan (une liste d’actions à entreprendre dans chaque fichier). Cela vous permet de guider le système vers la solution que vous souhaitez mettre en œuvre. Cette capacité de pilotage est essentielle, car elle permet aux développeurs de dépasser les limites de la taille des suggestions, en imitant la façon dont ils travaillent sur des problèmes réels. Cela se traduit par un code généré plus précis et plus facile à évaluer.

    Une fois votre code écrit, vous pouvez le valider et l’exécuter directement dans l’environnement, histoire de vérifier que tout roule comme sur des roulettes. Chaque Copilot Workspace permet une synchronisation en direct avec les Codespaces, ce qui vous permet d’ouvrir un terminal, d’installer des dépendances et d’exécuter votre code directement depuis l’espace de travail. Et si vous avez besoin d’outils plus avancés, hop, vous basculez dans un Codespace pour retrouver une expérience d’IDE complète dans le cloud, avec un serveur exécutant VS Code.

    Côté collaboration, vous pouvez partager un instantané de votre Workspace avec vos petits camarades en un clic, pour recueillir leur feedback ou les laisser expérimenter leurs propres idées. S’ils font partie de la preview technique, ils pourront même forker votre Workspace et itérer dessus. Par contre, si vous apportez des modifications à votre Workspace après l’avoir partagé, ces changements ne seront pas reflétés dans la version partagée. Il faudra alors partager un nouveau lien pour transmettre la dernière mouture.

    Et le plus chouette, c’est que Copilot Workspace est accessible de partout, même depuis votre smartphone. Comme ça, la prochaine fois que vous avez une illumination en faisant vos courses, vous pourrez directement la prototyper depuis le rayon fromages du supermarché !

    Avec cette annonce, GitHub affiche clairement son ambition : démocratiser le développement logiciel en le rendant plus intuitif, plus naturel, plus humain en somme. Leur vision à long terme c’est un monde où tout le monde peut coder aussi simplement qu’on fait du vélo et je dois dire que je suis plutôt emballé par cette perspective puisque je fonctionne déjà comme ça pour mes projets de dev grâce notamment à Cursor .

    Sous le capot, Copilot Workspace est propulsé par le modèle GPT-4 Turbo, que les équipes de GitHub ont jugé le plus performant pour cette tâche après avoir testé de nombreuses alternatives. D’ailleurs, c’est intéressant de comparer Copilot Workspace avec les autres fonctionnalités de la gamme Copilot.

    Là où Copilot vous aide à écrire du code en faisant des suggestions au fur et à mesure que vous tapez, et où Copilot Chat permet de discuter des changements potentiels, Copilot Workspace est un véritable environnement de développement orienté tâches, qui planifie et rédige des modifications coordonnées sur plusieurs fichiers. Chacun de ces outils a son utilité, et ils se complètent à merveille.

    GitHub a surtout compris l’importance d’impliquer les développeurs dans cette aventure. C’est pour ça qu’ils lancent Copilot Workspace en technical preview , histoire de recueillir un maximum de feedback et d’itérer en fonction. Si ça vous tente de jouer les beta-testeurs, c’est par ici pour vous inscrire !

    Source

    • chevron_right

      IA : pourquoi France TV a abandonné le floutage des témoins sensibles ?

      news.movim.eu / JournalDuGeek · 2 days ago - 09:33

    Visage Flouté

    Le service public français a préféré ne pas prendre de risque sur l'identité de ses témoins les plus sensibles.
    • chevron_right

      GPT2-chatbot – Une IA mystère qui serait la prochaine évolution d’OpenAI (GPT-4.5 / GPT-5) ?

      news.movim.eu / Korben · 2 days ago - 07:51 · 2 minutes

    Vous avez entendu parler de GPT2-chatbot ?

    C’est un modèle de langage un peu mystérieux, accessible uniquement sur le site https://chat.lmsys.org , qui semble avoir des super pouvoirs dignes de ChatGPT . Mais attention, suspense… Personne ne sait d’où il sort !

    Quand on lui pose la question, ce petit malin de GPT2-chatbot clame haut et fort qu’il est basé sur l’archi de GPT-4 sauf que voilà, ça colle pas vraiment avec son blaze GPT-2…

    Du coup, les théories vont bon train. Certains pensent que c’est un coup fourré d’ OpenAI , qui l’aurait lâché en mode ninja sur le site de LMSYS pour tester un nouveau modèle en douce, possiblement GPT-4.5 ou GPT-5. D’autres imaginent que c’est LMSYS qui a bidouillé son propre chatbot et qui lui a bourré le crâne avec des données de GPT-4 pour le rendre plus savant que Wikipédia.

    Moi, je pencherais plutôt pour la première hypothèse. Pourquoi ? Et bien ce GPT2-chatbot partage des caractéristiques bien spécifiques avec les modèles d’OpenAI, comme l’utilisation du tokenizer maison « tiktoken » ou encore une sensibilité toute particulière aux prompts malicieux .

    Au travers de mes propres tests réalisés hier soir, j’ai pu constater que les différences entre GPT2-chatbot et GPT-4 étaient assez subtiles. Les textes générés par GPT2-chatbot sont effectivement mieux construits et de meilleure qualité. Lorsque j’ai demandé à Claude (un autre assistant IA) de comparer des textes produits par les deux modèles, c’est systématiquement celui de GPT2-chatbot qui ressortait gagnant.

    Ma théorie personnelle est donc qu’il s’agit bien d’une nouvelle version améliorée de ChatGPT mais je ne pense pas qu’on soit déjà sur du GPT-5. Plutôt du GPT-4.5 grand maximum car les progrès, bien réels, ne sont pas non plus renversants. C’est plus une évolution subtile qu’une révolution.

    Les internautes ont aussi leurs hypothèses . Certains imaginent que GPT2-chatbot pourrait en fait être un petit modèle comme GPT-2 (d’où son nom) mais boosté avec des techniques avancées comme Q* ou des agents multiples pour atteindre le niveau de GPT-4. D’autres pensent qu’OpenAI teste en secret une nouvelle architecture ou un nouvel algorithme d’entraînement révolutionnaire permettant d’obtenir les performances de GPT-4 avec un modèle compact. Les plus optimistes voient même en GPT2-chatbot les prémices de l’AGI !

    Prêt à tester les talents cachés de GPT2-chatbot ?

    Alors direction https://chat.lmsys.org , sélectionnez « gpt2-chatbot », cliquez sur « Chat » et c’est parti mon kiki !

    Vous avez droit à 8 messages gratos en mode « tchatche directe » et après, faut passer en mode « Battle » pour continuer à jouer. Un petit conseil : pensez à repartir d’une page blanche en cliquant sur « New Round » à chaque fois que vous changez de sujet, sinon il risque de perdre le fil.

    On verra bien dans quelques semaines quelle théorie sortira gagnante de ces discussions.

    Source

    • chevron_right

      La première course de voitures autonomes a eu lieu à Abu Dhabi !

      news.movim.eu / Korben · 3 days ago - 20:32 · 3 minutes

    L’avenir est en marche les amis, et il trace sa route à toute vitesse sur l’asphalte brûlant du circuit de Formule 1 d’Abu Dhabi ! Oui, je vous parle bien de la première course de Formules 100% autonomes durant laquelle il y a eu quelques crashes , des tête-à-queue et des sorties de piste intempestives, mais globalement ces bolides bourrés d’IA et de capteurs ont réussi à boucler leurs tours comme des grands, même si on est encore loin des meilleurs pilotes humains . Mais pour un coup d’essai c’est plus que prometteur !

    On avait donc au départ de cette finale 4 voitures badgées Dallara (les monoplaces de Super Formula japonaise), modifiées pour embarquer un paquet de technologies de conduite autonome dernier cri : caméras, radars, LiDARs, GPS RTK, unité de calcul surpuissante, et bien sûr tout un tas de logiciels et d’algorithmes de dingue. Chaque voiture représentait une écurie talentueuse : on avait Polimove et Unimore pour l’Italie, TUM et Constructor AI pour l’Allemagne.

    La course s’est déroulée en deux temps, d’abord sous régime de voiture de sécurité pour habituer les engins à rouler en peloton sur la piste, puis en mode attaque où là c’était chacun pour sa pomme ! Et autant vous dire que ça n’a pas raté, dès les premiers virages ça a commencé à partir en cacahuète, surtout dans l’ épingle à cheveux en fin de ligne droite.

    L’ équipe italienne Polimove , grande favorite avec les meilleurs chronos en qualif’, a mordu la poussière sur le 4ème tour avec un gros tout droit et impossible de repartir. Du coup leurs rivaux de Unimore ont pris la tête, avant de se faire dépasser par une attaque surprise de TUM . Ça a failli être le carambolage quand la voiture de tête a subitement ralenti, mais finalement tout le monde est passé !

    Constructor AI n’était pas dans le rythme mais au moins ils ont franchi la ligne d’arrivée. Bref, au terme de rebondissements en pagaille, de bugs logiciels aléatoires et de dépassements limite kamikaze, c’est finalement TUM et sa voiture nommé Haley qui s’est imposé devant Unimore et Constructor AI . Un succès 100% germanique donc…

    Mais cette course complètement folle, c’est surtout une première historique et un grand pas en avant pour la mobilité autonome . Elle montre qu’il est possible de faire rouler des véhicules intelligents à très haute vitesse dans un environnement complexe et dynamique, avec des progrès hallucinants d’une année sur l’autre.

    Comme je vous le disais en intro, chaque voiture est équipée d’une suite de capteurs, notamment des caméras, des LIDAR, des radars et des systèmes GPS/INS , qui recueillent en permanence des données sur l’environnement de la voiture. Ces données sont transmises à un logiciel puissant qui utilise la vision par ordinateur et des algorithmes d’apprentissage automatique pour analyser et interpréter les informations en temps réel. Sur la base de cette analyse, le logiciel génère des signaux de contrôle qui dirigent les actions de la voiture, telles que la direction, l’accélération et le freinage, par le biais de moteurs électriques et de systèmes hydrauliques.

    En outre, les voitures communiquent entre elles et avec l’infrastructure de la piste via des protocoles de communication dédiés, permettant une coordination et une prise de décision efficaces.

    Et si vous avez jeté un œil à la vidéo, reconnaissez que c’est un sacré spectacle de voir ces engins du futur se tirer la bourre ! Ça change des habituels Grand Prix et on a vraiment l’impression de plonger dans un jeu vidéo futuriste style WipEout . D’ailleurs si vous voulez voir les choses de plus près, les organisateurs ont publié une app de réalité virtuelle qui vous place directement dans l’habitacle de ces bolides. Avec un casque VR sur la tête, c’est comme si vous y étiez !

    Bref, ette première course auto 100% autonome c’est quand même un tour de force technologique, et ça ouvre un paquet de perspectives même si je doute que ça prenne un jour la place des courses automobiles « humaines » dans le cœur des spectateurs.

    Source

    • chevron_right

      De la recherche Torrent décentralisée et alimentée par l’IA

      news.movim.eu / Korben · 5 days ago - 09:24 · 2 minutes

    Si vous êtes fan de partage de fichiers P2P, ça devrait vous plaire. En effet, des chercheurs de l’université de technologie de Delft qui sont derrière le projet Tribler , ont développé un moteur de recherche torrent complètement décentralisé et alimenté par l’ intelligence artificielle .

    Bizarre non ?

    Alors attention, on n’est pas encore au niveau de Google Search mais l’idée est de combiner les deux technologies : les modèles de langage (les fameux LLM) et la recherche décentralisée . Le principe ensuite, c’est que chaque pair du réseau héberge une partie du modèle de langage, qui peut alors être utilisé pour trouver du contenu à partir de requêtes en langage naturel.

    Concrètement, le framework De-DSI (Decentralized Differentiable Search Index) utilise des modèles de langage décentralisés stockés par les pairs et chaque utilisateur peut ainsi contribuer à l’entraînement du modèle.

    Côté recherche, les infos sont réparties sur plusieurs pairs, sans besoin de serveurs centraux, comma ça, quand vous lancez une requête, le système d’IA va chercher les meilleurs résultats en fonction des données partagées par les pairs. Chaque pair étant spécialisé dans un sous-ensemble d’infos, ce qui permet aux autres de récupérer le contenu le plus pertinent.

    Les grands principes derrière tout ça :

    • La décentralisation : vous stockez et partagez vos propres données, sans passer par un serveur central
    • L’ apprentissage automatique : les modèles de langage sont entraînés à partir des infos partagées par les pairs
    • La spécialisation : chaque pair gère un type d’infos, pour fournir les résultats les plus adaptés

    Au final, ça donne une IA décentralisée et résiliente, capable de répondre à vos recherches sans serveurs centraux.

    Genre, vous pourriez lui demander un truc du style « trouve-moi un lien magnet pour le documentaire sur The Pirate Bay », et hop, le système vous renverrait direct le bon lien, sans même citer le nom du doc. Ou encore « C’est quoi déjà l’adresse Bitcoin de Wikileaks ? ».

    Bon pour l’instant, c’est encore un proof of concept et les chercheurs ont testé ça sur un petit dataset avec des URLs YouTube, des liens magnet et des adresses de wallet Bitcoin, mais l’idée, c’est de pouvoir retrouver n’importe quel type de contenu, juste en tapant une requête en français (ou une autre langue). Ce qui est cool aussi, c’est qu’en étant complètement décentralisé , ça empêche n’importe qui de contrôler le système ou de le censurer.

    A terme, les chercheurs espèrent carrément développer un « cerveau global pour l’humanité ». Rien que ça. L’idée, c’est d’utiliser l’apprentissage décentralisé pour que la technologie profite au plus grand nombre, sans être contrôlée par les grosses entreprises ou les gouvernements. Comme ils le disent, « la bataille royale pour le contrôle d’Internet est en train de s’intensifier ». Et leur but, c’est de redonner le pouvoir aux citoyens, petit à petit.

    En attendant, si vous voulez tester leur proof of concept , je vous mets le lien. Et si vous voulez en savoir plus sur le côté technique, vous pouvez checker leur papier de recherche .

    Merci à Letsar pour l’info

    Source

    • chevron_right

      Adobe VideoGigaGAN – L’IA qui transforme vos vidéos floues en HD !

      news.movim.eu / Korben · 7 days ago - 08:37 · 1 minute

    Vous avez une vieille vidéo toute pourrie, floue à souhait, qui date de Mathusalem et bien avec VideoGigaGAN d’Adobe, elle va se transformer en une magnifique séquence HD, avec des détails si nets que vous pourrez compter les poils de nez des gens qui sont dessus !

    VideoGigaGAN est ce qu’on appelle un modèle d’IA génératif. En gros, ce machin est capable de deviner les détails manquants dans une vidéo pourrave pour la rendre méga classe. Les petits gars d’Adobe ont balancé des exemples sur leur GitHub et franchement, c’est impressionnant. On passe d’une vidéo degueulasse à un truc ultra net, avec des textures de peau hallucinantes et des détails de fou !

    En plus, cette IA est capable d’upscaler les vidéos jusqu’à 8 fois leur résolution d’origine, par contre, faut pas s’emballer car pour le moment, c’est juste une démo de recherche et y’a pas encore de date de sortie officielle. Mais connaissant Adobe, y’a moyen que ça finisse dans Premiere Pro un de ces quatre. Je vais pouvoir améliorer mes vidéos tournées à l’époque au format 3GP \o/.

    D’ici là, va falloir continuer à se taper des vidéos de chat toutes pixelisées sur les réseaux sociaux.

    Source

    • chevron_right

      L’IA du MIT qui prédit les actions humaines

      news.movim.eu / Korben · Wednesday, 24 April - 18:00 · 3 minutes

    Imaginez un monde où les ordinateurs pourraient prédire ce que vous allez faire avant même que vous ne le fassiez. Ça peut sembler tout droit sorti d’un film de science-fiction du style de Minority Report, mais les chercheurs du célèbre MIT (Massachusetts Institute of Technology) sont en train de rendre ça possible ! En effet, ils ont mis au point un modèle d’ IA (intelligence artificielle) qui est capable d’ analyser les limitations d’un agent, qu’il soit humain ou artificiel , pour en déduire ses actions futures les plus probables.

    Dingue, non ?

    Mais comment ce modèle s’y prend-il pour jouer les madame Irma ? En fait, tout est une question de limites. Nan, je ne parle pas des limites de vitesse ou des dates de péremption, hein. Je parle des contraintes qui pèsent sur un agent peu importe sa nature, biologique ou numérique.

    Prenons un exemple concret : Vous êtes en train de jouer aux échecs contre un ordinateur. Vous avez vos propres contraintes : votre niveau de jeu, votre connaissance des ouvertures et des fins de partie, votre capacité à anticiper les coups de l’adversaire… Bref, tout un tas de facteurs qui limitent vos possibilités d’action. Eh bien, c’est exactement ce que le modèle d’IA du MIT analyse !

    En se basant sur ces fameuses limites, il est capable d’inférer les coups que vous avez le plus de chances de jouer. Pas besoin d’être Garry Kasparov pour comprendre à quel point c’est bluffant. Votre ordinateur sera bientôt meilleur que vous aux échecs… et dans plein d’autres domaines !

    Mais attention, le modèle du MIT ne prétend pas prédire l’avenir avec une précision de 100%. Il s’agit plutôt d’identifier des tendances et des schémas de comportement en fonction des limitations d’un agent. Ça reste néanmoins un outil très puissant pour anticiper les actions les plus probables.

    D’ailleurs, les applications de cette technologie vont bien au-delà des jeux de société. Je pense par exemple au voitures autonomes qui pourraient anticiper les mouvements des piétons et des autres véhicules, des assistants virtuels qui sauraient exactement ce que vous allez leur demander avant même que vous n’ouvriez la bouche, des robots industriels capables de s’adapter en temps réel aux changements de leur environnement… Les possibilités sont infinies !

    Bien sûr, tout cela soulève aussi son lot de questions éthiques . Est-ce qu’on a vraiment envie que les machines lisent dans nos pensées comme dans un livre ouvert ? Est-ce que ça ne risque pas de créer de sacrés problèmes de vie privée et de manipulation ? Imaginez que votre enceinte connectée décide de vous commander une pizza quatre fromages parce qu’elle a deviné que vous aviez un petit creux… Flippant, non ?

    Mais bon, on n’en est pas encore là. Pour l’instant, les chercheurs du MIT sont encore en train de plancher sur leur modèle pour le perfectionner et étendre ses capacités. Et croyez-moi, c’est loin d’être un long fleuve tranquille ! L’ IA a beau faire des progrès de géant, prédire le comportement humain reste un sacré défi. On est tellement imprévisibles et irrationnels, nous autres mortels…

    En attendant de pouvoir déléguer toutes nos décisions à une machine, le modèle du MIT nous offre un aperçu de ce que pourrait être le futur de l’ interaction homme-machine . Un futur où les ordinateurs nous comprendraient mieux que nous-mêmes, pour le meilleur et pour le pire. Perso, j’oscille entre fascination et inquiétude.

    Et vous ?

    Source