• chevron_right

      GPT2-chatbot – Une IA mystère qui serait la prochaine évolution d’OpenAI (GPT-4.5 / GPT-5) ?

      news.movim.eu / Korben · 5 days ago - 07:51 · 2 minutes

    Vous avez entendu parler de GPT2-chatbot ?

    C’est un modèle de langage un peu mystérieux, accessible uniquement sur le site https://chat.lmsys.org , qui semble avoir des super pouvoirs dignes de ChatGPT . Mais attention, suspense… Personne ne sait d’où il sort !

    Quand on lui pose la question, ce petit malin de GPT2-chatbot clame haut et fort qu’il est basé sur l’archi de GPT-4 sauf que voilà, ça colle pas vraiment avec son blaze GPT-2…

    Du coup, les théories vont bon train. Certains pensent que c’est un coup fourré d’ OpenAI , qui l’aurait lâché en mode ninja sur le site de LMSYS pour tester un nouveau modèle en douce, possiblement GPT-4.5 ou GPT-5. D’autres imaginent que c’est LMSYS qui a bidouillé son propre chatbot et qui lui a bourré le crâne avec des données de GPT-4 pour le rendre plus savant que Wikipédia.

    Moi, je pencherais plutôt pour la première hypothèse. Pourquoi ? Et bien ce GPT2-chatbot partage des caractéristiques bien spécifiques avec les modèles d’OpenAI, comme l’utilisation du tokenizer maison « tiktoken » ou encore une sensibilité toute particulière aux prompts malicieux .

    Au travers de mes propres tests réalisés hier soir, j’ai pu constater que les différences entre GPT2-chatbot et GPT-4 étaient assez subtiles. Les textes générés par GPT2-chatbot sont effectivement mieux construits et de meilleure qualité. Lorsque j’ai demandé à Claude (un autre assistant IA) de comparer des textes produits par les deux modèles, c’est systématiquement celui de GPT2-chatbot qui ressortait gagnant.

    Ma théorie personnelle est donc qu’il s’agit bien d’une nouvelle version améliorée de ChatGPT mais je ne pense pas qu’on soit déjà sur du GPT-5. Plutôt du GPT-4.5 grand maximum car les progrès, bien réels, ne sont pas non plus renversants. C’est plus une évolution subtile qu’une révolution.

    Les internautes ont aussi leurs hypothèses . Certains imaginent que GPT2-chatbot pourrait en fait être un petit modèle comme GPT-2 (d’où son nom) mais boosté avec des techniques avancées comme Q* ou des agents multiples pour atteindre le niveau de GPT-4. D’autres pensent qu’OpenAI teste en secret une nouvelle architecture ou un nouvel algorithme d’entraînement révolutionnaire permettant d’obtenir les performances de GPT-4 avec un modèle compact. Les plus optimistes voient même en GPT2-chatbot les prémices de l’AGI !

    Prêt à tester les talents cachés de GPT2-chatbot ?

    Alors direction https://chat.lmsys.org , sélectionnez « gpt2-chatbot », cliquez sur « Chat » et c’est parti mon kiki !

    Vous avez droit à 8 messages gratos en mode « tchatche directe » et après, faut passer en mode « Battle » pour continuer à jouer. Un petit conseil : pensez à repartir d’une page blanche en cliquant sur « New Round » à chaque fois que vous changez de sujet, sinon il risque de perdre le fil.

    On verra bien dans quelques semaines quelle théorie sortira gagnante de ces discussions.

    Source

    • chevron_right

      ChatGPT dit n’importe quoi sur les internautes, et se fait attaquer

      news.movim.eu / Numerama · 6 days ago - 15:10

    Jackie-Chan-Confused-meme

    De nouveaux ennuis arrivent pour OpenAI, la société derrière ChatGPT. L'activiste autrichien Max Schrems, très actif contre les géants du net dès qu'il est question de données personnelles, a lancé une procédure contre le créateur du célèbre chatbot.

    • chevron_right

      OpenAI met la main sur un nouveau poids lourd de la presse

      news.movim.eu / JournalDuGeek · 6 days ago - 12:38

    Chatgpt Presse

    L'entreprise continue de signer des contrats avec des tauliers du monde des médias pour entraîner ChatGPT. Des collaborations qui bénéficient aux deux parties, mais qui font aussi émerger des questions inconfortables.
    • chevron_right

      La nouvelle souris de Logitech a un bouton pour accéder à ChatGPT

      news.movim.eu / JournalDuGeek · Saturday, 27 April - 10:00

    Logitech

    Si les claviers Windows intègrent une touche pour lancer Copilot, l'assistant AI de Microsoft, pourquoi les souris n'y auraient pas droit elles aussi ? Logitech a lancé un nouveau mulot, la M750 Wireless Signature AI Edition, doté d'un bouton dédié à ChatGPT !
    • chevron_right

      Tech brands are forcing AI into your gadgets—whether you asked for it or not

      news.movim.eu / ArsTechnica · Thursday, 25 April - 22:34

    Tech brands love hollering about the purported thrills of AI these days.

    Enlarge / Tech brands love hollering about the purported thrills of AI these days. (credit: Getty )

    Logitech announced a new mouse last week. A company rep reached out to inform Ars of Logitech’s “newest wireless mouse.” The gadget’s product page reads the same as of this writing.

    I’ve had good experience with Logitech mice, especially wireless ones, one of which I'm using now . So I was keen to learn what Logitech might have done to improve on its previous wireless mouse designs. A quieter click ? A new shape to better accommodate my overworked right hand? Multiple onboard profiles in a business-ready design?

    I was disappointed to learn that the most distinct feature of the Logitech Signature AI Edition M750 is a button located south of the scroll wheel. This button is preprogrammed to launch the ChatGPT prompt builder, which Logitech recently added to its peripherals configuration app Options+.

    Read 28 remaining paragraphs | Comments

    • chevron_right

      Apple releases eight small AI language models aimed at on-device use

      news.movim.eu / ArsTechnica · Thursday, 25 April - 20:55

    An illustration of a robot hand tossing an apple to a human hand.

    Enlarge (credit: Getty Images)

    In the world of AI, what might be called "small language models" have been growing in popularity recently because they can be run on a local device instead of requiring data center-grade computers in the cloud. On Wednesday, Apple introduced a set of tiny source-available AI language models called OpenELM that are small enough to run directly on a smartphone. They're mostly proof-of-concept research models for now, but they could form the basis of future on-device AI offerings from Apple.

    Apple's new AI models, collectively named OpenELM for "Open-source Efficient Language Models," are currently available on the Hugging Face under an Apple Sample Code License . Since there are some restrictions in the license, it may not fit the commonly accepted definition of "open source," but the source code for OpenELM is available.

    On Tuesday, we covered Microsoft's Phi-3 models , which aim to achieve something similar: a useful level of language understanding and processing performance in small AI models that can run locally. Phi-3-mini features 3.8 billion parameters, but some of Apple's OpenELM models are much smaller, ranging from 270 million to 3 billion parameters in eight distinct models.

    Read 7 remaining paragraphs | Comments

    • chevron_right

      Cette technologie vous simplifie la vie au quotidien et vous n’en avez même pas conscience [Sponso]

      news.movim.eu / Numerama · Thursday, 25 April - 10:15

    Cet article a été réalisé en collaboration avec OVHcloud

    Elle est partout : dans nos mails, dans nos smartphones, dans notre vie quotidienne numérique. Et pourtant, vous ne la voyez pas. Qui ? L'intelligence artificielle bien sûr !

    Cet article a été réalisé en collaboration avec OVHcloud

    Il s’agit d’un contenu créé par des rédacteurs indépendants au sein de l’entité Humanoid xp. L’équipe éditoriale de Numerama n’a pas participé à sa création. Nous nous engageons auprès de nos lecteurs pour que ces contenus soient intéressants, qualitatifs et correspondent à leurs intérêts.

    En savoir plus

    • chevron_right

      L’IA vous rend déjà la vie plus simple, c’est juste que vous ne le voyez pas [Sponso]

      news.movim.eu / Numerama · Thursday, 25 April - 05:47

    Cet article a été réalisé en collaboration avec OVHcloud

    L’IA est partout ou presque : dans nos mails, dans nos smartphones, dans notre vie quotidienne numérique. Et c’est justement quand elle est invisible qu’elle est le plus pratique.

    Cet article a été réalisé en collaboration avec OVHcloud

    Il s’agit d’un contenu créé par des rédacteurs indépendants au sein de l’entité Humanoid xp. L’équipe éditoriale de Numerama n’a pas participé à sa création. Nous nous engageons auprès de nos lecteurs pour que ces contenus soient intéressants, qualitatifs et correspondent à leurs intérêts.

    En savoir plus

    • chevron_right

      Microsoft’s Phi-3 shows the surprising power of small, locally run AI language models

      news.movim.eu / ArsTechnica · Tuesday, 23 April - 20:47

    An illustration of lots of information being compressed into a smartphone with a funnel.

    Enlarge (credit: Getty Images)

    On Tuesday, Microsoft announced a new, freely available lightweight AI language model named Phi-3-mini, which is simpler and less expensive to operate than traditional large language models (LLMs) like OpenAI's GPT-4 Turbo . Its small size is ideal for running locally, which could bring an AI model of similar capability to the free version of ChatGPT to a smartphone without needing an Internet connection to run it.

    The AI field typically measures AI language model size by parameter count. Parameters are numerical values in a neural network that determine how the language model processes and generates text. They are learned during training on large datasets and essentially encode the model's knowledge into quantified form. More parameters generally allow the model to capture more nuanced and complex language-generation capabilities but also require more computational resources to train and run.

    Some of the largest language models today, like Google's PaLM 2 , have hundreds of billions of parameters. OpenAI's GPT-4 is rumored to have over a trillion parameters but spread over eight 220-billion parameter models in a mixture-of-experts configuration. Both models require heavy-duty data center GPUs (and supporting systems) to run properly.

    Read 8 remaining paragraphs | Comments