• chevron_right

      Nvidia jumps ahead of itself and reveals next-gen “Rubin” AI chips in keynote tease

      news.movim.eu / ArsTechnica · Monday, 3 June - 17:13 · 1 minute

    Nvidia's CEO Jensen Huang delivers his keystone speech ahead of Computex 2024 in Taipei on June 2, 2024.

    Enlarge / Nvidia's CEO Jensen Huang delivers his keystone speech ahead of Computex 2024 in Taipei on June 2, 2024. (credit: SAM YEH/AFP via Getty Images )

    On Sunday, Nvidia CEO Jensen Huang reached beyond Blackwell and revealed the company's next-generation AI-accelerating GPU platform during his keynote at Computex 2024 in Taiwan. Huang also detailed plans for an annual tick-tock -style upgrade cycle of its AI acceleration platforms, mentioning an upcoming Blackwell Ultra chip slated for 2025 and a subsequent platform called "Rubin" set for 2026.

    Nvidia's data center GPUs currently power a large majority of cloud-based AI models, such as ChatGPT , in both development (training) and deployment (inference) phases, and investors are keeping a close watch on the company, with expectations to keep that run going.

    During the keynote, Huang seemed somewhat hesitant to make the Rubin announcement, perhaps wary of invoking the so-called Osborne effect , whereby a company's premature announcement of the next iteration of a tech product eats into the current iteration's sales. "This is the very first time that this next click as been made," Huang said, holding up his presentation remote just before the Rubin announcement. "And I'm not sure yet whether I'm going to regret this or not."

    Read 9 remaining paragraphs | Comments

    • chevron_right

      CoreCtrl – Libérez le potentiel de votre GPU sous Linux

      news.movim.eu / Korben · Sunday, 26 May - 07:00 · 2 minutes

    Vous en avez marre que votre carte graphique soit bridée sous Linux ? Vous rêvez de pouvoir overclocker votre GPU comme un pro pour booster les perfs dans vos jeux préférés ? Alors laissez-moi vous présenter votre nouveau meilleur pote : CoreCtrl !

    Ce logiciel open source va vous permettre d’exploiter enfin tout le potentiel de votre GPU AMD sans vous prendre la tête. Plus besoin d’être un champion de la ligne de commande pour régler les fréquences, les voltages et autres joyeusetés. Avec CoreCtrl, tout se fait en quelques clics depuis une interface super facile à prendre en main.

    L’outil embarque une tripotée de fonctionnalités pour les power users. Vous pourrez par exemple créer des profils d’overclocking personnalisés, monitorer en temps réel les températures et les performances, gérer finement la vitesse des ventilateurs, et même undervolt votre GPU pour réduire sa consommation.

    Et le top du top, c’est que CoreCtrl est compatible avec un tas de cartes graphiques AMD, des anciennes générations aux derniers modèles. Bref, que vous ayez une vieille Radeon HD qui traîne ou une RX 6900 XT flambant neuve, vous pourrez en tirer le meilleur.

    Certains relous me diront : « Oui, euuuh, mais overclocker son GPU, euuuuh, ça fait fondre la carte et ça annule la garantieuuuu « .

    Alors oui, forcément si vous poussez les curseurs dans le rouge en permanence, votre GPU risque de partir en fumée. Mais utilisé avec sagesse, l’overclocking peut vraiment donner un boost appréciable notamment pour tout ce qui est traitement GPU et gaming (sous linux, lol), sans forcement réduire la durée de vie de votre matos.

    D’ailleurs, CoreCtrl intègre des garde-fous bien pensés pour éviter ce genre de déconvenues. Vous pourrez donc définir des seuils de sécurité pour les températures et les voltages, histoire de ne pas tout cramer. Et si jamais vous sentez que vous êtes allé trop loin dans l’optimisation, pas de panique : il suffit de recharger le profil par défaut et hop, votre carte retrouve son état d’origine.

    Si ça vous branche de tester, c’est sur le dépôt GitLab du projet ou installable avec cette commande :

    sudo apt install corectrl

    Par contre, je ne serais pas responsable si vous faites de la merde, hein.

    Happy overclocking les amis ! 😄

    • chevron_right

      Un GPU Intel Arc A750 sur un processeur ARM 64 cœurs ? C’était impossible, mais il l’a fait quand même !

      news.movim.eu / Korben · Tuesday, 14 May - 13:27 · 1 minute

    Vous pensiez que les cartes graphiques Intel Arc étaient réservées aux processeurs x86 ? Et bien détrompez-vous car un ingénieur de génie nommé Vladimir Smirnov , a réussi un exploit tout à fait inattendu. Il est parvenu à faire fonctionner un GPU Arc A750 sur un processeur ARM 64 cœurs Ampere Altra, et tout ça sous Linux !

    Vladimir était en train de monter un serveur ARM avec une carte mère ASRock Rack et un processeur Ampere Altra et en attendant de recevoir toutes les pièces, il s’est dit qu’il allait tester différentes cartes graphiques qu’il avait sous la main : une vieille Radeon RX 550, une RX 5700 de minage et un Intel Arc A750 flambant neuf.

    Pour la Radeon RX 550 , pas de souci, installation simple et sans galère. Pour la RX 5700 , petite compatibilité problématique avec le noyau Linux 6.1 sur ARM, en raison de registres non sauvegardés et d’un bug PCIe spécifique aux puces Ampere Altra. Heureusement pour lui, des correctifs ont été intégrés dans plusieurs distributions Linux, donc c’est facilement contournable.

    Mais mais mais… Pour l’Intel Arc A750 c’est un autre délire. En effet, les pilotes (le i915) pour ce GPU d’Intel sont principalement conçus pour une architecture x86, ce qui pose problème sur ARM et malheureusement, le nouveau pilote Xe dédié aux cartes Arc pose aussi problème sur ARM.

    Alors que faire ? Se rouler en boule dans un coin et pleurer ? Non ! Vladimir ne s’est pas laissé décourager. En commentant des bouts de code liés à la compatibilité avec les vieilles consoles VGA, il a pu obtenir une image via HDMI. Mais pas de 3D… snif… Il a donc fallu recompiler Mesa3D avec la version compatible Xe et appliquer des correctifs pour résoudre ces bugs spécifiques aux puces Ampere Altra. Et finalement, petit miracle 2024, l’Intel Arc A750 a pu afficher de la 3D sur son processeur ARM 64 cœurs !

    Bien que cette configuration ne permette pas de jouer à des jeux extrêmement gourmands tels que Crysis en 8K, pouvoir faire tourner Doom 3 représente déjà un exploit ! Bravo Vlad, tu es notre héros

    Bref, la prochaine qu’on vous dira « c’est pas possible « , fait comme Vlad, persévérez !

    Source

    • chevron_right

      Geohot atomise les firmwares AMD et ça fait mal

      news.movim.eu / Korben · Monday, 25 March - 17:40 · 2 minutes

    Je sais pas si vous avez vu passer ça, mais dernièrement, il y a eu un peu de grabuge entre George Hotz (Geohot) et AMD, puisque ce dernier a essayé de faire tourner son framework IA Tiny Grad sur des GPU AMD .

    Sauf que voilà, AMD lui a donné du fil à retordre avec ses firmwares propriétaires . Le driver open-source d’AMD se révélant être une jolie mascarade puisque tout les morceaux de code critiques sont bien protégés et sous licence.

    Pourtant, Geohot n’a pas lésiné. Des mois à éplucher le code, à bypasser la stack logicielle, à discuter avec les pontes d’AMD. Mais rien à faire, les mecs veulent pas cracher leurs précieux blobs binaires . « Trop risqué, pas assez de ROI, faut voir avec les avocats. » Bref, c’est mort.

    Pendant ce temps, Nvidia se frotte les mains avec son écosystème IA bien huilé. Des pilotes certifiés, des perfs au rendez-vous, une bonne communauté de devs… Tout roule pour eux, alors qu’AMD continue de s’enfoncer dans sa logique propriétaire , au détriment de ses utilisateurs.

    La goutte d’eau pour Geohot ? Un « conseil » de trop de la part d’AMD qui l’a incité à « lâcher l’affaire « . Résultat, geohot est passé en mode « j e vais vous montrer qui c’est le patron « . Si AMD ne veut pas jouer le jeu de l’open-source , alors il va leur exposer leurs bugs de sécu à la face du monde !

    Et c’est ce qu’il a fait puisque durant un live de plus de 8h, il s’est attaché à trouver plusieurs exploit dans le firmware des GPU AMD. Il est fort !

    Dans l’IA, l’aspect hardware compte évidemment mais le software c’est le nerf de la guerre . Les boîtes noires, les firmwares buggés, le code legacy, c’est plus possible et les sociétés qui tournent le dos à la communauté des développeurs et des hackers font, selon moi, le mauvais choix.

    Et ce qui arrive à AMD n’est qu’un exemple de plus.

    Bref, comme d’habitude, gros respect à Geohot pour son combat de vouloir encore et toujours que la technologie profite au plus grand nombre. En attendant, suite à sa mésaventure avec AMD, il a annoncé qu’il switchait tout son labo sur du matos Nvidia et qu’il bazardait ses 72 Radeon 7900 XTX sur eBay. Si vous voulez des GPU d’occase pour pas cher (et apprendre à les faire planter ^^), c’est le moment !

    Et si le code source de ses exploits vous intéresse, tout est sur Github .

    Merci George !

    • chevron_right

      Nvidia imagine bouleverser la modélisation 3D

      news.movim.eu / Numerama · Friday, 22 March - 11:23

    Latte3D

    Demain, serons-nous tous modélisateurs 3D ? Nvidia a dévoilé une IA générative, appelée LATTE3D, qui transforme en instant du texte en des représentations 3D. La démonstration s'est focalisée sur des objets et des animaux, mais l'outil pourrait générer en 3D n'importe quoi.

    • chevron_right

      AMD promises big upscaling improvements and a future-proof API in FSR 3.1

      news.movim.eu / ArsTechnica · Thursday, 21 March - 17:20

    AMD promises big upscaling improvements and a future-proof API in FSR 3.1

    Enlarge (credit: AMD)

    Last summer, AMD debuted the latest version of its FidelityFX Super Resolution (FSR) upscaling technology . While version 2.x focused mostly on making lower-resolution images look better at higher resolutions, version 3.0 focused on AMD's "Fluid Motion Frames," which attempt to boost FPS by generating interpolated frames to insert between the ones that your GPU is actually rendering.

    Today, the company is announcing FSR 3.1 , which among other improvements decouples the upscaling improvements in FSR 3.x from the Fluid Motion Frames feature. FSR 3.1 will be available "later this year" in games whose developers choose to implement it.

    Fluid Motion Frames and Nvidia's equivalent DLSS Frame Generation usually work best when a game is already running at a high frame rate, and even then can be more prone to mistakes and odd visual artifacts than regular FSR or DLSS upscaling. FSR 3.0 was an all-or-nothing proposition, but version 3.1 should let you pick and choose what features you want to enable.

    Read 6 remaining paragraphs | Comments

    • chevron_right

      WebGPU – Des failles qui permettent de siphonner les données des internautes avec un simple JS

      news.movim.eu / Korben · Wednesday, 20 March - 07:29 · 2 minutes

    Vous pensiez que votre GPU était à l’abri des regards indiscrets ? Que nenni damoiseaux zé demoiselles !!!

    Une équipe de chercheurs vient de mettre en lumière des failles béantes dans la sécurité de l’API WebGPU , cette technologie qui booste les performances graphiques de nos navigateurs.

    D’après cette étude , ces vulnérabilités permettraient à des scripts malveillants d’exploiter les canaux auxiliaires du GPU pour siphonner des données sensibles, comme vos mots de passe ou vos clés de chiffrement. Rien que ça ! 😱 Concrètement, les chercheurs ont réussi à monter ces attaques par canaux auxiliaires en fonction du temps et de l’état du cache du GPU, le tout depuis un simple navigateur web.

    En analysant finement l’impact de différentes charges de travail sur les performances du processeur graphique, ils sont parvenus à en déduire des informations sur les autres processus utilisant cette ressource qui est, vous vous en doutez, partagée. Et c’est là qu’est le problème.

    Le plus inquiétant, c’est que leur proof of concept se résume à du code JavaScript tout ce qu’il y a de plus basique. Pas besoin d’avoir accès au PC, un site web malveillant peut très bien faire l’affaire. De quoi donner des sueurs froides aux éditeurs de navigateurs… Rassurez-vous, je ne compte pas l’intégrer sur Korben.info, la bouffe n’est pas assez bonne en prison ^^.

    Pour l’instant, à part Mozilla qui a publié un bulletin d’avertissement , les principaux acteurs comme Google ou Microsoft n’ont pas réagi. Bouuuuh ! Ils estiment sans doute que le jeu n’en vaut pas la chandelle et préfèrent miser sur les gains de performances de WebGPU plutôt que de s’embarrasser avec des demandes d’autorisations qui gâcheraient l’expérience utilisateur.

    Pourtant, les chercheurs sont formels, les sociétés qui conçoivent des navigateurs doivent traiter l’accès au GPU avec la même rigueur que les autres ressources sensibles comme la caméra ou le micro. Sinon, gare aux dérives ! On peut imaginer des utilisateurs qui se font piller leurs cryptomonnaies pendant qu’ils surfent innocemment, ou pire, des fuites de données à grande échelle orchestrées depuis des sites en apparence légitimes.

    Avec ça, le bandeau RGPD peut aller se rhabiller ^^/

    Rassurez-vous, pour le moment, WebGPU est activé par défaut uniquement dans Chrome et ses dérivés. Pour Firefox, c’est encore seulement dans les versions Nightly (mais ça arrive bientôt). Je vous laisse tester votre navigateur avec le proof of concept dont je vous parlais un peu plus haut.

    Bref, cette étude a le mérite de lancer le débat sur les implications sécuritaires des API web de plus en plus intrusives. À l’heure où le GPU s’impose comme une ressource de calcul incontournable, y compris pour des tâches sensibles, la question de son isolation et de la maîtrise des accès devient cruciale.

    Bref, on réfléchira à deux fois avant d’autoriser l’accès au GPU sur un site louche… 😉

    Source

    • chevron_right

      Nvidia unveils Blackwell B200, the “world’s most powerful chip” designed for AI

      news.movim.eu / ArsTechnica · Tuesday, 19 March - 15:27 · 1 minute

    The GB200 "superchip" covered with a fanciful blue explosion that suggests computational power bursting forth from within. The chip does not actually glow blue in reality.

    Enlarge / The GB200 "superchip" covered with a fanciful blue explosion that suggests computational power bursting forth from within. The chip does not actually glow blue in reality. (credit: Nvidia / Benj Edwards)

    On Monday, Nvidia unveiled the Blackwell B200 tensor core chip—the company's most powerful single-chip GPU, with 208 billion transistors—which Nvidia claims can reduce AI inference operating costs (such as running ChatGPT ) and energy consumption by up to 25 times compared to the H100 . The company also unveiled the GB200, a "superchip" that combines two B200 chips and a Grace CPU for even more performance.

    The news came as part of Nvidia's annual GTC conference, which is taking place this week at the San Jose Convention Center. Nvidia CEO Jensen Huang delivered the keynote Monday afternoon. "We need bigger GPUs," Huang said during his keynote. The Blackwell platform will allow the training of trillion-parameter AI models that will make today's generative AI models look rudimentary in comparison, he said. For reference, OpenAI's GPT-3, launched in 2020, included 175 billion parameters. Parameter count is a rough indicator of AI model complexity.

    Nvidia named the Blackwell architecture after David Harold Blackwell , a mathematician who specialized in game theory and statistics and was the first Black scholar inducted into the National Academy of Sciences. The platform introduces six technologies for accelerated computing, including a second-generation Transformer Engine, fifth-generation NVLink, RAS Engine, secure AI capabilities, and a decompression engine for accelerated database queries.

    Read 8 remaining paragraphs | Comments