• chevron_right

      Meta sues “brazenly disloyal” former exec over stolen confidential docs

      news.movim.eu / ArsTechnica · Wednesday, 13 March - 18:14

    Meta sues “brazenly disloyal” former exec over stolen confidential docs

    Enlarge (credit: Boris Zhitkov | Moment )

    A recently unsealed court filing has revealed that Meta has sued a former senior employee for "brazenly disloyal and dishonest conduct" while leaving Meta for an AI data startup called Omniva that The Information has described as "mysterious."

    According to Meta, its former vice president of infrastructure, Dipinder Singh Khurana (also known as T.S.), allegedly used his access to "confidential, non-public, and highly sensitive" information to steal more than 100 internal documents in a rushed scheme to poach Meta employees and borrow Meta's business plans to speed up Omniva's negotiations with key Meta suppliers.

    Meta believes that Omniva—which Data Center Dynamics (DCD) reported recently "pivoted from crypto to AI cloud"—is "seeking to provide AI cloud computing services at scale, including by designing and constructing data centers." But it was held back by a "lack of data center expertise at the top," DCD reported .

    Read 20 remaining paragraphs | Comments

    • chevron_right

      Nvidia introduces the H200, an AI-crunching monster GPU that may speed up ChatGPT

      news.movim.eu / ArsTechnica · Monday, 13 November - 21:44 · 1 minute

    The Nvidia H200 GPU covered with a blue explosion.

    Enlarge / The Nvidia H200 GPU covered with a fanciful blue explosion that figuratively represents raw compute power bursting forth in a glowing flurry. (credit: Nvidia | Benj Edwards)

    On Monday, Nvidia announced the HGX H200 Tensor Core GPU, which utilizes the Hopper architecture to accelerate AI applications. It's a follow-up of the H100 GPU , released last year and previously Nvidia's most powerful AI GPU chip. If widely deployed, it could lead to far more powerful AI models—and faster response times for existing ones like ChatGPT —in the near future.

    According to experts, lack of computing power (often called "compute") has been a major bottleneck of AI progress this past year, hindering deployments of existing AI models and slowing the development of new ones. Shortages of powerful GPUs that accelerate AI models are largely to blame. One way to alleviate the compute bottleneck is to make more chips, but you can also make AI chips more powerful. That second approach may make the H200 an attractive product for cloud providers.

    What's the H200 good for? Despite the "G" in the "GPU" name, data center GPUs like this typically aren't for graphics. GPUs are ideal for AI applications because they perform vast numbers of parallel matrix multiplications, which are necessary for neural networks to function. They are essential in the training portion of building an AI model and the "inference" portion, where people feed inputs into an AI model and it returns results.

    Read 7 remaining paragraphs | Comments

    • chevron_right

      Tired of shortages, OpenAI considers making its own AI chips

      news.movim.eu / ArsTechnica · Monday, 9 October, 2023 - 16:17 · 1 minute

    A glowing OpenAI logo on a blue background.

    Enlarge (credit: OpenAI / Benj Edwards)

    OpenAI, the creator of ChatGPT and DALL-E 3 generative AI products, is exploring the possibility of manufacturing its own AI accelerator chips, according to Reuters . Citing anonymous sources, the Reuters report indicates that OpenAI is considering the option due to a shortage of specialized AI GPU chips and the high costs associated with running them.

    OpenAI has been evaluating various options to address this issue, including potentially acquiring a chipmaking company and working more closely with other chip manufacturers like Nvidia. Currently, the AI firm has not made a final decision, but the discussions have been ongoing since at least last year. Nvidia dominates the AI chip market, holding more than 80 percent of the global share for processors best suited for AI applications. OpenAI CEO Sam Altman has publicly expressed his concerns over the scarcity and cost of these chips.

    The hardware situation is said to be a top priority for OpenAI, as the company currently relies on a massive supercomputer built by Microsoft, one of its largest backers . The supercomputer uses 10,000 Nvidia graphics processing units (GPUs), according to Reuters. Running ChatGPT comes with significant costs, with each query costing approximately 4 cents, according to Bernstein analyst Stacy Rasgon. If queries grow to even a tenth of the scale of Google search, the initial investment in GPUs would be around $48.1 billion, with annual maintenance costs at about $16 billion.

    Read 3 remaining paragraphs | Comments

    • chevron_right

      Sur TikTok, vos données commencent à être stockées en Europe

      news.movim.eu / Numerama · Tuesday, 5 September, 2023 - 13:40

    tiktok data

    TikTok arrête progressivement de stocker vos données n'importe où : des data centers sur le Vieux Continent sont en train d'être construits. L'un d'eux est opérationnel et a commencé à accueillir les informations des internautes européens. [Lire la suite]

    Abonnez-vous aux newsletters Numerama pour recevoir l’essentiel de l’actualité https://www.numerama.com/newsletter/

    • chevron_right

      Bientôt un data-center flottant sur la Loire !

      news.movim.eu / JournalDuGeek · Thursday, 18 May, 2023 - 12:00

    sans-titre-5-46-158x105.png

    Une start-up française s'apprête à bousculer le petit monde des data-centers en installant le premier du genre flottant sur la Loire ! Ce projet à la fois innovant et respectueux de l'environnement pourrait être le précurseur d'un réseau de centres de données sur les fleuves et dans les ports.

    Bientôt un data-center flottant sur la Loire !

    • chevron_right

      De quoi les data centers sont-ils le nom ? – À propos de À bout de flux de Fanny Lopez

      news.movim.eu / LeVentSeLeve · Wednesday, 16 November, 2022 - 18:39 · 10 minutes

    Depuis quelques années, le système énergétique français est bouleversé par l’arrivée massive et sans précédents des opérateurs privés du numérique, qui transforment l’espace, les réseaux énergétiques et les consommations. C’est à ce « continuum électrico-numérique » que Fanny Lopez s’intéresse dans son dernier ouvrage À bout de flux (Éditions divergences, octobre 2022). L’historienne de l’architecture et des techniques revient sur le développement de ces infrastructures numériques, à la fois omniprésentes et invisibles, et sur les risques liés à leur insertion dans les télécommunications et infrastructures énergétiques nationales.

    Ces données qui modifient le territoire

    Moins visibles que les autres infrastructures de télécommunication, les centres de données, enjeu de stockage industriel et de traitement des données, sont le signe du déploiement sans précédent des infrastructures numériques. Fanny Lopez, auteure d’un rapport pour l’Ademe intitulé « L’impact énergétique et spatial des infrastructures numériques » (2019) revient dans son dernier ouvrage, sur leur insertion à la fois territoriale et énergétique dans les réseaux des télécommunications.

    À bout de flux, Fanny Lopez ((Divergences, octobre 2022)

    Accompagnant les besoins nouveaux des citoyens, mais surtout des entreprises, le nombre et la superficie des centres de données a explosé en quelques années, reconfigurant les territoires. La réduction du prix des câbles – les coûts ayant été divisés par dix pour une capacité multipliée par 50 en vingt ans – a en effet conduit à l’hyper-concentration de ces centres de données et au développement monofonctionnel des territoires, un phénomène que la maîtresse de conférence qualifie d’« effet magnet ». L’étude Data Gravity de l’Université de Berkeley [1] montre ainsi que les données échangées par les 2000 plus grandes entreprises mondiales s’accumulent autour de 50 villes dans le monde. En France, RTE prévoit une multiplication par trois de la consommation des centres de données à l’horizon 2050 [2] .

    Spatialement, cette hyper-concentration se traduit par l’émergence de grandes banlieues autour des grands hubs mondiaux, à l’instar de Ashburn en Virginie, au Nord de Washington qui compte 270 centres de données consommant 2000 MG soit l’équivalent de 200 centrales nucléaires.  Économiquement, le développement de ces « zones numériques monofonctionnelles » est corrélé à une tendance à la monopolisation croissante des acteurs. En 2019, Microsoft comptait 115 partenaires de centres de données, et 20 en 2022.

    Éclairer la matérialité du grand système technique électrique

    Ce renforcement économique et spatial de l’hyperconcentration des données incite Fanny Lopez à produire une déconstruction méthodique des présupposés idéologiques et technologiques qui guident ces processus historiques. L’objectif de l’auteure est de mettre en lumière les conséquences spatiales, environnementales, urbanistiques des « grands systèmes électriques » et les enjeux et perspectives inhérents à ces infrastructures, à l’heure où elles doivent être renouvelées. Selon l’auteur « Éclairer la matérialité du grand système électrique, c’est tenter de recomposer une intelligibilité technique. S’intéresser à la transmission et à la distribution, c’est revenir sur la forme et l’échelle des mailles du réseau et donc questionner les fondamentaux de l’urbanisme des flux : rapport centre-périphérie, production-consommation, densité-étalement, phénomènes de métropolitisation et de hubs ». En d’autres termes, la considération des effets de ces infrastructures invite mécaniquement à une réflexion critique sur l’imaginaire qui sous-tend ce qu’elle nomme « le productivisme des flux ».

    « Avec la digitalisation, les infrastructures numériques et électriques tendent à se confondre dans un continuum électrico-numérique »

    L’électricité a permis l’essor des télécommunications, en assurant la mobilité de toutes les machines. Mais c’est avec l’arrivée de l’informatique couplée aux possibilités permises par l’électricité qu’on assiste à une convergence des machines, et à une fusion de celles-ci dans le cadre d’un système d’interconnexion croissant. Dans la continuité de la pensée du philosophe Günther Anders, Fanny Lopez revient sur cette nouvelle « ontologie des appareils », avec l’idée que le développement sans limite de ces machines fait de l’homme un prolongement de celles-ci et non l’inverse. Ainsi, l’électricité couplée à l’outil numérique forme une « méga-machine » (Günther Anders). Du fait de l’interconnexion de celles-ci, les machines s’autorégulent et précèdent l’intervention humaine. Les échanges « d’individus à machine » (échanges de mails, envoi de données par smartphone, etc.) ne représentent que 20 % des flux de données, tandis que 80 % de la création de données est produite par les entreprises.

    « Il n’y a pas de problèmes de production d’électricité en France »

    Contrairement à l’opinion courante selon laquelle la numérisation des activités économiques et administratives permettrait d’alléger la facture énergétique de la planète, on constate au contraire que   les infrastructures numériques sur lesquelles reposent les services numériques pèsent de plus en plus lourd sur nos infrastructures électriques et, partant, sur notre consommation énergétique globale. En effet, les grands opérateurs privés très énergivores se rattachent au réseau de distribution ou de transport électrique selon l’importance de leur consommation pour leur usage quotidien, tout en s’assurant une production électrique de secours au besoin. Les centres de données disposent de générateurs de secours pour leurs besoins propres, en cas de panne sur le réseau électrique. Ainsi constate-t-on avec la digitalisation à la fois la hausse de la consommation de l’électricité et une redondance infrastructurelle, alors même que les opérateurs publics n’ont pas de leviers d’action vis-à-vis de cette demande croissante.

    D’un côté, les limites de notre modèle énergétique semblent évidentes. À l’heure actuelle, les réacteurs nucléaires vieillissent, l’ EPR de Flamanville ne fonctionne toujours pas . De l’autre, tous les grands scénarios énergétiques présentées par RTE à l’horizon 2050 prévoient l’augmentation de la production d’électricité en lien avec l’électrification des usages. À l’occasion de la présentation des scénarii « Futurs énergétiques 2050 », les dirigeants de RTE insistaient en outre sur la nécessité de restructurer les réseaux à court terme, en s’appuyant sur les outils numériques pour optimiser le réseau électrique. L’idée étant que le numérique assure une utilisation plus flexible de l’électricité, notamment avec les « smart grid » et l’Intelligence artificielle. Pour Fanny Lopez, cela revient à dire qu’« avec la digitalisation, les infrastructures numériques et électriques tendent à se confondre dans un continuum électrico-numérique ».

    « L’hégémonie technicienne repose sur la croissance et le renforcement du grand système électricité comme unique perspective »

    Les investissements économiques importants déployés pour soutenir ce modèle de grand système technique centralisé hérité du début du siècle semblent pourtant de plus en plus incompatibles avec les différentes limites planétaires. L’amélioration de l’efficacité énergétique ne garantit pas à l’heure actuelle des effets équivalents en termes des émissions de gaz à effet de serre à ceux qu’auraient des modifications structurelles des modes de productions qui les conditionnent et les déterminent. Notre modèle de production énergétique reste adossé à la production massive de données, encouragée par des acteurs privés et conduit à l’explosion de ces data centers qui transforment nos territoires. Ainsi, « l’hégémonie technicienne repose sur la croissance et le renforcement du grand système électricité comme unique perspective ».

    Tandis que le débat public énergétique tourne généralement autour des sources d’énergie et dudit « mix énergétique » sans jamais porter sur les infrastructures en elles-mêmes, Fanny Lopez soutient que « sortir de ce cycle infernal, c’est assumer une discussion sur la transformation de toute la structure du réseau, depuis la production jusqu’à la distribution ».

    De la privatisation croissante des infrastructures

    La crise de notre système électrique et énergétique actuel met en évidence les limites de notre modèle, et invite à prendre pleinement la mesure de la déstabilisation des territoires par l’arrivée massive des opérateurs numériques privés : « Alors que les politiques urbaines et les politiques publiques ont fait de la ville connectée, autrement appelé smart city , un objet de prospective urbaine, la réalisation de l’infrastructure reste aux mains d’une industrie privée poussée par la fièvre connectique et les parts de marché associées au grands projet de l’interconnexion des machines dont le nombre, la consommation électrique et le poids environnemental ne pourront se perpétuer, alors même que le cercle de la logique technologique du capitalisme tardif rend la technique de plus en plus étrangère aux besoins fondamentaux ».

    Le déploiement des infrastructures numériques se réalise aujourd’hui sous l’emprise d’entreprises privées. Or, comme le montre l’auteur, l’ampleur des infrastructures des télécommunications a été rendue possible par d’importants investissements publics. Dans le secteur des télécommunications, l’inflexion libérale a été particulièrement manifeste malgré l’invisibilité de ces infrastructures qui nous empêche de prendre la mesure de l’évolution du déploiement de celles-ci.

    Or la dynamique actuelle des infrastructures du numérique se révèle de plus en plus incompatible avec les missions remplies par les infrastructures des services publics, compris au sens large comme un « objet socio-technique dont l’usage partagé est réglementé dans une perspective d’accessibilité et de respect de l’environnement » (p. 33). En effet, les infrastructures numériques captent l’énergie des infrastructures publiques selon le principe de la file d’attente qui prévoit que le premier arrivé est le premier servi sans hiérarchisation ni priorisation des usages. En outre, la consommation électrique et numérique est favorisée, dans le cadre de ce que Günther Anders appelle la « mégamachine » susmentionnée, sans qu’une optimisation des usages ne soient envisagée à l’aune des impératifs climatiques. Pour ces raisons, Fanny Lopez estime ainsi que « les réseaux numériques se développent dans un « âge post-service public » .

    « Changer de société, c’est changer d’infrastructure » (Castoriadis)

    À l’heure où nous avons de nombreux débats publics autour des sources d’énergie et d’électricité, peut-être devrions nous réfléchir aux systèmes mêmes de nos infrastructures, caractérisées par leur interconnexion pour repenser des reconfigurations structurelles. C’est en tout cas ce à quoi ce livre nous invite.

    À la fin de l’ouvrage, Fanny Lopez propose ainsi des pistes de réflexion pour penser une alternative à notre modèle actuel de réflexion sur les infrastructures. Contre l’idée selon laquelle remettre en question notre modèle imposerait d’en passer par des positions technophobe ou réactionnaire, l’auteure avance des éléments de résolution pour reconsidérer notre technostructure électrique. Ce qui suppose d’éviter deux écueils. Le champ de cette réflexion est en effet selon elle considérablement limité, du fait de deux conceptions antinomiques de la technologie. L’imaginaire technique est soit cantonné à l’ « hégémonie culturelle libérale » très techno-solutionniste, soit restreint à l’« imaginaire effrondiste ».

    À rebours de ces conceptions réductrices, il faudrait selon elle réinvestir l’imaginaire des machines, pour nourrir l’idéal d’un réseau efficace et garant d’une égale distribution des services sur l’ensemble du territoire. Pour ce faire, elle invite à considérer deux échelles de gouvernance, nationale et communale : « Parvenir à re-utopiser la grande échelle infrastructurelle tout en tenant la technique proche serait un défi de l’hypothèse redirectionniste ». Cette dialectique du proche et de la grande échelle invite ainsi à penser des infrastructures « habitables », proches des besoins et soucieuses de prévenir les risques environnementaux.

    • chevron_right

      Qu’est-ce qu’un data center ?

      news.movim.eu / Numerama · Sunday, 13 November, 2022 - 17:05

    Un data center, ou centre de données, est l'espace dans lequel sont concentrés tous les équipements permettant de faire tourner les systèmes d'information d'une entreprise... ou de plusieurs, si elles sont clientes d'un fournisseur cloud, par exemple. [Lire la suite]

    Abonnez-vous aux newsletters Numerama pour recevoir l’essentiel de l’actualité https://www.numerama.com/newsletter/

    • chevron_right

      Plan de sobriété énergétique : la liste des propositions pour le numérique

      news.movim.eu / Numerama · Thursday, 6 October, 2022 - 16:06

    Le gouvernement liste plusieurs actions à mener dans le numérique, dans le cadre du plan de sobriété énergétique. Nombre de ces leviers reposent sur l'incitation. [Lire la suite]

    Abonnez-vous aux newsletters Numerama pour recevoir l’essentiel de l’actualité https://www.numerama.com/newsletter/

    • chevron_right

      Sale journée pour Google : l’entreprise a eu une panne et un incident électrique

      news.movim.eu / Numerama · Tuesday, 9 August, 2022 - 11:03

    data center google

    Google a été confronté à une brève panne dans la nuit du 8 au 9 août, qui a limité l'utilisation de certains de ses services. Par ailleurs, il a été rapporté un incident électrique dans un data center aux États-Unis. [Lire la suite]

    Abonnez-vous aux newsletters Numerama pour recevoir l’essentiel de l’actualité https://www.numerama.com/newsletter/