• chevron_right

      Reddit cashes in on AI gold rush with $203M in LLM training license fees

      news.movim.eu / ArsTechnica · Friday, 23 February - 17:13 · 1 minute

    "Reddit Gold" takes on a whole new meaning when AI training data is involved.

    Enlarge / "Reddit Gold" takes on a whole new meaning when AI training data is involved. (credit: iStock / Getty Images )

    The last week saw word leak that Google had agreed to license Reddit's massive corpus of billions of posts and comments to help train its large language models. Now, in a recent Securities and Exchange Commission filing, the popular online forum has revealed that it will bring in $203 million from that and other unspecified AI data licensing contracts over the next three years.

    Reddit's Form S-1— published by the SEC late Thursday ahead of the site's planned stock IPO—says the company expects $66.4 million of that data-derived value from LLM companies to come during the 2024 calendar year. Bloomberg previously reported the Google deal to be worth an estimated $60 million a year, suggesting that the three-year deal represents the vast majority of its AI licensing revenue so far.

    Google and other AI companies that license Reddit's data will receive "continuous access to [Reddit's] data API as well as quarterly transfers of Reddit data over the term of the arrangement," according to the filing. That constant, real-time access is particularly valuable, the site writes in the filing, because "Reddit data constantly grows and regenerates as users come and interact with their communities and each other."

    Read 8 remaining paragraphs | Comments

    • chevron_right

      Privatisation de la santé et colonisation des données

      news.movim.eu / LeVentSeLeve · Tuesday, 16 January - 20:49 · 17 minutes

    Les géants de la tech se lancent dans une course aux applications et services qui proposent des soins médico-psychologiques. Si l’utilité de tels produits est loin d’être avérée, ils promettent néanmoins à ces entreprises de nouvelles sources lucratives de données hautement personnelles… Un « colonialisme des données » qui ouvre la voie à une gestion individuelle des problèmes de santé et masque la privatisation rampante de ce domaine. Par Anna-Verena Nosthoff, Nick Couldry et Felix Maschewski, traduit par Jean-Yves Cotté [1] .

    Se piquant de philosophie lors d’une interview en 2019, Tim Cook, PDG d’Apple, avait abordé la question de « la plus grande contribution d’Apple à l’humanité ». Sa réponse était sans équivoque : elle concernerait « le domaine de la santé ».

    Depuis, la promesse de Cook s’est concrétisée sous la forme de plusieurs produits « innovants », censés « démocratiser » les soins médicaux et donner à chacun les moyens de « gérer sa santé ». Ces dernières années, Amazon, Méta et Alphabet ont également tenté de chambouler le marché de la santé. Dernièrement, on a même appris que la société de surveillance Palantir avait remporté un contrat de 330 millions de livres pour créer une nouvelle plateforme de données destinée au British National Health Service (NHS)…

    La pandémie de COVID-19 a accéléré cette tendance , laissant dans son sillage divers réseaux de recherches, services de santé en ligne, cliniques et autres entreprises qui ont pour objectif affiché de « repenser l’avenir de la santé » (pour reprendre l’expression de Verily, filiale d’Alphabet) à l’aide de « montres connectées » et autres outils numériques. Si cette ambition n’est pas neuve, ses modalités varient : les incursions des plus grandes entreprises dans le domaine de la santé ne sont plus uniquement axées sur le corps. Non contentes de cartographier membres et poumons, elles ciblent à présent l’esprit.

    Ce nouvel intérêt des GAFAM pour le bien-être psychologique, dans le cadre de leur projet de « cartographier la santé humaine », est loin d’être une coïncidence . Les gros titres relatifs à une « crise de la santé mentale » ont récemment envahi la presse américaine : le taux de suicide a atteint un niveau record aux États-Unis et, comme l’a souligné Bernie Sanders , selon un récent sondage du Center for Disease Control and Prevention (CDC), près d’un adolescent américain sur trois a déclaré que son état de santé mentale laissait à désirer…

    Les conglomérats technologiques ne sont que trop heureux de lancer des campagnes autour de ces faits alarmants, mettant l’accent sur les efforts qu’ils déploient pour lutter contre ces tendances délétères. Selon les propres mots, ils souhaitent « résoudre la crise de la santé mentale ». Les GAFAM se fient à une maxime longuement éprouvée : en eaux troubles, bonne pêche.

    Quand Apple s’enrichit sur les maladies mentales

    Les premières initiatives d’Apple visant à pénétrer le marché de la santé ont connu une accélération marquée. Après avoir affiné son outil de signature concocté en 2019, l’entreprise a depuis collaboré activement avec plusieurs instituts de recherche. Son but : prouver que sa « montre connectée », bien plus qu’un coach sportif, peut être un « sauveur de vie » capable de détecter une fibrillation auriculaire, voire une infection de COVID-19 1 .

    Dans le cadre de sa mission consistant à offrir à ses utilisateurs un « tableau complet » de leur état de santé, il est logique qu’Apple ait annoncé récemment son intention d’ajouter une évaluation médico-psychologique à son Apple Watch… La nouvelle fonction « état d’esprit » ( state of mind ) de l’application « pleine conscience » d’Apple demande à l’utilisateur d’évaluer ce qu’il ressent sur une échelle de « très agréable » à « très désagréable », d’indiquer les aspects de sa vie qui l’affectent le plus (comme la famille ou le stress au travail) et de décrire son humeur par des adjectifs comme « heureux » ou « inquiet ». La promesse, semble-t-il, est qu’une utilisation quotidienne évitera de consulter un psychologue…

    Au printemps 2023, on apprenait que le National Health System britannique avait partagé sur Facebook des données intimes relatives à la santé de ses patients

    L’application « pleine conscience » utilise ces données pour déterminer le niveau de risque de dépression. Hasard de calendrier : une étude récente sur la « santé mentale numérique » menée par des chercheurs de l’UCLA (et sponsorisée par Apple) a démontré que l’utilisation de cette application sur l’Apple Watch développait la « conscience émotionnelle » de 80 % des utilisateurs, tandis que 50 % d’entre eux affirmaient qu’elle avait un effet positif sur leur bien-être général – des résultats que l’entreprise ne manque pas de mettre en avant .

    Au cours des prochains mois, Apple va vraisemblablement lancer d’autres logiciels liés à la santé mentale. Selon de récents rapports, l’entreprise travaille actuellement à une application censée non seulement traquer les « émotions » des utilisateurs, mais aussi leur donner des conseils médicaux : il s’agit de Quartz, un coach sportif alimenté par une intelligence artificielle.

    Qu’il y ait bel et bien une crise de la santé mentale aux États-Unis est indéniable. Entre 2007 et 2020, le nombre de passages aux urgences pour des troubles d’ordre médicopsychologique a presque doublé, les jeunes étant les plus affectés…

    Cependant, même si l’on admet que les outils « intelligents » puissent modestement bénéficier à certains patients, l’utilisation de wearables peut aussi générer stress et anxiété, comme d’autres études récentes l’ont démontré. [NDLR : Les wearables constituent une catégorie d’objets informatiques et électronique, destinés à être portés sur soi. Vêtements ou accessoires, ils ont la particularité d’être connectés à un appareil, comme un téléphone, pour recueillir des données relatives à la personne qui les porte et à son environnement ]. De plus, l’accent mis sur des solutions technologiques de court terme fait courir le risque de détourner certaines maladies psychologiques des causes sociales et politiques qui les sous-tendent : exploitation au travail, instabilité financière, atomisation croissante , accès limité aux soins, alimentation et logement de mauvaise qualité…

    Les applications de santé transfèrent également la responsabilité principale de la gestion des troubles médico-psychologiques aux individus eux-mêmes. Sumbul Desai, vice-présidente en charge de la santé chez Apple, a récemment affirmé que l’objectif de son entreprise « est de donner aux gens les moyens de prendre en charge leur propre parcours de santé ». Un mantra néolibéral ancien.

    Quand Méta le gouvernement britannique livre ses données de santé à Méta

    Apple n’est pas le seul géant de la tech à s’être penché sur la santé mentale de ses clients. Si le géant de Cupertino ne manifeste guère davantage qu’un intérêt purement formel à la question de la confidentialité des données, bien d’autres ne prennent même pas cette peine.

    Au printemps 2023, on apprenait que le NHS avait partagé sur Facebook des données intimes relatives à la santé de ses patients. Pendant des années, le NHS avait fourni au réseau social et à sa maison-mère Méta, par l’intermédiaire de l’outil de collecte de données Meta Pixel, des renseignements comprenant des recherches sur l’automutilation et des rendez-vous de consultation pris par les utilisateurs de son site internet…

    Outre les données des utilisateurs qui avaient visité les pages de son site internet relatives aux variations du développement sexuel, aux troubles alimentaires et aux services médicopsychologiques en cas de crise, l’Alder Hay Children’s Hospital de Liverpool a également transmis à Facebook et Méta des renseignements sur les prescriptions de médicaments. La clinique londonienne de santé mentale Tavistock and Portman a aussi fourni aux GAFAM les données d’utilisateurs ayant consulté sa rubrique sur le développement de l’identité de genre, spécialement conçue comme support éducatif pour les enfants et les adolescents…

    Tandis que des experts en confidentialité comme Carissa Véliz conseillent aux institutions et professionnels de la santé de « recueillir le strict minimum de renseignements nécessaires pour soigner les patients, rien de plus », cette violation des données du NHS par Facebook illustre la tendance inverse. Dans ce cas précis, les données personnelles ont été obtenues sans que les patients y consentent ou en soient informés, afin de leur adresser des publicités ciblées – le cœur du modèle économique de Méta.

    Ce scandale est simplement le dernier d’une longue liste de catastrophes récentes en matière de relations publiques pour l’entreprise, juste après le fiasco du lancement de son métavers (ce n’est pas une coïncidence si l’avenir immersif d’internet proposé par Zuckerberg a lui-même été salué comme une « solution prometteuse pour la santé mentale »…). Il ne s’agit pas là d’un incident isolé : en mars 2023, on apprenait que la start-up de télé-santé Cerebral avait partagé avec Méta et Google , entre autres, des données médicales privées comprenant des renseignements relatifs à la santé mentale…

    Quand Alphabet se rêve en coach de vie

    La maison-mère de Google, Alphabet, est un autre explorateur des données de santé qui a pénétré le marché des wearables . Depuis la finalisation de son achat du fabricant de « montres connectées » Fitbit en 2021, la société s’est jointe à Apple pour vanter leurs mérites.

    Si Jeff Bezos semble accaparé par ses rêves d’entrepreneuriat spatial et d’industrie lunaire, il n’en garde pas moins les pieds sur terre lorsqu’on en vient à ce domaine.

    Dans la foulée d’une étude menée par Verily (filiale d’Alphabet spécialisée dans la recherche sur les sciences de la vie) pour savoir s’il était possible de détecter les symptômes de dépression avec un smartphone, Fitbit a récemment lancé une application « conçue pour vous donner une vision globale de votre santé et de votre bien-être en mettant l’accent sur les indicateurs qui vous tiennent à cœur ». Semblable à l’application « pleine conscience » d’Apple, elle comporte une fonctionnalité « humeur » qui permet à l’utilisateur de décrire et d’enregistrer ce qu’il ressent.

    Une équipe de la Washington University à St Louis a utilisé les données Fitbit et un modèle d’intelligence artificielle pour concrétiser « la promesse d’utiliser des wearables pour détecter des troubles mentaux au sein d’une communauté large et diverse. » Selon Chenyang Lu, professeur à la McKelvey School of Engineering et l’un des concepteurs de cette étude, cette recherche est pertinente dans le monde réel puisque « aller chez un psychiatre et remplir des questionnaires chronophages explique que certains puissent avoir des réticences à consulter un psychiatre ». En d’autres termes, l’intelligence artificielle peut offrir un outil peu onéreux et peu contraignant pour gérer sa propre santé mentale.

    Loin de prouver que les wearables peuvent diagnostiquer la dépression, l’étude a simplement relevé plusieurs corrélations potentielles entre une tendance à la dépression et les biomarqueurs connectés. Cela n’a pas empêché Lu de s’enthousiasmer : « Ce modèle d’IA est capable de vous dire que vous souffrez de dépression ou de troubles de l’anxiété. Voyez ce modèle d’IA comme un outil de dépistage automatisé. »

    Cette exagération de la preuve empirique perpétue l’idée que la technologie est à même de résoudre les troubles médico-psychologiques – pour le moins douteuse. Une chose l’est moins : c’est extrêmement lucratif pour Alphabet.

    Fitbit n’est cependant pas la seule incursion de l’entreprise dans le domaine de la santé mentale. En plus des informations sur la prévention du suicide que Google Search affiche depuis des années au-dessus des résultats des recherches liées à la santé mentale, l’entreprise a récemment annoncé que les utilisateurs qui entrent des termes en relation avec le suicide verront apparaître une invite avec des démarreurs de conversation pré-écrits qu’ils pourront envoyer par SMS à la 988 Suicide & Crisis Lifeline.

    Bien qu’un tel outil puisse s’avérer très utile en cas d’urgence, l’inquiétude est réelle de voir Google instrumentaliser les données sensibles ainsi recueillies en les transmettant à des annonceurs qui les exploiteront et les monétiseront de la même façon que les autres. Il convient de mentionner que ces nouvelles mesures de prévention du suicide n’ont été dévoilées par Google que quelques semaines après le suicide de trois de ses employés , ce qui a donné lieu à des spéculations quant à la santé mentale de son propre personnel. Dans ce contexte, ces nouvelles fonctionnalités peuvent être vues comme un coup médiatique pour détourner l’attention des problèmes urgents qui se posent à l’entreprise elle-même – et le modèle qu’elle encourage.

    Quand Amazon renonce ouvertement à la confidentialité

    Amazon s’achète également une image de prestataire de soins médico-psychologiques. Si Jeff Bezos semble accaparé par ses rêves d’entrepreneuriat spatial et d’industrie lunaire, il n’en garde pas moins les pieds sur terre lorsqu’on en vient à ce domaine.

    Il a ainsi annoncé dès 2018 son intention de résoudre la crise de la santé mentale qui touche les États-Unis en « démocratisant » l’accès aux soins médicaux. Il a donc procédé au rachat de la pharmacie en ligne PillPack, puis a développé Amazon Pharmacy.

    En 2019, il a lancé Amazon Care, une plateforme en ligne qui propose un suivi médical complet aux employés d’Amazon, 24 heures sur 24 et 7 jours sur 7 par messagerie et chat vidéo. Pour cela, il a dû collaborer avec Ginger , un service internet de psychothérapie fourni par une application qui se présente comme « une solution globale à la santé mentale » avec « des soins médicopsychologiques à tout moment ».

    En 2021, Amazon a fermé Amazon Care et lancé Amazon Clinic, une plateforme virtuelle de soins médicaux plus ambitieuses que la précédente – il a déjà été annoncé qu’il était prévu de la déployer sur tout le territoire américain . Contrairement à Amazon Care, Amazon Clinic est ouvert à tous. Pour l’utiliser, il convient simplement d’accepter « l’utilisation et la divulgation d’informations protégées relatives à la santé » – en d’autres termes, renoncer à son droit à la protection de la vie privée aux termes de la loi fédérale sur la portabilité et la responsabilité en matière d’assurance maladie (Health Insurance Portability and Accountability Act ou HIPAA). Une telle démarche permet à Amazon d’accéder aux données les plus intimes des utilisateurs (la légalité du procédé est en cours d’examen par la Commission fédérale du commerce (Federal Trade Commission ou FTC).

    En février 2023, Amazon a enrichi son offre de soins médicaux en rachetant One Medical , une entreprise qui propose des soins de santé primaires en ligne et en personne via une application, dans plus de vingt villes et régions métropolitaines américaines. Mindset, l’une de ses gammes de services spécialisée dans la santé mentale, propose son aide virtuelle avec des séances collectives ou un coaching individuel en cas de stress, d’anxiété, de dépression, de THADA ou d’insomnie.

    Outre Amazon Clinic et One Medical, Amazon a récemment élargi son offre de soins médicaux à destination de ses employés en collaborant avec Maven Clinic , la plus grande clinique virtuelle du monde pour les femmes et les familles. Ce partenariat permettra à Amazon, dont le but est de se développer dans cinquante pays en plus des États-Unis et du Canada, d’avoir un accès lucratif à certains des ensembles de données les plus privés et sensibles de Maven Clinic.

    Les risques de voir de telles données tomber entre les mains d’entreprises commerciales qui, dans certains cas, les transmettront sans coup férir à des autorités locales ou nationales sont évidents : comme, par exemple, le cas de cette adolescente du Nebraska qui, après que Facebook et Google ont fourni à la police ses messages privés et ses données de navigation, a été condamnée en 2021 pour avoir violé la loi sur l’avortement de l’État…

    La colonisation des données de santé mentale

    La course effrénée d’Amazon, Méta, Apple et Alphabet pour s’implanter dans le domaine de la santé mentale va bien au-delà d’une simple rupture. L’ampleur de ce bouleversement doit être appréhendée dans le cadre d’une volonté d’annexer des ressources jusqu’alors inexploitées.

    Sous le couvert d’entreprises visant à soulager l’instabilité mentale, une forme fondamentale d’appropriation des biens est en cours. Après tout, jusqu’à récemment, l’idée même que notre santé mentale (et l’ensemble des données qui y est associée) puisse être un actif commercial dans un bilan aurait paru étrange. Aujourd’hui, une telle réalité est presque banale. C’est un des aspects de ce que Nick Couldry et Ulises Mejias ont nommé le « colonialisme des données ».

    Les quatre entreprises font partie d‘un secteur commercial plus vaste axé sur l’exploitation de nouvelles définitions de la connaissance et de la rationalité destinées à l’extraction de données. À travers l’accaparement habituel de données sensibles et de nombreux autres domaines sociaux (la santé, l’éducation, la loi, entre autres), nous nous dirigeons vers « la capitalisation sans limites de la vie », pour reprendre l’expression de Couldry et Mejias.

    La normalisation des wearables comme outils destinés à l’individu, sous couvert de gérer sa santé (tant physique que mentale), fait partie du processus, en convertissant la vie quotidienne en un flux de données que l’on peut s’approprier à des fins lucratives. L’application « pleine conscience » d’Apple et « Log Mood » de Fitbit ne sont que deux exemples de la façon dont les GAFAM, après avoir colonisé le territoire du corps, jette leur dévolu sur la psyché.

    À l’instar des précédentes étapes du colonialisme, la colonisation des données affecte de façon disproportionnée ceux qui sont déjà marginalisés. D’une part, les intelligences artificielles impliquées, qui reflètent les stéréotypes dominants, ont un parti-pris défavorable à l’égard des groupes marginalisés, comme l’a souligné un récent procès intenté à Apple pour « biais racistes » de l’oxymètre sanguin de son Apple Watch.

    D’autre part, l’idée selon laquelle la santé mentale comme la santé physique relèvent avant tout de la responsabilité individuelle et de la gestion personnalisée assistée par la technologie ne tient aucun compte du fait que les problèmes de santé sont souvent liés à des questions systémiques – conditions de travail abusives ou malsaines, manque de temps et de ressources financières, etc. Le colonialisme des données masque ces facteurs en faveur de la course au profit, alors qu’il est plus que jamais nécessaire d’avoir un débat sur les facteurs socioéconomiques à l’origine de la crise de la santé mentale.

    Alors même que ce changement structurel dans la gestion de notre corps et de notre esprit est en cours, il peut sembler paradoxal qu’une vision rigoureusement déterministe, asociale et individualisante quant à la manière dont peut être gérée la santé mentale soit mise en avant par les principaux extracteurs de données. Plus qu’un paradoxe, c’est peut-être l’alibi parfait pour détourner l’attention du pillage nos données.

    Notes :

    [1] Article originellement publié par notre partenaire Jacobin sous le titre « Big Tech Is Exploiting the Mental Health Crisis to Monetize Your Data ».

    • chevron_right

      Xbox COPPA violations cost Microsoft $20 million in FTC settlement

      news.movim.eu / ArsTechnica · Tuesday, 6 June, 2023 - 19:03

    Microsoft will face new restrictions on what it can do with this young player's info.

    Microsoft will face new restrictions on what it can do with this young player's info. (credit: Aurich Lawson / Thinkstock)

    Microsoft will pay $20 million to settle an FTC complaint that its Xbox platform illegally collected and retained information about children without their parents' consent, in violation of the Children’s Online Privacy Protection Act (COPPA).

    According to the FTC complaint in the matter, Microsoft's Xbox account sign-up process asked children under 13 for their name, date of birth, email address, and phone number, all before parents got involved in the sign-up process.

    The complaint also alleges that Microsoft did not specifically notify parents that information such as uploaded photos and gameplay data associated with their player ID would be collected and potentially shared with third parties. Instead Microsoft included these specifics in a Privacy Statement, which the FTC says was akin to "sending parents off on what amounted to a DIY errand."

    Read 3 remaining paragraphs | Comments

    Smartphones With Popular Qualcomm Chip Secretly Share Private Information With US Chip-Maker

    This data is sent without user consent, unencrypted, and even when using a Google-free #Android distribution. This is possible because of proprietary Qualcomm #software which provides hardware support also sends the #data. #USA

    • Co chevron_right

      TikTok : piratage de données ou piratage des cerveaux ?

      ancapism.marevalo.net / Contrepoints · Tuesday, 7 March, 2023 - 04:10 · 8 minutes

    Un article de The Conversation

    TikTok est une application de médias sociaux, propriété de l’entreprise chinoise ByteDance . Le principe de TikTok, née en septembre 2016 sous le nom de Douyin (nom qu’elle a conservé à ce jour en Chine) repose sur le partage de courtes vidéos.

    Elle définit sa mission de façon très sympathique :

    « TikTok est la meilleure destination pour les vidéos mobiles au format court. Notre mission est d’inspirer la créativité et d’apporter la joie. »

    Aujourd’hui, du fait des récentes révélations sur son fonctionnement exact, elle inspire plutôt l’ inquiétude : les États-Unis et l’UE ont déjà interdit à leurs fonctionnaires de s’en servir, et d’autres mesures pourraient suivre.

    1,7 milliard d’utilisateurs sur TikTok

    Il faut garder à l’esprit que, comme toute entreprise chinoise, TikTok, apparue sur les smartphones des habitants des pays occidentaux en 2017, est tenue de servir les intérêts de la Chine et de répondre aux desiderata gouvernementaux.

    Si l’usage de TikTok est illimité pour les utilisateurs étrangers, en Chine, Douyin, sa version chinoise, est limitée à quarante minutes par jour pour les moins de quatorze ans . Ce n’est pas anodin. Nous y reviendrons.

    Autre particularité : c’est le gouvernement chinois qui décide des contenus qui seront mis en avant. Certains contenus sont pour le moins troublants et ciblent un public très jeune : en décembre 2022, le Centre de lutte contre la haine en ligne ( CCDH ), a démontré dans une étude que « l’algorithme du réseau social TikTok favorise la diffusion de contenus relatifs aux troubles alimentaires et à l’automutilation pour certains comptes ». Et ce, en fonction des publications vues et « likées » par les utilisateurs cherchant des contenus relatifs à « l’image de soi et à la santé mentale ». Est-ce le fait d’une modération insuffisante de la plateforme au regard de ses règles ? La question peut se poser !

    [ Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde . Abonnez-vous aujourd’hui ]

    Dans un tout autre domaine, la guerre en Ukraine, la propagande des mercenaires russes de Wagner sur TikTok et la désinformation afférente ont été récemment dénoncées dans un rapport de NewsGuard . Ici encore, au regard du positionnement du gouvernement chinois dans ce conflit, la question d’une véritable volonté de modération peut se poser.

    Comme le pointe Fabrice Ebelpoin , entrepreneur, professeur à Sciences Po et spécialiste des réseaux sociaux, autant la version chinoise propose massivement à ses utilisateurs « des vidéos sur le sens de la nation, l’unité, l’ambition personnelle mise au service du collectif, tout un tas de valeurs qui font la spécificité chinoise », autant aux États-Unis comme en Europe, « la plateforme est dédiée exclusivement à de l’ entertainment niais ou alors des choses qui peuvent prêter à confusion ». Et le professeur d’ajouter : « On est sur quelque chose qui peut s’apparenter à une destruction de l’état d’esprit de la jeunesse occidentale. »

    En 2022, TikTok comptait pas moins de 1,7 milliard d’utilisateurs actifs dans le monde .

    Pays comptant le plus d’utilisateurs de TikTok. Cliquer pour zoomer.
    Statista

    « Un cheval de Troie » à retardement ? Pas si sûr !

    En termes de confidentialité, si TikTok, comme d’autres réseaux sociaux, a accès à de nombreuses informations « traditionnelles » des utilisateurs – navigations, visionnages, conversations, listes de contacts, localisation, accès à leur appareil photo et au micro du mobile –, dans la mise à jour de sa politique de confidentialité, l’entreprise a précisé que les données des utilisateurs français (entre autres) étaient accessibles aux employés de la plateforme. C’est ce qu’a indiqué dans un billet de blog publié le 2 novembre 2022, Elaine Fox, « Head of Privacy Europe » pour la firme.

    Nous l’avons évoqué : aux États-Unis, depuis décembre 2022 le réseau social est banni des téléphones professionnels des membres la Chambre des représentants et des agences fédérales. Dans la même dynamique, le 23 février 2023, la Commission européenne a annoncé l’interdiction d’installer l’application sur tous les appareils professionnels de son personnel. Le 27 février, c’était au tour de la présidente du Conseil du Trésor canadien Monat Fortier d’annoncer l’interdiction d’utiliser TikTok sur les appareils mobiles du gouvernement du Canada , précisant que l’application disparaîtrait automatiquement de tous les appareils gouvernementaux et qu’il sera impossible de la réinstaller. La plupart des gouvernements qui, en Occident, « contraignent » ainsi leurs fonctionnaires mettent en avant « la protection des données ou encore une menace pour la sécurité nationale ».

    Dans certains pays, ce sont les usages de TikTok qui, selon les lois locales, peuvent amener des utilisateurs devant les tribunaux. Exemples parmi d’autres : en 2022 une Égyptienne se voyait condamnée à trois ans de prison pour ses vidéos sur TikTok . En février 2023, un couple iranien a été condamné à 10 ans de prison pour une vidéo de danse devenue virale .

    La France, où le réseau social fait l’objet d’une commission d’enquête au Sénat qui devrait bientôt rendre un rapport sur son fonctionnement, qualifié d’« addictif et d’opaque », ne fait pas exception : un influenceur a été condamné après sa vidéo de danse en crop top dans une église . D’autres pays restreignent l’usage de TikTok , jusqu’à des décisions plus radicales : l’application est ainsi interdite en Inde, au Pakistan ou encore en Afghanistan, et avait été interdite un temps au Bangladesh et en Indonésie… qui jugeaient le contenu diffusé « inapproprié et blasphématoire », le temps que TikTok revienne avec une version hautement censurée.

    Par ailleurs il existe de nombreux moyens de contourner les interdictions et les blocages : en Inde, deux ans apres l’interdiction gouvernementale de la plateforme chinoise en juin 2020, les applications « copy-cat » se sont multipliées : citons Josh , Chingari , MX TakaTak

    Piratage « traditionnel » : l’arbre qui cache la forêt ?

    Certes, les risques de piratage existent et des mises à jour peuvent intégrer des failles de sécurité volontaires, comme un programme backdoor . Toutefois, il convient à ce stade de faire plusieurs remarques.

    Nous pouvons raisonnablement nous interroger sur le caractère symbolique des décisions des administrations occidentales évoquées ci-dessus. Les fonctionnaires concernés possèdent des téléphones personnels – à moins qu’ils n’en soient dépossédés lorsqu’ils accèdent à ces institutions – et des échanges sensibles peuvent être effectués via ces téléphones privés. Donc, à première vue, un piratage massif à ciel ouvert pouvant bénéficier de l’aide des utilisateurs pourrait être possible lors d’une mise à jour, et rendre ces derniers complices de leur propre espionnage !

    La ficelle semble un peu grossière. Les services de renseignements disposent probablement d’autres méthodes et la véritable prudence dans les domaines sensibles va au-delà de la vigilance à l’égard d’une simple application pouvant potentiellement être utilisée à des fins d’espionnage.

    Quand on connaît, par exemple, le [potentiel de Pegasus], un puissant logiciel espion commercialisé par la société israélienne NSO, et qui était utilisé en 2022 par pas moins de 22 services de sécurité dans douze pays européens , l’intérêt premier de TikTok pour la Chine semble se situer ailleurs… et le gouvernement chinois paraît être intéressé par d’autres potentialités de l’application, à savoir celles liées à sa couverture mondiale démesurée. Par ailleurs les smartphones sont déjà en soi des outils d’espionnage de leurs utilisateurs, ce n’est pas une application, quelle qu’elle soit, qui change la donne.

    « Un cheval de Troie » visant… le « brain hacking » ?

    Les statistiques concernant les usagers en 2023 dans le monde sont les suivantes :

    • 56 % sont des femmes, 44 % des hommes.
    • 51,3 % de l’audience sont des femmes entre 13 et 24 ans.
    • 23,6 % des utilisateurs sont âgés entre 13 et 24 ans.
    • 40 % des visiteurs quotidiens se situent dans la tranche 15-24 ans.

    Les chiffres relevés par l’étude annuelle de Qustodio – un fournisseur de logiciels de contrôle parental – indiquent qu’en 2022, dans le monde, les enfants (4-18 ans) ont passé en moyenne près de deux heures par jour sur TikTok (1 h 47).

    Par-delà les contenus qui peuvent se révéler inappropriés – sans l’activation et le paramétrage d’une fonctionnalité mise en place par TikTok en 2020 sous le nom de « Family Pairing », qui permet aux parents d’avoir le contrôle sur les activités de leurs enfants –, un autre risque pernicieux existe, qui semble plus réaliste que les piratages de données évoqués par les institutions précitées, un risque qui concerne une population majoritairement jeune au travers de campagnes de manipulation des opinions publiques. Une sorte de « brain-hacking » déclenchable à l’envi…

    Le 2 décembre 2022, le directeur du FBI, Chris Wray, se préoccupait ainsi des possibilités offertes au gouvernement chinois de « manipuler le contenu et, s’ils le souhaitent, de l’utiliser pour des opérations d’influence », c’est-à-dire d’engager des campagnes d’ astroturfing à très grande échelle.

    Dans l’attente d’un réseau de substitution qui serait, lui, maîtrisé, l’Europe prépare peut-être son opinion publique à une interdiction pure et simple – une interdiction que Donald Trump appelait de ses vœux en 2020 pour les États-Unis . Par les mesures prises dernièrement, les Occidentaux adressent de façon concomitante au gouvernement chinois une exigence pour ne pas arriver à une telle issue : l’abrogation du contrôle par Pékin des contenus mis en avant. Une exigence qui s’apparente à un vœu pieux. C’était là, d’ailleurs ce qui expliquait la volonté de Donald Trump de contraindre TikTok à se faire racheter aux États-Unis par les groupes américains Oracle et Walmart, projet auquel Washington à finalement renoncé . Ce qui est plus réaliste, c’est un stockage de données respectueux de la souveraineté numérique des États de l’UE. Mais que les usagers se rassurent : Cormac Keenan, Head of Trust and Safety, chez TikTok le promet : la lutte contre la désinformation est une priorité de la firme ! The Conversation

    Yannick Chatelain , Professeur Associé. Digital I IT. GEMinsights Content Manager, Grenoble École de Management (GEM)

    Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’ article original .

    The Conversation

    • chevron_right

      Twitter ditches free access to data, potentially hindering research

      news.movim.eu / ArsTechnica · Friday, 10 February, 2023 - 16:49

    Image of blue birds with speech bubbles.

    Enlarge (credit: Sean Gladwell )

    Twitter-owner Elon Musk has recently decided to close down free access to Twitter's application programming interface (API), which gives users access to tweet data. There are many different uses for the data provided by the social media platform. Third-party programs like Tweetbot—which helps users customize their feeds—have used Twitter's APIs, for example.

    Experts in the field say the move could harm academic research by hindering access to data used in papers that analyze behavior on social media. When USC professor of computer science Kristina Lerman first heard about the move, she said her team started “scrambling to connect to collect the data we need for some of the projects we have going on this semester,” though the urgency subsided when more details were released, she told Ars.

    Twitter will begin offering basic access to its API for $100 per month. There are few if any details released yet, but Twitter’s website shows that there are tiers of access with different tweet access limits, along with other limits on features like filtering. The higher tiers cost more.

    Read 7 remaining paragraphs | Comments

    • Le chevron_right

      Damian Penaud, les chiffres fous du serial marqueur d'essais des Bleus

      sport.movim.eu / LEquipe · Sunday, 5 February, 2023 - 06:45


    Damian Penaud avait inscrit l'essai de la victoire des Bleus, le 6 novembre contre l'Australie. (Alain Mounic/L'Équipe) Meilleur marqueur des Bleus en activité avec 21 essais, Damian Penaud est aussi entré dans le top 10 français. L'ailier de Clermont fait preuve d'une redoutable efficacité.
    • chevron_right

      Won’t somebody please think of the insects?!

      news.movim.eu / ArsTechnica · Wednesday, 1 February, 2023 - 19:23

    image of a yellow and blue butterfly perched on a plant.

    Enlarge / This butterfly is also referred to as the Cairns Birdwing. (credit: Jodi Jacobson )

    Nearly 17 percent , or 22.5 million square kilometers, of the world’s land now falls within protected areas. Countries have established laws that safeguard these parcels of land—or in some cases, aquatic areas—to ensure that the natural ecosystems and their respective species and functions remain in good health. Creating protected areas has clearly helped some species , like the Asian elephant, survive.

    But protected areas around the globe—at least as they stood in 2019—are failing to account for some of the world’s smallest, most vulnerable, and most fundamentally icky denizens: insects. New research sheds light on this issue, suggesting more than three-quarters of known insect species are not adequately protected by current dedicated conservation areas.

    According to Shawan Chowdhury, a conservation biologist at the German Centre for Integrative Biodiversity Research and one of the paper’s authors, there are also likely many more species of creepy crawlies we don’t know about and that are likely also being failed by existing protected areas.

    Read 8 remaining paragraphs | Comments