• Co chevron_right

      Algorithmes de recommandation, outils de radicalisation

      Yannick Chatelain · ancapism.marevalo.net / Contrepoints · Thursday, 3 November, 2022 - 04:00 · 6 minutes

    Il ne s’agit pas voir le mal partout, ni le bien nulle part !

    Mais malheureusement, hier comme aujourd’hui, l’enfer est supposé être pavé de bonnes intentions. Sur la base de cet adage, les algorithmes de recommandation ont naturellement prétention à aider les usagers. Ainsi dès lors que vous utilisez un navigateur traditionnel, de multiples algorithmes de ce type vous attendent au détour de la toile.

    Pour faire simple et sans entrer dans le détail de leur typologie, nous pouvons distinguer le filtrage collaboratif : User-Based, Item-Based, factorisation de matrice. Et les algorithmes basiques : Random, Populaire.

    Ces derniers analysent vos navigations sur le Net pour vous recommander des contenus susceptibles de vous intéresser… Dès vos premiers pas sur le Net nous pourrions alors évoquer un surf en entonnoir, pour ne pas dire un surf d’enfermement.

    Ces recommandations impactent tous les domaines.

    Ceux qui disposent de Netflix peuvent en mesurer la puissance au travers des suggestions des « titres similaires » ou titres qui pourraient vous « correspondre ». Ces recommandations se font également sur la presse, les réseaux sociaux , les sites de musiques, de streaming etc. Selon les structures l’usage de ces algorithmes demeure plus ou moins transparent et perceptible par l’usager.

    Des algorithmes de radicalisation, d’enfermement et de paupérisation intellectuelle ?

    Si les sites et services qui y ont recours utilisent comme argument principal l’amélioration de l’expérience utilisateur (client), il est également une autre façon de voir les choses : est-ce une réelle amélioration utilisateur que de l’enfermer dans un univers intellectuel, notamment pour les contenus presse… souvent et par ailleurs sans qu’il en soit vraiment conscient ?

    Dans le pire des cas nous pouvons alors évoquer une radicalisation progressive des postures des utilisateurs invariablement soumis à des contenus les renforçant dans leurs croyances.

    Avant l’avènement de l’ Internet at large , et pour appuyer mon argumentation, selon leurs sensibilités politiques les lectorats des supports étaient (sont) connus. En règle générale, ils retrouvent ainsi dans le journal de leur choix des articles et reportages croisant leurs convictions et les renforçant dans leurs croyances.

    Un grand pas vers des certitudes. Vous en conviendrez rares sont ceux, hormis certaines professions comme celle de journalistes, qui vont acheter dans leurs kiosques à journaux L’Humanité et Le Figaro magazine , ou mieux encore s’attacher à faire une revue de presse globale, une approche qui pourrait pourtant favoriser leur esprit critique afin d’éviter l’enfermement que j’évoque. Les algorithmes favorisent ce dernier avec une puissance bien supérieure.

    Si je peux oser une digression, ils ne sont pas exempts de responsabilité dans la radicalisation d’une certaine jeunesse en quête de sens.

    Internet et algorithmes de recommandations : de la porte-fenêtre ouverte sur le monde à l’œil de bœuf

    Dans la logique de recommandation il est indéniable que la porte-fenêtre ouverte sur le monde se transforme en œil de bœuf.

    Il ne s’agit dès lors pas de respect de la vie privée, et du droit inaliénable à l’anonymat que j’évoque souvent à propos du traçage parfois abusif des usagers ; il s’agit de libre arbitre et d’une neutralité sur votre liberté d’opinion… Dans la mesure ou ces algorithmes ne font que restreindre votre accès au monde réel complexe et diversifié, et ce de manières multiples, sur les réseaux sociaux ils vont par exemple jusqu’à choisir et vous suggérer des « amis-compatibles », jusqu’à pouvoir contrôler et orienter vos émotions. Fantasme ?

    Tant s’en faut, en janvier 2012, le réseau social a mené une étude sur la « contagion des émotions » sur Internet en manipulant le flux d’actualité de 700 000 utilisateurs sans que ces derniers n’aient donné leur accord.

    Comme le relate Le Figaro :

    « Le service d’analyse des données de Facebook, aidé de plusieurs chercheurs d’universités californiennes, a mené une expérimentation. Durant une semaine, il a ainsi manipulé le flux d’actualité de près de 700 000 utilisateurs du réseau social américain. Certains étaient exposés à des messages majoritairement positifs. D’autres à des statuts plutôt négatifs. Un autre groupe, enfin, à des messages neutres. La découverte de cette expérience, dont les résultats ont été publiés le 17 juin dans la revue scientifique américaine Comptes rendus de l’Académie nationale des sciences (PNAS ) a suscité une vague d’indignation aux États-Unis. »

    Cette étude a été publiée en 2014 sous le titre « Experimental evidence of massive-scale emotional contagion through social networks » ( Preuve expérimentale d’une contagion émotionnelle à grande échelle par les réseaux sociaux ).

    Nonobstant le scandale de l’expérimentation sur des cobayes non consentants (689 003 pour être exact) et le côté apprenti sorcier de la recherche visiblement assez peu soucieuse d’éthique, ni vraiment inquiète des conséquences potentielles de son étude, son introduction est la suivante et devrait faire frémir tout chercheur et chercheuse digne de ce nom :

    « Nous démontrons, via une expérience massive (N = 689 003) sur Facebook, que les états émotionnels peuvent être transférés à d’autres individus via la contagion émotionnelle, amenant les gens à ressentir les mêmes émotions à leur insu. Nous fournissons des preuves expérimentales que la contagion émotionnelle se produit sans interaction directe entre les personnes (l’exposition à un ami exprimant une émotion est suffisante) et en l’absence totale d’indices non verbaux ».

    Notons que devant le tollé suscité par l’approche la directrice des opération Sheryl Sandberg a esquissé des excuses publiques :

    « Comme le font des entreprises de recherche en permanence, nous testons différents produits, mais voilà comment ça s’est passé : la communication a été mauvaise […] et pour cette communication, nous nous excusons. Nous n’avons jamais cherché à vous déranger . »

    Par-delà les indignations et les excuses de la firme, si l’on s’en tient aux résultats, ils sont probants et auraient dû initier un encadrement strict des algorithmes de recommandations permettant à l’utilisateur d’être décisionnaire et d’avoir la main, avant qu’ils ne soient banalisés et deviennent la norme, ou tout du moins, alerter l’opinion publique comme je le fais aujourd’hui pour d’une part recourir aux meilleurs navigateurs anonymes disponibles entre autres DuckDuckgo , Brave , Tor , Avast Secure Browser , Vivaldi …) d’autre part être bien conscient des effets potentiellement nocifs des réseaux sociaux.

    Inutile en effet de manipuler les flux informationnels sur FaceBook, ce miroir déformé de la réalité, pour impacter les émotions, provoquer un mal être chez certains utilisateurs comme l’a démontré Hui-Tzu Grace Chou professeur au département des sciences du comportement à Utah Valley qui a été la première à évoquer la notion de « Facebook depression ».

    Pour en revenir à nos chercheurs californiens, la conclusion de ces derniers à la fin de leur publication décriée était sans appel :

    « Nous avons la preuve expérimentale à grande échelle que la contagion émotionnelle entre personnes est possible via un support textuel, et ce en l’absence d’expressions faciales et de signaux non verbaux ».

    Pour ce qui est de Facebook les responsables d’alors se sont mollement excusés de leur approche.

    Toujours plus de la même chose ?

    Notons à toutes fins utiles et afin de nous faire réfléchir que deux ans après la publication de cette étude, soit depuis le 24 février 2016, il était possible d’exprimer « cinq nouvelles émotions » sur les publications du réseau social Facebook en plus du simple « J’aime » d’origine.

    En 2022 il y en a désormais sept. Si vous pensez que cette évolution et innovation est pour votre confort d’utilisation, si vous êtes convaincus que votre choix d’émoticon à la suite d’une publication est neutre… que vous dire ? Vous êtes en droit de le penser.

    « À l’ère des algorithmes de recommandation de plus en plus pointus, la Toile n’a jamais autant mérité son nom… les algorithmes de recommandation seraient-ils alors les araignées et l’usager la mouche ? »