Fascisme 2.0 – Le visage changeant de la censure des médias sociaux.
Rédigé par Paul Lancefield via Off-Guardian.org,
Facebook ne gagne qu'environ 34 £ par an pour le client moyen au Royaume-Uni – un peu moins de 3 £ par mois (et c'est avant coûts), il n'y a donc clairement aucune marge ni motivation pour un niveau humain de service ou d'attention client. L'utilisateur n'est pas le client ; il s'agit plutôt du produit dont les données sont vendues aux annonceurs.
Ainsi, les utilisateurs n’ont pas de relation client directe avec la plateforme. Le réseau n’est pas directement incité à « se soucier » de l’utilisateur avant l’annonceur. Et peu importe où vous vous situez sur le spectre entre « l’absolutisme de la liberté d’expression » et « les entités privées ont le droit de censurer n’importe quel utilisateur », avec des marges aussi faibles, il est inévitable que le traitement automatique soit utilisé pour modérer les messages et traiter avec le client. interface.
Mais il est un fait que les capacités de traitement et de gestion des clients que les réseaux sociaux évoluent actuellement sont utilisées de diverses manières au-delà de la simple modération. Et il est également vrai que ce traitement automatisé est effectué à grande échelle et est désormais appliqué à chaque publication publiée par chaque membre. 68 % des électeurs américains sont sur Facebook. Au Royaume-Uni, c'est 66 % et en France 73,2 %. Les chiffres sont similaires pour toutes les nations démocratiques occidentales. Il est donc d’une importance vitale que les règles appliquées soient politiquement neutres.
Le pouvoir qui existe dans la capacité de traiter automatiquement les publications de chaque utilisateur est bien plus profond et profond que beaucoup ne le pensent peut-être. Et même s'il ne peut pas dicter directement ce que les utilisateurs écrivent dans leurs messages, il a la capacité de déterminer fondamentalement quels messages gagnent du terrain.
Les services de médias sociaux sont devenus de facto des places publiques et la plupart conviendraient que leurs propriétaires d'entreprise devraient éviter de mettre la main sur la balance et d'influencer la politique.
De plus, comme tous ceux qui utilisent Facebook le savent, en particulier lorsqu'il s'agit de sujets politiquement sensibles, le système qualifiera la portée d'un individu ; parfois à un degré extrême. Ou bien cet utilisateur sera simplement banni pendant un certain temps, ou totalement banni du réseau.
Nous pouvons donc nous poser la question suivante : puisque les sociétés de médias sociaux ont un tel pouvoir de censure, comment pouvons-nous savoir qu’elles ne se livrent pas à une ingérence politique contraire à l’éthique ? Peut-on leur confier cette responsabilité ?
Je reviendrai sur cette question, mais il est clair que la confiance dans ces entreprises est profondément déplacée.
La pandémie a réveillé de nombreuses personnes face aux niveaux de contrôle qu’imposent les responsables de nos réseaux sociaux. Ils écrivent les règles pour stimuler l'engagement pour les publications qu'ils privilégient, ce qui rend le nombre de followers de certaines personnes plus précieux. À l’inverse, les utilisateurs qui vont à contre-courant (ou à contre-courant du récit de l’establishment) voient leur engagement subtilement réduit, voire réduit, voire peuvent être totalement bannis du service. Et la preuve est que, quelque peu contrairement aux principes de la démocratie, les mains ont été très fermement placées sur la balance sur Facebook, Twitter et YouTube.
Lorsqu'Elon Musk a acheté Twitter, il a invité les journalistes indépendants Matt Taibbi, Bari Weiss et Michael Schellenburger dans les bureaux de Twitter pour étudier les communications internes de l'entreprise et voir dans quelle mesure les précédents propriétaires avaient censuré les tweets des utilisateurs.
Les fichiers Twitter en sont le résultat, et ils démontrent clairement qu'il y a eu une ingérence à grande échelle et que, dans de nombreux cas, elle était également motivée par des raisons politiques . L'équipe Twitter Files a établi que les agences gouvernementales étaient fermement ancrées dans l'entreprise pour surveiller et censurer les citoyens américains et les citoyens d'autres pays et les agences gouvernementales demandaient régulièrement (fortement) des actions de censure. Mais plus encore, ils ont également révélé des niveaux d’interférence similaires sur d’autres réseaux de médias sociaux tels que Facebook.
Mais depuis que Twitter a déposé des preuves d’interférences, une nouvelle menace d’interférence, potentiellement encore plus importante, est apparue.
IA.
Il fut un temps où il semblait que les algorithmes étaient le seul sujet de conversation que les spécialistes du marketing numérique pouvaient aborder. Et comme il n’y a aucune marge d’intervention humaine au niveau des messages individuels, ce sont des algorithmes qui ont été utilisés.
Au début, elles étaient assez simples, comme les équations que nous pratiquions en cours de mathématiques à l’école, elles étaient donc relativement faciles à résoudre. L'essor de Google a été alimenté par une idée simple mais brillante : compter les liens externes vers une page Web comme indicateur de pertinence.
Mais les algorithmes ont depuis cédé la place à des modèles d’apprentissage automatique plus complexes qui reposent toujours essentiellement sur des algorithmes, mais ils sont désormais générés automatiquement et toute tentative humaine pour les démêler est vouée à l’échec. Nous limitons donc notre réflexion à leur sujet à ce qu’ils peuvent réaliser, aux choses importantes qu’ils peuvent discriminer plutôt qu’à la manière exacte dont le code fonctionne.
Et maintenant, nous sommes entrés dans une troisième génération de technologie. L’apprentissage automatique s’est transformé en développement de grands modèles linguistiques (LLM) ou, plus communément, d’IA. Et avec cette dernière évolution, les corporatistes ont découvert de nouvelles opportunités immenses et effrayantes de pouvoir et de contrôle.
La création de LLM implique une formation. La formation leur confère des compétences et des préjugés spécifiques. Le but de la formation est de combler les lacunes, de sorte qu'il n'y ait pas de lacunes évidentes dans la capacité du LLM à traiter les éléments constitutifs de la conceptualisation et de la parole humaines. Et c’est la particularité des LLM ; que nous pouvons converser avec eux et que la conversation se déroule, et que la grammaire et le contenu semblent normaux, fluides et complets. Idéalement, un LLM agit comme un majordome anglais raffiné : poli, informatif et correct sans être impoli. Mais aussi la formation confère des spécialisations au LLM.
Dans le contexte des médias sociaux – et c’est là que les niveaux de pouvoir effrayants commencent à devenir évidents – les LLM sont utilisés pour agir comme des moniteurs de salle, imposant une « modération du contenu ».
Llama Guard de Meta en est un excellent exemple, formé non seulement à modérer mais également à rendre compte des utilisateurs. Et cette fonction de reporting incarne non seulement l'opportunité de reporting, mais aussi, à travers ces données de reporting, l'exploration d'opportunités d'influence et de suggestion sur l'utilisateur et également sur l'utilisateur. Et quand je parle de suggestions, un LLM est capable non seulement du type évident que l'utilisateur pourrait accueillir et est heureux de recevoir, mais aussi d'un type inconscient plus sournois qui peut être manipulateur et conçu pour contrôler.
Il n'y a pas encore de preuves recueillies (à ma connaissance) que les LLM en particulier sont utilisés de cette façon ; encore. Mais la capacité est très certainement là et si les comportements passés indiquent des développements futurs, elle sera probablement utilisée à cette fin.
Il suffit de regarder l'épisode de 2006 de l'émission télévisée « Derren Brown : The Heist » de Derren Brown, dans lequel il convainc un groupe d'étrangers qu'ils doivent commettre un braquage de banque, pour comprendre à quel point l'utilisation de la suggestion peut être profonde et puissante. Pour ceux qui ne connaissent pas Derren Brown, c'est un hypnotiseur et mentaliste de scène, qui a tendance à mettre l'accent sur le pouvoir de la suggestion sur l'hypnose (la plupart de ses spectacles ne contiennent aucune hypnose). Simplement par le pouvoir de la suggestion, il amène les gens à faire les choses les plus extraordinaires.
Les suggestions « à la Derren-Brown » fonctionnent parce que le cerveau humain est en réalité bien moins agile et bien plus linéaire que nous aimons le penser. La conscience est une ressource précieuse et de nombreuses actions que nous accomplissons fréquemment sont transformées en habitude, nous pouvons donc les faire sans réfléchir et cela nous permet de préserver la conscience là où elle est le plus nécessaire.
Par habitude, nous changeons de vitesse dans une voiture à levier de vitesse sans avoir à y penser. Et nous avons tous connu ce jeu où l'on dispose d'un temps déterminé pour réfléchir à une liste de choses comme des pays, se terminant par la lettre A. Si on est mis sur place devant une foule, il peut parfois être difficile de s'en sortir. avec aucun du tout. Souvent, le cerveau n’est pas vraiment doué pour penser de manière créative ou pour effectuer un rappel rapide et conscient sur place.
Mais si quelqu'un à qui vous avez parlé quelques minutes avant le match vous a parlé de ses vacances au Kenya, vous pouvez être sûr que le Kenya sera la première réponse qui vous viendra à l'esprit. De plus, l'association se fera automatiquement, que nous le voulions ou non !
C’est simplement ainsi que fonctionne le cerveau. Si l’information est transmise au bon moment et de la bonne manière, on peut presque avoir la certitude qu’une suggestion donnée sera suivie.
Derren Brown le comprend et sait parfaitement l'exploiter.
Les moteurs de recherche et les plateformes de médias sociaux disposent d’un immense pouvoir pour modifier les comportements grâce à des suggestions subtiles. Et en effet, il existe des preuves que Facebook et Google l’ont fait.
Le professeur et chercheur Dr Robert Epstein – pour ainsi dire – a « surpris Google » en manipulant la boîte de suggestions de recherche qui apparaît sous la zone de texte dans laquelle les utilisateurs saisissent une demande de recherche. L’épisode entier est devenu encore plus sordide lorsqu’il est devenu clair qu’ils étaient trompeurs et qu’ils étaient conscients que leurs expérimentations étaient contraires à l’éthique. Je ne raconterai pas tous les détails, mais consultez les liens vers ceci – c'est une histoire intéressante en soi.
Les utilisateurs sont dans un état mental particulièrement confiant et réceptif lorsqu'ils utilisent la fonction de liens suggérés de Google et ne remarquent pas lorsque les résultats contiennent des actions et des suggestions impératives qui, loin d'être la meilleure réponse à votre requête de recherche, sont là pour manipuler les actions ultérieures d'un utilisateur. .
En ce qui concerne les publications sur les réseaux sociaux, le recours à la suggestion est souvent beaucoup plus subtil, ce qui rend plus difficile la détection et la résistance. L'analyse LLM dans la base de données des publications des utilisateurs peut révéler des publications associées qui proposent des actions suggérées. Ici, le réseau peut utiliser le fait qu’il dispose de plusieurs millions de messages d’utilisateurs, y compris des messages suggérant des résultats préférés. Ces messages peuvent être sélectionnés et promus de manière préférentielle dans les flux des utilisateurs.
La modération du contenu est bien entendu nécessaire pour gérer les propos inacceptables et les comportements antisociaux. Cependant, il existe une vaste zone grise dans laquelle les opinions désagréables peuvent être qualifiées de « discours de haine » et, parce qu'il s'agit d'une zone grise, le réseau social dispose d'une grande marge de manœuvre pour s'immiscer dans l'espace politique personnel et de liberté d'expression.
Le terme « discours de haine » a été un outil très efficace pour justifier l'utilisation du marteau d'interdiction, mais la principale préoccupation maintenant est qu'avec le déploiement des LLM, une étape historique majeure a été franchie avec à peine un murmure qui implique un tout nouveau niveau de de telles contraintes et menaces pour la liberté de communication des utilisateurs.
Et cette étape importante est que les LLM sont désormais utilisés pour gouverner le comportement humain et non l'inverse. Le franchissement de cette étape a à peine été remarqué car nous avions déjà auparavant des algorithmes plus simples remplissant ce rôle et cela se fait de toute façon dans le noir.
Les utilisateurs ne le voient que s'ils en sont affectés de manière évidente. Mais même ainsi, il y a de nombreuses raisons de penser qu’à l’avenir, nous pourrions regarder en arrière et reconnaître que cette étape était en quelque sorte un moment critique après lequel une version d’un avenir de type « Sky-Net » est devenue inévitable.
La semaine dernière, le Premier ministre britannique Keir Starmer a annoncé une initiative de la police visant à utiliser les médias sociaux pour identifier les personnes impliquées dans la répression des troubles publics, illustrant comment les rapports automatisés LLM sont sur le point d'être utilisés au-delà des médias sociaux et dans le contexte de l'application de la loi.
Il n'y a pas encore de détails sur la manière dont cette surveillance sera effectuée, mais, ayant l'expérience du lancement de projets technologiques, vous pouvez être sûr que le gouvernement disposera d'une liste d'entreprises technologiques suggérant des solutions. Et vous pouvez être sûr que les LLM sont présentés comme faisant partie intégrante de presque tous !
Nous avons donc établi que les médias sociaux sont fermés et exclusifs et ont permis l'établissement de nouvelles structures de pouvoir médiatique. Nous avons vu que les propriétaires de médias sociaux ont le pouvoir de supprimer ou d'augmenter la viralité d'une publication et avons maintenant mis en œuvre un contrôle et un reporting par LLM (AI), qui semble prêt à s'étendre au maintien de l'ordre dans le monde réel. Nous avons vu, à travers les fichiers Twitter, que les sociétés de médias sociaux ont enfreint la loi pendant la pandémie et affiché leur volonté de collaborer avec les agences gouvernementales pour censurer et réprimer les médias défavorisés.
Aucun commentaire:
Enregistrer un commentaire