Le piège se referme. Comme prévu, les termes "vagues" sont des manteaux pour y fourrer tout ce qui est dissidents, réfractaires, opposants.
Le Forum économique mondial demande aux régulateurs et aux entreprises technologiques de se servir de ses définitions de « discours haineux », de la « mésinformation », etc
Le FEM continue de s’immiscer dans le contrôle de la liberté d’expression en ligne.
Le Forum économique mondial (FEM) continue de travailler « discrètement » à se placer, ainsi qu’un tas d’énormes entreprises « partenaires », au centre de la redéfinition et, si nécessaire, de la définition du monde dans lequel nous vivons – qu’il s’agisse d’intelligence artificielle ou de censure en ligne.
Ce groupe informel basé en Suisse et réunissant des représentants des élites mondiales a manifesté à plusieurs reprises son intérêt pour l’élaboration d’une série de normes essentielles qui devraient, de son point de vue, être universellement acceptées et mises en œuvre comme le dernier mot sur l’un ou l’autre de ces sujets.
Lorsqu’il s’agit de justifier la censure en ligne, les plateformes sociales de Big Tech évitent habituellement d’expliquer ce qu’elles veulent dire lorsqu’elles suppriment des contenus et déplacent des personnes en raison de « mésinformation », de « discours de haine », etc, où de telles choses commencent et finissent, et qui prend de telles décisions, sur la base de quelle autorité.
En raison notamment de ce manque de clarté, de nombreuses personnes soupçonnent ces sites d’éviter de s’expliquer parce qu’il n’y a rien à expliquer – les décisions de censure sont arbitraires, conçues pour servir une politique ou un récit plutôt que pour lutter contre la « mésinformation » et d’autres phénomènes similaires.
Tout cela nuit à leur crédibilité – mais le FEM vient à la rescousse, du moins c’est ce qu’il espère. L’organisation a indiqué sur son site web qu’elle – ou plutôt, ce qu’elle appelle sa Coalition mondiale pour la sécurité numérique – a produit un document intitulé « Typologie des préjudices en ligne« .
L’objectif déclaré est de définir six catégories de contenus préjudiciables et de créer ainsi des définitions qui facilitent « l’action multi-agences et transfrontalière ».
La loi sur les services numériques (Digital Service Act ou DSA) de l’Union européenne est également saluée dans ce contexte, mais il est également question que la coalition du FEM fournisse un « langage fondateur commun » qui fait encore défaut en raison de la portée limitée du DSA (à savoir qu’elle n’est pas mondiale, alors que la « Typologie » vise justement à avoir un tel impact).
Les observateurs qui se méfient des actions et des intentions du FEM n’ont cependant pas à s’inquiéter ; tout cela sera non seulement équilibré en termes de « considérations juridiques, éthiques, sociales, technologiques et politiques », comme le dit Agustina Callegari, chef de projet de la coalition, mais aussi – promet le FEM – parviendra à être « enraciné dans les cadres internationaux des droits de l’homme ».
Une fois cette « clause de non-responsabilité » levée, l’article publié sur le site du FEM détaille les six catégories, dans l’ordre où l’on s’y attendrait (de la pire à la « mésinformation »).
Il s’agit des catégories suivantes : « Menaces pour la sécurité personnelle et collective (y compris l’exploitation sexuelle des enfants), Atteinte à la santé et au bien-être, Haine et discrimination, Atteinte à la vie privée » et « Tromperie et manipulation » (c’est-à-dire désinformation et mésinformation).
Traduction de Reclaim The Net par Aube Digitale
Aucun commentaire:
Enregistrer un commentaire