Après toutes les discussions autour des lois de l’article 230 au cours de l’année écoulée, l’ancien président américain Donald Trump appelant à une réforme, et divers autres soulevant des préoccupations importantes concernant les pouvoirs que détiennent désormais les plateformes numériques en ce qui concerne la circulation de l’information, les régulateurs et les responsables recherchent désormais une voie à suivre, afin de garantir que les plates-formes numériques sont également tenues de rendre compte du rôle qu’elles jouent dans l’écosystème de l’information au sens large.
Cette semaine, le PDG de Facebook Mark Zuckerberg, le PDG de Google Sundar Pichai et le chef de Twitter Jack Dorsey feront face à un Audience sur l’énergie et le commerce de la maison sur les modifications proposées à l’article 230, en vue d’améliorer la manière dont les plateformes en ligne répondent aux principales préoccupations relatives à la liberté d’expression, à la modération et à la diffusion d’informations préjudiciables sur leurs plateformes.
Tous les géants de la technologie se sont opposés aux réformes de l’article 230, affirmant que tout changement significatif de la loi paralyserait effectivement le Web gratuit et les forcerait à limiter considérablement la parole, afin d’éviter d’éventuelles contestations judiciaires. Mais comme souligné dans diverses discussions, il existe des inquiétudes persistantes selon lesquelles les plates-formes ne font pas assez pour arrêter la propagation de la désinformation et des discours de haine, en particulier, qui pourraient déclencher une division sociétale plus large – tandis que d’autres ont fait valoir le contraire, dans la mesure où les plates-formes sont travaillant efficacement pour soutenir leur propre programme dans leurs démarches de censure et de restriction de la parole.
Avant l’audience, le comité de l’énergie et du commerce de la Chambre a aujourd’hui déclarations écrites publiées des trois PDG, dans lequel ils exposent leur point de vue sur les réformes proposées.
Dans sa réponse, PDG de Facebook Mark Zuckerberg a appelé à la prudence et aux changements, notant qu’il est presque impossible pour une entreprise comme Facebook de contrôler tous les discours, compte tenu de l’ampleur de ses opérations.
« Les plates-formes ne devraient pas être tenues pour responsables si un élément de contenu particulier échappe à sa détection – ce qui ne serait pas pratique pour les plates-formes avec des milliards de messages par jour – mais elles devraient être tenues d’avoir des systèmes adéquats en place pour lutter contre les contenus illicites. »
Au lieu de cela, Zuckerberg a argumenté que les prestataires doivent disposer de systèmes adéquats pour traiter du mieux qu’ils peuvent, et cela devrait être mandaté par la loi
« Au lieu de bénéficier de l’immunité, les plateformes devraient être tenues de démontrer qu’elles ont des systèmes en place pour identifier les contenus illicites et les supprimer. »
Cela s’alignerait largement sur la défense de Facebook dans divers cas liés au même, Facebook décrivant les processus qu’il a mis en place pour y remédier, établissant les meilleures pratiques du secteur en termes de processus d’alerte et de rapidité de réponse.
Vraiment, c’est probablement le meilleur résultat auquel on puisse s’attendre – la seule autre option, comme indiqué, est que les plates-formes restreignent entièrement ce que les gens peuvent dire afin d’éviter toute responsabilité légale.
Essentiellement, étant donné la nature en temps réel du processus, les plates-formes n’ont aucun moyen de garantir qu’elles captureront toutes les instances de discours potentiellement nuisibles sur leurs plates-formes, en particulier une fois que ces plates-formes atteignent une certaine échelle. Mais en détaillant leurs processus de détection – qui, pour les grands acteurs, sont alimentés par l’IA et en constante amélioration – et en établissant des lignes directrices claires autour de l’évaluation et de la réponse humaines, cela pourrait être une approche réglementaire plus efficace, par opposition à des sanctions en cas de défaillance.
Zuckerberg inclut également cette note intéressante:
« Facebook réussit parce que les gens du monde entier ont un profond désir de se connecter et de partager, et non de se démarquer et de se battre. Cela réaffirme notre conviction que la connectivité et l’unité sont en fin de compte des idéaux plus puissants que la division et la discorde – et que la technologie peut faire partie de la solution aux défis profonds de notre société. Nous continuerons à travailler pour nous assurer que nos produits et nos politiques soutiennent cette ambition. »
Intéressant en cela, de nos jours, on a de plus en plus l’impression que les utilisateurs de Facebook préféreraient réellement « se tenir à l’écart et se battre ». Mais c’est tout autre débat.
Sundar Pichai de Google, quant à lui, dans son témoignage écrit, rappelle les dangers de la réforme de l’article 230:
<< La section 230 est fondamentale pour le Web ouvert: elle permet aux plates-formes et sites Web, petits et grands, sur l'ensemble de l'Internet, de gérer le contenu de manière responsable pour assurer la sécurité des utilisateurs et promouvoir l'accès à l'information et la liberté d'expression. Sans l'article 230, les plates-formes seraient soit plus -filtre le contenu ou ne pas pouvoir filtrer du tout le contenu. "
Pichai propose essentiellement la même chose que Zuckerberg comme solution, en établissant des processus plus transparents pour cela, afin de garantir que toutes les plates-formes travaillent vers le même résultat.
«Les solutions peuvent inclure l’élaboration de politiques de contenu claires et accessibles, la notification des personnes lorsque leur contenu est supprimé et leur donner des moyens de faire appel des décisions relatives au contenu, et le partage de la façon dont les systèmes conçus pour lutter contre les contenus préjudiciables fonctionnent au fil du temps.
Pichai ne va pas aussi loin que Zuckerberg en proposant un cadre réglementaire tiers, mais l’accent mis sur la transparence est similaire dans ses objectifs.
Twitter Jack Dorsey adopte en fait une vision plus progressiste dans sa déclaration, se référant au nouveau Birdwatch et Ciel bleu projets en tant que moyens potentiels de résoudre les problèmes de modération et de contenu.
« Nous pensons que les utilisateurs doivent avoir une transparence ou un contrôle significatif sur les algorithmes qui les affectent. Nous reconnaissons que nous pouvons faire plus pour offrir une transparence algorithmique, un apprentissage automatique équitable et des contrôles qui responsabilisent les gens. Les équipes d’apprentissage automatique de Twitter étudient des techniques et développer une feuille de route pour garantir que nos modèles algorithmiques actuels et futurs respectent des normes élevées en matière de transparence et d’équité. «
En ce sens, Dorsey cherche à se concentrer sur les systèmes de recommandation de contenu eux-mêmes afin d’aider les utilisateurs à améliorer leur expérience. Ce qui pourrait être une meilleure solution – mais là encore, les utilisateurs veulent-ils vraiment plus de contrôle ou préféreraient-ils que les systèmes apprennent simplement de leur comportement et leur proposent un contenu pertinent en fonction de l’utilisation?
Il y a encore de nombreuses questions à venir, et nous aurons probablement un aperçu de la réflexion du Comité sur la réforme de l’article 230 lors de l’audience de cette semaine.
Mais les réponses ne sont pas faciles. Les plates-formes en ligne sont devenues des sources d’information essentielles, en particulier au cours de l’année dernière, ce qui a accru leur capacité à informer et à influencer de larges pans de la société. S’assurer qu’ils sont utilisés pour de bon est un objectif important, mais la définition de paramètres à cet effet peut être risquée, voire dangereuse, à bien des égards.
Vous pouvez lire l’article original (en Anglais) sur le blogwww.socialmediatoday.com