Facebook affronte le gouvernement américain à cause de la désinformation sur les vaccins


Il semble que Facebook soit à nouveau sur une trajectoire de collision avec le gouvernement américain, cette fois sur le rôle qu’il peut ou non jouer dans l’amplification de la désinformation sur le vaccin COVID-19, qui a été identifiée comme un obstacle clé dans le chemin de la nation vers la reprise après la pandémie.

Vendredi, interrogé directement sur la désinformation sur les vaccins sur Facebook, le président américain Joe Biden a répondu que ‘ils tuent des gens‘ en permettant aux théories du complot sur les vaccins de se répandre.

Le commentaire de Biden est intervenu un jour après que la Maison Blanche a également c’est noté qu’il a été dans contact régulier avec les plateformes de médias sociaux pour s’assurer qu’elles restent au courant des derniers récits qui présentent un danger pour la santé publique

Selon l’attaché de presse de la Maison Blanche Jen Psaki:

“Nous travaillons pour nous engager avec eux pour mieux comprendre l’application de la politique des plateformes de médias sociaux.”

En réponse aux remarques de Biden, Facebook est immédiatement passé à l’offensive, avec un porte-parole de Facebook disant Actualités ABC qu’il “va ne pas se laisser distraire par des accusations qui ne sont pas étayées par les faits”.

Facebook a suivi avec un réponse officielle aujourd’hui, dans un article intitulé « Passer au-delà du doigt pointé ».

À un moment où les cas de COVID-19 augmentent en Amérique, l’administration Biden a choisi de blâmer une poignée de sociétés américaines de médias sociaux. Alors que les médias sociaux jouent un rôle important dans la société, il est clair que nous avons besoin d’une approche globale de la société pour mettre fin à cette pandémie. Et les faits – et non les allégations – devraient aider à éclairer cet effort. Le fait est que l’acceptation des vaccins parmi les utilisateurs de Facebook aux États-Unis a augmenté. Ces faits et d’autres racontent une histoire très différente de celle promue par l’administration ces derniers jours.”

Le message met ensuite en évidence diverses études qui montrent que les efforts de Facebook pour lutter contre l’hésitation à la vaccination fonctionnent et que, le cas échéant, les utilisateurs de Facebook sont moins résistants à l’effort de vaccination, contrairement aux remarques de Biden.

Ce qui est en grande partie conforme à la position plus large de Facebook ces derniers temps – qui, basée sur recherche académique, il n’y a actuellement aucun lien définitif entre l’hésitation accrue vis-à-vis des vaccins et le partage sur Facebook, ni, sur une voie similaire, il n’y a de lien direct entre l’utilisation de Facebook et la polarisation politique, malgré les affirmations en cours.

Ces derniers mois, Facebook a adopté une approche plus proactive pour rejeter ces idées, en expliquant que pLe contenu polarisant et extrémiste est en fait mauvais pour son entreprise, malgré la suggestion qu’il bénéficie de l’engagement connexe avec de tels messages.

Selon Facebook:

« Toutes les plateformes de médias sociaux, y compris mais sans s’y limiter, reflètent ce qui se passe dans la société et ce qui se passe dans l’esprit des gens à un moment donné. Cela inclut le bon, le mauvais et le laid. Par exemple, dans les semaines qui ont précédé la Coupe du monde, les publications sur le football vont naturellement augmenter – non pas parce que nous avons programmé nos algorithmes pour montrer aux gens du contenu sur le football, mais parce que c’est ce à quoi les gens pensent. Et tout comme la politique, le football touche profondément les gens. Comment ils réagissent – le bon, le mauvais et le laid – sera reflété sur les réseaux sociaux.”

Facebook Vice-président des affaires mondiales Nick Clegg a également pris un angle similaire de retour en mars dans son article sur le fil d’actualité comme étant une interaction entre les personnes et la plate-forme – ce qui signifie que la plate-forme elle-même ne peut pas être entièrement responsable :

L’objectif est de s’assurer que vous voyez ce que vous trouvez le plus significatif – ne pas pour vous garder collé à votre smartphone pendant des heures. Vous pouvez penser à cela comme à un filtre anti-spam dans votre boîte de réception : il aide à filtrer le contenu que vous ne trouverez pas significatif ou pertinent, et priorise le contenu que vous trouverez.”

Clegg note en outre que Facebook réduit activement le distribution de contenu sensationnel et trompeur, ainsi que des publications jugées fausses par ses partenaires indépendants de vérification des faits.

« Par exemple, Facebook rétrograde les appâts à clics (titres trompeurs ou exagérés), les allégations de santé très sensationnelles (comme celles faisant la promotion de « remèdes miracles ») et les appâts d’engagement (articles qui cherchent explicitement à amener les utilisateurs à s’engager avec eux). »

Clegg dit également que Facebook s’est engagé particulièrement à cet égard, en conflit avec ses propres intérêts commerciaux, en implémentant une modification de l’algorithme du fil d’actualité en 2018, qui donne plus de poids aux mises à jour de vos amis, de votre famille et de vos groupes que vous ‘ re une partie, sur le contenu des pages que vous suivez.

Ainsi, selon Facebook, il ne bénéficie pas du contenu sensationnel et des théories du complot de centre-gauche – et en fait, il fait tout son possible pour les pénaliser.

Pourtant, malgré ces affirmations et les références à des articles universitaires et à des études internes peu concluants, les preuves plus larges ne soutiennent pas la position de Facebook.

Plus tôt cette semaine, Le New York Times a rapporté que Facebook s’est efforcé de changer le fonctionnement de sa propre plate-forme d’analyse de données, afin de restreindre l’accès du public aux informations qui montrent que les publications d’extrême droite et la désinformation fonctionnent mieux sur la plate-forme qu’une couverture et des rapports plus équilibrés.

La polémique vient de ce profil Twitter, créé par le journaliste du Times Kevin Roose, qui affiche une liste quotidienne des dix publications les plus engageantes sur Facebook, basée sur les données de CrowdTangle.

Les pages d’extrême droite dominent toujours le graphique, c’est pourquoi Facebook a déjà cherché à expliquer que les mesures utilisées pour créer la liste sont fausses et ne sont donc pas indicatives de l’engagement et de la popularité réels des publications.

Selon le Rapport du NYT, Facebook était en fait allé plus loin que cela en interne, les membres du personnel recherchant un moyen de modifier les données affichées dans CrowdTangle pour éviter une telle comparaison.

Ce qui ne s’est pas passé comme prévu :

“Plusieurs dirigeants ont proposé de rendre publiques les données de portée sur CrowdTangle, dans l’espoir que les journalistes citeraient ces données au lieu des données d’engagement qui, selon eux, faisaient mal paraître Facebook. Mais [Brandon] Silverman, le directeur général de CrowdTangle, a répondu dans un e-mail que l’équipe de CrowdTangle avait déjà testé une fonctionnalité pour le faire et avait trouvé des problèmes avec celle-ci. L’un des problèmes était que les nouvelles fausses et trompeuses ont également atteint le sommet de ces listes. »

Ainsi, peu importe comment Facebook cherchait à le faire tourner, ces types de publications gagnaient toujours du terrain, ce qui montre que, même avec les mises à jour et les processus susmentionnés pour limiter un tel partage, cela reste le type de contenu qui suscite le plus d’engagement, et ainsi, atteindre sur le réseau social.

Ce qui, pourrait-on dire, est un problème humain, plutôt qu’un problème de Facebook. Mais à 2,8 milliards d’utilisateurs, lui donnant plus de potentiel d’amplification de contenu que n’importe quelle plate-forme dans l’histoire, Facebook doit assumer la responsabilité du rôle qu’il joue dans ce processus, et le rôle qu’il peut potentiellement jouer en amplifiant l’impact de celui-ci dans le cas, disons, une pandémie où la peur des vaccins pourrait finir par coûter au monde un tribut incommensurable.

Il semble assez clair que Facebook y joue un rôle important. Et quand on considère aussi que certains 70% des Américains obtiennent maintenant au moins du contenu d’actualité de Facebook, il est clair que l’application est devenue une source de vérité pour beaucoup, qui informe ce qu’ils font, y compris leurs positions politiques, leur compréhension civique. Et oui, leur point de vue sur les conseils de santé publique.

Zut, même les terriens plats ont pu gagner du terrain à l’ère moderne, soulignant le pouvoir des mouvements anti-science. Et encore une fois, bien que vous ne puissiez pas dire avec certitude que Facebook est responsable de cela, si quelqu’un publie une vidéo aléatoire de terriens plats essayant de prouver leur théorie, cela va probablement gagner du terrain en raison de la nature sensationnelle et de division de ce contenu – comme ce clip par exemple :

Vidéo de la Terre plate

Des vidéos comme celle-ci attirent aussi bien les croyants que les sceptiques, et bien que de nombreux commentaires soient critiques, c’est tout, selon le jugement algorithmique de Facebook, l’engagement.

Ainsi, même vos remarques moqueuses aideront ce matériel à gagner du terrain – et plus il y a de gens qui commentent, plus ces messages prennent de l’ampleur.

8 personnes sur 10 pourraient rejeter de telles théories comme des ordures totales, mais 2 pourraient en profiter pour creuser plus profondément. Multipliez cela par le nombre de vues que ces vidéos voient et c’est beaucoup d’influence potentielle sur ce front que Facebook facilite.

Et certainement, ces types de messages gagnent du terrain. UNE étude menée par le MIT en 2019 trouvé ceci les fausses nouvelles sur Twitter sont 70 % plus susceptibles d’être retweetées que celles qui sont vraies, tandis que de plus amples recherches sur les motivations derrière une telle activité ont découvert qu’un besoin d’appartenance et de communauté peut également solidifier les groupes autour des mensonges et de la désinformation en tant que réponse psychologique.

Il y a aussi un autre élément clé à l’intérieur de cela – la nature changeante de la distribution des médias elle-même.

Comme Le psychologue social de l’Université de Yale, William J. Brady, a récemment expliqué:

« Quand vous publiez des choses [on social media], vous êtes très conscient des retours que vous recevez, des retours sur les réseaux sociaux en termes de likes et de partages. Ainsi, lorsque la désinformation fait plus appel aux pulsions sociales que la vérité, elle attire davantage l’attention en ligne, ce qui signifie que les gens se sentent récompensés et encouragés pour la diffuser.”

Ce changement, en donnant à chacun sa motivation personnelle pour partager certains contenus, a changé le paradigme de la portée du contenu, ce qui a dilué l’influence des publications elles-mêmes au profit des algorithmes, – qui, encore une fois, sont alimentés par les personnes et leur besoin de validation et réponse.

Vous partagez un message disant « les vaccins sont sûrs » et personne ne s’en souciera probablement, mais si vous en partagez un qui dit « les vaccins sont dangereux », les gens feront attention et vous recevrez toutes les notifications de tous les likes, partages et commentaires, qui déclencheront alors vos récepteurs de dopamine, et vous feront sentir que vous faites partie de quelque chose de plus grand, quelque chose de plus – que votre voix est importante dans le paysage plus large.

En tant que tel, Facebook a quelque peu raison de désigner la nature humaine comme coupable, et non ses propres systèmes. Mais elle, et d’autres plateformes, ont donné aux gens le support, ils fournissent les moyens de partager, ils conçoivent les incitations pour les maintenir en ligne.

Et plus les gens passent de temps sur Facebook, mieux c’est pour les affaires de Facebook.

Vous ne pouvez pas prétendre que Facebook ne profite pas à cet égard – et en tant que tel, il est dans l’intérêt de l’entreprise de fermer les yeux et de prétendre qu’il n’y a aucun problème avec ses systèmes et le rôle qu’il joue dans l’amplification de tels mouvements. .

Mais c’est le cas, et le gouvernement américain a raison d’examiner de plus près cet élément.





Vous pouvez lire l’article original (en Anglais) sur le blogwww.socialmediatoday.com