Comment les élections de 2016 ont fait exploser Facebook

À l'approche de minuit le 6 novembre 2012, Barack Obama, nouvellement réélu, a tweeté une photo de lui embrassant la première dame, avec le message quatre ans de plus. Le tweet de la soirée électorale du président est allé virale sans précédent, accumulant plus de 500 000 retweets en quelques heures et clôturant la journée la plus active de l'histoire de Twitter. Pendant ce temps, sur Facebook, un réseau quatre fois plus grand que Twitter, la même photo avait moins de 100 000 partages – preuve que l'énergie autour des événements actuels était ailleurs. Ce fut un triomphe pour Twitter, une rare occasion où le petit oiseau a chanté plus fort que son grand frère bleu. Au siège de Facebook à Menlo Park, c'était une sonnette d'alarme qui sonnait bruyamment au milieu de la nuit, un appel à l'action.



Quatre ans plus tard, Facebook ne pouvait pas être plus pertinent. La plate-forme a joué un rôle déterminant dans les élections de 2016 – mais peut-être pas pour la raison qu'elle espérait. Dans les jours qui ont suivi le vote, il a été critiqué pour avoir créé une infrastructure qui a joué un rôle de confirmation et a permis aux créateurs de mèmes politiques, aux sensationnalistes et aux fournisseurs de fausses informations de prospérer – et peut-être même de modifier le résultat des élections . L'influence de l'entreprise était si évidente que lorsque le PDG Mark Zuckerberg a nié que les fausses nouvelles qui parcouraient son système avaient influencé les élections ses propres employés lui a contesté.

Et bien que l'entreprise n'ait probablement jamais eu l'intention de créer un système qui encourage les gens à n'entendre que ce qu'ils veulent - que ce soit vrai ou non - Facebook n'est pas arrivé ici par accident. Il a fait un énorme effort au cours des quatre dernières années pour devenir une destination d'actualités, en fait, pour être votre « journal personnalisé parfait ». Depuis ce tweet d'Obama, l'entreprise a réorganisé sa plate-forme, créant un système conçu pour faciliter le partage et la promotion histoires d'actualité et tendances et de les aider à se répandre rapidement dans son réseau. Dans le processus, Facebook, avec ses 1,79 milliard d'utilisateurs actifs par mois, a atteint plus de cinq fois la taille de Twitter.



La promesse de puiser dans cet éclair a incité d'énormes organisations de presse à se lancer sur Facebook. Mais ces mécanismes améliorés de partage et d'interaction, associés à l'évolution de la dynamique de la plate-forme, ont créé un système qui a permis de renforcer les visions du monde existantes. L'algorithme du fil d'actualités de Facebook donne la priorité au partage et au temps passé à lire des articles, mais dans un monde à défilement, ces mesures sont susceptibles de récompenser du matériel qui ne vous met pas au défi. Cela a à son tour permis à une foule d'arrivistes qui ne connaissaient pas la vérité de l'utiliser, parfois, encore plus de succès que les organes de presse traditionnels pour devenir méga-viral.

Essentiellement, Facebook a construit une boîte de Pétri pour le biais de confirmation, développant des conditions idéales pour développer des sources d'information dont la mission était de fournir aux gens du fourrage qui étayait leurs propres croyances. Voici comment il en est arrivé là.

Cela commence par le partage

La transformation de Facebook a commencé presque immédiatement après les élections de 2012. Le 14 novembre 2012, huit jours après le vote, un TechCrunch gros titre proclamé : Facebook lance enfin le bouton « Partager » pour le flux mobile, sa version de « Retweet ».

Cette décision, apparemment mineure à l'époque, a mis la table pour un changement de comportement sur Facebook, encourageant les gens à partager rapidement et sans trop y penser. Cela a à son tour aidé toutes les formes de contenu à exploser sur le réseau. Comme le TechCrunch article astucieusement noté : lorsque les gens utilisent le bouton Partager sur le Web, ils donnent souvent leur propre description d'un lien. Mais sur mobile où taper est plus difficile, un bouton Partager pourrait encourager les gens à re-partager rapidement lien après lien.

Le bouton de partage mobile aiderait les liens à surpasser le texte et les photos en tant que forme de contenu partagé à la croissance la plus rapide sur Facebook. Cela s'avérerait crucial d'une manière inattendue mais très importante dans peu de temps.

Faites semblant jusqu'à ce que vous le fassiez

Ce n'est pas un hasard si Jestin Coler a commencé Rapport national , son site de fausses nouvelles au succès fou, quelques mois seulement après que Facebook a ajouté le bouton de partage mobile. Le satiriste californien a regardé avec un peu d'étonnement les articles de sites d'information marginaux conservateurs commencer à exploser sur Facebook et a décidé qu'il voulait participer à l'action. Je voyais ce genre de sites partout avec de nombreux abonnés et ils recevaient un bon trafic et je me suis dit, Eh bien, je pourrais le faire , a déclaré Coler à BuzzFeed News. Et donc il a fait ses débuts Rapport national en février 2013.

Coler aurait pu rapporter la nouvelle, ou simplement bloguer. Mais il a remarqué que les pages politiques marginales reprenaient à peu près tout ce qui les aidait à faire valoir leur point de vue, y compris les nouvelles fabriquées. Donc Rapport national a commencé à publier de fausses nouvelles sur le contrôle des armes à feu, l'avortement et le président Obama, que Coler soupçonnait de déclencher la droite. C'est sûr. Les sites ont rapidement commencé à agréger ses histoires. Nous avons vraiment opté pour le biais de confirmation, a déclaré Coler. Ce que nous supposions que les gens voulaient entendre, c'était vraiment ce que nous vendions.

Rapport national eu un impact. Réel impact. Peu de temps après que Coler a fabriqué un histoire sur les coupons alimentaires utilisés dans le Colorado pour acheter de l'herbe, la législature du Colorado a présenté un vrai projet de loi d'interdire la pratique.

Celui-là était amusant pour moi, a déclaré Coler. Ce n'est pas si difficile d'amener les gens à partager ce genre de choses et à énerver les gens de droite. C'est un peu effrayant à quel point c'est facile, vraiment.

Être à la mode

Le nouveau bouton de partage n'était pas la seule fonctionnalité ajoutée par Facebook pour diffuser du contenu en temps opportun sur sa plate-forme. En mars 2013, elle a introduit les hashtags qui, comme Toutes les chosesD souligné , ont été empruntés directement à Twitter : l'imitation est en effet la forme la plus sincère de flatterie. Et Twitter devrait être très flatté en ce moment.

Cinq mois plus tard, le 6 août 2013, Facebook a organisé un événement de presse qui, selon TechCrunch , a souligné à plusieurs reprises le contenu en temps réel dans son fil d'actualité. Le lendemain, Facebook a ajouté une autre fonctionnalité : les tendances. Facebook a souligné que Trending, un module qui met en évidence certains des contenus les plus discutés sur Facebook, était un petit test et a promis de partager plus de détails si nous décidons de le déployer plus largement.



L'ajout d'une multitude de fonctionnalités de type Twitter a donné à Facebook une nouvelle capacité de diffuser rapidement du contenu du moment. Facebook n'était toujours pas aussi rapide que les mises à jour en temps réel de Twitter, mais ce n'était pas nécessaire. C'était rapide assez , et ses 1 milliard d'utilisateurs actifs mensuels, contre 250 millions environ pour Twitter, comblaient en masse ce qui lui manquait d'énergie.

Ces fonctionnalités ont donné aux gens une visibilité sur ce dont les gens parlaient en ce moment, a déclaré un ancien chef de produit Facebook à BuzzFeed News. Désormais, n'importe qui, et pas seulement des personnalités publiques, peut ajouter sa voix à de plus grandes conversations sur Internet.

Ces changements ont mis en place Jestin Coler’s Rapport national pour une grosse année. 2014 a fini par être énorme pour nous, a-t-il déclaré. Rapport national a reçu environ 30 millions de pages vues cette année-là, a-t-il déclaré, presque toutes grâce à Facebook.

En novembre 2014, Mark Zuckerberg se sentait assez confiant dans la capacité de Facebook à diffuser les dernières nouvelles, suffisamment pour comparer l'objectif de Facebook, incroyablement, à celui d'un journal. Notre objectif est de créer le journal personnalisé parfait pour chaque personne dans le monde, a-t-il déclaré. Nous essayons de le personnaliser et de vous montrer ce qui vous intéressera le plus.

Pour créer ce journal personnalisé parfait, Facebook devait rendre le fil d'actualité aussi intéressant et pertinent que possible pour les gens. Et pour ce faire, il s'est engagé dans un certain nombre de mesures d'amélioration de la qualité, notamment en interrogeant ses utilisateurs sur ce qu'ils trouvent précieux et en optimisant le temps passé à lire des histoires après un clic sur le fil d'actualité Facebook, en plus de mesurer des métriques traditionnelles comme le nombre de partages et de likes.

Ces mouvements étaient bien intentionnés mais fondamentalement imparfaits. Il est peu probable que vous passiez beaucoup de temps à lire et à interagir avec des documents avec lesquels vous n'êtes pas d'accord. Comme l'a dit un autre ancien employé de Facebook à BuzzFeed News, même s'ils peuvent vous montrer des histoires avec lesquelles vous n'êtes pas d'accord, ils ne le seront probablement pas parce que vous passerez probablement plus de temps sur Facebook si vous voyez des choses avec lesquelles vous êtes d'accord et que vous aimez.

Les sites de fausses informations à but lucratif et les sites Web marginaux faisant du trafic de propagande en ont tous deux énormément profité. Et un Facebook désormais équipé des mécanismes permettant de propager rapidement les histoires a boosté leur ascension.

Les premiers pas contre les fausses nouvelles

Dès août 2014, Facebook savait qu'il avait un problème croissant entre ses mains, mais l'a abordé avec des gants d'enfant, s'engageant à marquer les liens des sites Web de canulars avec une étiquette de satire. Les Washington Post , dans un histoire dénoncer la terrible industrie des fausses informations, a expliqué sa nécessité. Un article de premier plan sur Empire News comptera fréquemment plus d'un quart de million de partages Facebook, bien plus que sur toute autre plate-forme sociale, le Poster signalé. Au fur et à mesure que cette information se propage et mute, elle prend progressivement le voile de la vérité.

En janvier 2015, Facebook est devenu plus agressif. Il a écrit un fil d'actualité pour info article de blog avec le titre Montrant moins de canulars. Les gens se plaignaient de fausses nouvelles et de canulars, selon le blog, Facebook réduirait donc la portée de ces messages. Un message contenant un lien vers un article que de nombreuses personnes ont signalé comme un canular ou choisi de supprimer sera moins diffusé dans le fil d'actualité, selon le message. Et avec cela, Facebook a commencé un combat public contre les fausses nouvelles.

Mais la bulle du filtre devenait toujours plus grosse que jamais, et elle était sur le point de s'aggraver en raison d'un changement dans la façon dont les gens se comportaient sur le site.

Trompé

Le 16 juin 2015, Donald Trump a touché le sol dans l'Iowa et a commencé à faire campagne pour la présidence, tirant sur ses collègues républicains et déclarant aux médias que lui seul pouvait battre la leader démocrate Hillary Clinton. Une histoire Bloomberg de ce jour mentionné Les démocrates ont accueilli avec joie l'entrée de Trump dans la course.

De toute évidence, ces démocrates n'avaient pas encore remarqué sa page Facebook. Deux jours plus tard, un Trump Publier sur l'immigration recevrait plus de 190 000 partages sur Facebook. C'était presque deux fois plus d'actions que le post d'Obama la nuit des élections trois ans plus tôt.

Voir cet article sur Facebook

Facebook : Donald Trump

Avec les primaires présidentielles en cours, un autre changement fondamental se produisait au sein de Facebook, l'un des responsables de donner encore plus d'importance aux publications d'agences de presse et de personnalités publiques, bien que la société n'ait pas encore commencé à en tenir compte.

Le partage dit original, où les gens publient leurs propres photos, mises à jour de texte, etc., au lieu de simplement appuyer sur partager, était en déclin. L'étendue du problème de partage initial de Facebook a été révélée en avril 2016 article dans L'information , qui a indiqué que le partage initial était en baisse de 21 % à la mi-2015 par rapport à l'année précédente. Avec le partage, le contenu de célébrités, de candidats politiques et de sites d'actualités a commencé à combler ce vide. L'algorithme de Faceboook transformait déjà la plate-forme en un terrain de jeu pour le contenu de biais de confirmation, et le déclin initial du partage lui a donné un nouvel élan.

Facebook continue de repousser cette notion et a pointé BuzzFeed News vers les commentaires que Mark Zuckerberg a faits lors d'un appel aux résultats en avril. 'Le partage global est en hausse sur Facebook', a-t-il déclaré.

Facebook maintient également que le mélange de ce que les gens voient dans NewsFeed est resté inchangé. 'En général, le pourcentage de flux d'actualités qui ont été des liens et donc également des actualités distribuées via des liens a été très constant au fil du temps', a déclaré Adam Mosseri, vice-président de la gestion des produits de Facebook, à BuzzFeed News dans une interview. 'La grande majorité des histoires dans le fil d'actualité des gens ne sont pas des nouvelles.'

Et pendant ce temps, Donald Trump, le partageur d'origine emblématique, prenait de l'ampleur.

L'apparence du biais

Maintenant qu'il disposait de nouveaux outils pour identifier et promouvoir les histoires tendances, Facebook a franchi une autre étape qu'il a largement gardée secrète : il a commencé à prendre des décisions éditoriales sur le contenu qui apparaîtrait dans Tendances. L'entreprise avait embauché une équipe humaine pour organiser sa rubrique Tendances, mais en août 2015, elle Raconté Recoder que ses algorithmes étaient seuls responsables de décider ce qui aboutissait là. Ces personnes ne choisissent pas ce que Facebook ajoute à la section des tendances, Recoder signalé. C'est fait automatiquement par l'algorithme. Ils n'ont qu'à choisir le titre.

Pas ainsi. En mai 2016, Gizmodo a publié un histoire explosive rapportant que ces conservateurs humains supprimaient régulièrement les informations conservatrices. L'article, citant les conservateurs eux-mêmes, a révélé qu'il y avait effectivement un jugement humain impliqué dans ce qui apparaissait, et n'apparaissait pas, dans la colonne Tendances. Un membre conservateur de l'équipe de conservation a déclaré Gizmodo que les sujets tendance de droite étaient régulièrement omis. c'était comme s'ils avaient un parti pris contre Ted Cruz, a déclaré le conservateur.

Les révélations ont créé un scandale majeur, si dommageable que Zuckerberg est allé jusqu'à admettre que je sais que de nombreux conservateurs ne croient pas que notre plate-forme diffuse du contenu sans parti pris politique dans une publication à sa page Facebook - même via Facebook, il a affirmé qu'il n'avait trouvé aucune preuve d'acte répréhensible.

Le jour de l'admission de Zuckerberg, le PDG a organisé une réunion de dirigeants conservateurs au sein de Facebook pour aborder la controverse. L'éditeur conservateur Brent Bozell, qui a assisté à la réunion, a déclaré à BuzzFeed News il est parti en croyant que Facebook était sincère dans ses efforts pour réparer les clôtures. Tout le monde dans cette pièce veut que la confiance soit rétablie, a-t-il déclaré. La confiance est tout dans cette entreprise.

L'élection était dans moins de six mois.

Fausses nouvelles, vraie résilience

Au début de 2016, Facebook se battait contre les fausses nouvelles depuis plus d'un an, et cela ne gagnait pas. Une actualité BuzzFeed une analyse des milliers de publications Facebook publiées sur les neuf principaux sites de fausses nouvelles ont révélé que l'engagement moyen (j'aime + commentaires + partages) par publication pour les pages Facebook de ces sites était plus élevé en février 2016 qu'en janvier 2015. Dans son analyse, BuzzFeed News utilisé les données de CrowdTangle, une société d'analyse des médias sociaux que Facebook a tellement appréciée l'a acquis juste après les élections.

Une histoire de Jestin Coler Rapport national a même fait son chemin dans un décembre 2015 New York Times éditorial sur le contrôle des armes à feu et y est resté pendant des mois. Lorsque BuzzFeed News contacte le Fois à propos de l'histoire, il a supprimé le lien et a émis une rectification .

Bien que BuzzFeed News ait examiné neuf sites de fausses informations dans son analyse, il y en a eu un 10e, Nouvelles américaines , ça n'a pas réussi. Nouvelles américaines , apprécié par plus de 5 millions de personnes sur Facebook, était largement supérieur au reste des sites analysés. Nouvelles américaines n'est pas un site de fausses nouvelles en soi, mais il prend souvent une pépite de vérité et écrit une histoire dramatiquement exagérée autour de celle-ci avec une inclinaison conservatrice. Après que Bernie Sanders a écrit un éditorial dans le New York Times réagissant à la victoire de Trump en disant qu'il est prêt à travailler avec le président élu dans certaines circonstances, par exemple, Nouvelles américaines publié une histoire avec le titre : Sanders allume complètement Hillary, soutenant maintenant Trump. (Sanders, dans aucune partie de son éditorial, a déclaré qu'il soutenait le président élu.)

Nouvelles américaines n'est qu'une des nombreuses publications de ce type sur Internet. Vous pouvez les considérer comme des sirènes. Vu de la surface, tout semble normal. Mais allez plus loin et les choses commencent à sembler louches. Ces sites sont passés maîtres dans l'art des informations fortement biaisées pour jouer sur le biais de confirmation, et certains sont très, très populaires.

Breitbart, un site Web conservateur populiste avec un lectorat massif et 2,8 millions de fans sur Facebook, peut parfois s'égarer en territoire de sirène. En août, par exemple, il a utilisé une photo du défilé du championnat des Cleveland Cavaliers à une histoire à propos d'un rassemblement massif de Jacksonville Trump.

Ces sirènes ont rendu extrêmement difficile le travail auto-assigné de Facebook consistant à contrôler les fausses nouvelles. Zuckerberg, dans un Publication Facebook samedi dernier, a fait de son mieux pour expliquer ce champ de mines. Identifier la «vérité» est compliqué, a-t-il déclaré.

Cela a été encore exacerbé précisément parce qu'il s'était déjà heurté à des accusations de partialité à l'encontre de sources d'information conservatrices.

À l'approche des élections, Facebook a ainsi développé une culture interne de la peur, face aux fake news, selon Gizmodo (Facebook contesté des éléments de Gizmodo rapport de). Si Facebook devait prendre des mesures pour limiter la diffusion de fausses nouvelles, il le ferait sous intense contrôle car il était déjà méfié par les conservateurs pour cette même action; supprimant les nouvelles inclinées à leur point de vue. Dans un monde où un spectre de vérité existe, Facebook n'a pas pu trouver l'endroit pour tracer la ligne.

Si vous voulez savoir à quoi Facebook aurait été confronté s'il avait pris des mesures radicales contre les fausses nouvelles, il suffit de demander à Bozell, l'éditeur conservateur qui s'est joint à la réunion avec Zuckerberg. Y aurait-il un contrecoup s'ils essayaient quelque chose ? Bien sûr qu'il y en aurait, dit-il. Il y aura aussi un contrecoup de la gauche s'ils l'essayaient contre la gauche.

Lorsqu'on lui a demandé ce qui se passerait si Facebook supprimait les histoires fabriquées sur le pape approuvant Donald Trump, par exemple, Bozell a déclaré que cette décision déclencherait un monde de problèmes. Il y aurait une réaction vicieuse de ceux qui indiqueraient [d'autres] personnes sur Facebook disant que Trump était membre du Klan ou que Steve Bannon est un suprémaciste blanc, a-t-il déclaré. Si Facebook décidait d'examiner le mouvement conservateur et de supprimer ce qu'il a appelé les « fausses nouvelles », ce serait une grosse grosse grosse grosse erreur.

Le triomphe de la bulle filtrante

Dans cet environnement, votre oncle de droite et votre tante de gauche se sont saoulés de fausses nouvelles (et de spin et de propagande), partageant plan après plan un format de contenu conçu pour plaire aux personnes des deux côtés de l'échiquier politique qui se déplaçait maintenant sur la plate-forme avec une impunité relative.

Dans une analyse de plus de 1 000 publications sur des pages Facebook à travers l'éventail politique, BuzzFeed News a découvert que certaines des pages les moins précises enregistraient certaines des engagement le plus élevé . Et l'élection approchait, certaines des meilleures histoires de « nouvelles » des sites de canulars ont été générées plus d'engagement que certains des meilleurs articles de presse provenant de sites non-canulars.

Peut-être plus important encore, les sites axés sur l'agenda à long terme comme Breitbart ont vu leur influence monter en flèche pendant que cela se produisait. Le président de Breitbart, Steve Bannon, a rejoint la campagne Trump en tant que PDG en août 2016 . Et le 8 novembre, Bannon n'a pas seulement regardé son patron remporter la présidence, il a été témoin de son site Web en boîte pour Trump. étouffer CNN, Fox News et le New York Times le jour des élections pour les interactions Facebook. Bannon a été choisi la semaine dernière comme stratège en chef du président élu Trump. Breitbart, une publication que beaucoup considéraient autrefois comme marginale, est désormais la définition du grand public.

Au lendemain de l'élection, Mike Masnick, rédacteur en chef de Techdirt , a essayé de comprendre le rôle de Facebook dans le résultat et a écrit un article titré succinctement 'Si vous blâmez Facebook pour les résultats des élections, vous êtes un idiot'. Les gens croient à ces histoires parce qu'elles correspondent à leur expérience du monde réel de voir comment le système a fonctionné (ou n'a pas fonctionné) pendant trop longtemps, a écrit Masnick.

En effet. Les fausses nouvelles et les nouvelles sensationnalistes seraient relativement inefficaces sans la vision du monde existante qu'elles confirment. Mais avec cette histoire en place – une méfiance à l'égard du « système » détenu par des millions d'Américains – Facebook a fourni l'accélérateur pour que ce genre de choses se propage et s'installe à travers le pays lors d'une élection profondément controversée.

Coler, le propriétaire du site de fausses nouvelles, a déclaré qu'il ne regrettait pas son rôle dans le développement du genre de fausses nouvelles. Il a maintenu cette position lorsqu'on lui a expliqué que son objectif initial de semer des fabrications dans des publications conservatrices s'est avéré beaucoup plus sérieux qu'on ne le pensait à l'origine. Je pense que c'est déprimant, a déclaré Coler à propos de l'incapacité ou de la réticence des gens à distinguer le vrai du faux. En fin de compte, le biais de confirmation est le mot-clé. Vous pouvez vendre n'importe quoi à quelqu'un, et Trump était certainement un maître dans ce domaine. Confirmer ce que les gens veulent croire.

CORRECTION

24 novembre 2016 à 00h08

Une version précédente de cette histoire citait Jestin Coler sous le nom qu'il a fourni, Allen Montgomery, qui était faux.