Comment les fausses informations auraient pu inverser la tendance de vote alors que les filter bubbles nous tiennent prisonniers dans nos idées existantes?

Un sujet me taraude depuis l’élection de Donald Trump.

On accuse Facebook d’être – partiellement – responsable de son élection à cause de deux phénomènes :

  1. Les filter bubblesnos bulles socioculturelles nous conduisant à interagir avec des contenus qui nous confortent dans nos opinions donc qui finissent par s’imposer dans nos newsfeed sans laisser de place aux idées alternatives (n’oubliez pas que edgerank est un modèle basé sur l’intérêt individuel manifesté).
  2. Les fausses informations envoyées depuis de faux sites. Elles auraient permis de faire de l’intox à grande échelle, d’autant plus que les réseaux sociaux tels que Facebook ou Twitter ont reconnu avoir désactivé leur modération durant les élections afin d’assurer une liberté optimale de la pluralité d’opinion.

Le problème : si les filter bubbles favorisent la reproduction sociale, elles maintiennent le statu quo. Que ces infos qui maintiennent le statu quo soient vraies ou fausses ne changent rien : les filter bubbles nous empêchent d’être exposés à des contenus qui ne nous intéressent pas.

On accuse Trump d’avoir utilisé des fausses informations mais les conséquences de cette démarche ne peuvent donc que renforcer le statu quo, donc n’expliquent pas son succès inattendu. Les filter bubbles ont du empêcher les démocrates d’être exposées aux inepties de Trump.

Que s’est-il passé? Plusieurs hypothèses s’offrent :

  1. Avec de vraies ou de fausses informations, l’électorat de Trump était sous-évalué sur les réseaux sociaux : soit tous les électeurs n’étaient pas sur Facebook, soit ils n’étaient pas sortis du bois sur Facebook.
  2. Les sondeurs ont effectivement mal calibré la représentativité de leurs échantillons, eux-mêmes biaisés par leur croyance en Hillary Clinton.
  3. Les journalistes ne comprennent décidément rien à rien et blâment Facebook – comme on blâmerait la société – alors qu’ils sont également responsables de la situation en ayant accordé une place dingue et gratuite à Trump dans leurs colonnes (2.5x fois exactement), ce dont NLQ s’inquiétait il y a 2 mois.

Quoi qu’il arrive, je ne comprends toujours pas comment on peut accuser Facebook d’être en même temps une machine à production de statut quo et une machine à produire de l’inattendu…

Les fausses informations n’ont pu que confirmer le sentiment de ras-le-bol sous-jacent. Les gens n’auraient pas autant partagé ces fausses infos s’ils n’étaient pas en colère. N’oublions jamais que :

“L’autonomie et le fonctionnement en réseau ne sont pas des inventions d’Internet, ce serait plutôt Internet qui serait le produit de l’autonomie et du fonctionnement en réseau.”

Lâchez prise et parlez à votre collègue de droite, vous allez être surpris

S’il y a encore des gens qui n’ont pas entendu parler des filter bubbles, offrez 15 riches minutes à votre gueule de bois post qualification en finale : ça vaut le coup.

Comme pour de nombreuses autres décisions politiques – les élections notamment – l’algorithme Facebook a été accusé de favoriser le conservatisme dans le vote du Brexit. Pourquoi?

Parce qu’à mesure que les utilisateurs utilisent l’outil, leurs interactions sont assimilées par edgerank qui pousse alors des opinions conformes à celles qui vous font réagir, aka. les vôtres.

Résultat : votre mur est tapissé de points de vue de gens d’accord avec vous. Et lorsqu’un grand moment de civisme pointe son nez, vous voici cerné d’opinions conformes aux votres. Autrement dit : si une opinion est dans l’air, il est très compliqué de faire évoluer le point de vue des gens tant ils se sont emmurés dans une bulle préférentielle.

Faites le test sur votre mur : combien de personne horribles avez-vous déjà arrêté de suivre? Contre combien de personne vous êtes déjà ouvertement opposé sur un mur? Sans doute moins que ceux qui vous inspirent…

Bottom line : faites confiance à la sérendipité, quittez Facebook et offrez-vous un magazine inconnu pour votre heure de train ce soir.

Les algorithmes sont politiques : Edgerank le bourgeois

Discutant hier avec mon ami Erwan de l’algorithme de Facebook (celui qui choisit les contenus affichés sur nos walls – cf. formule ci-dessous), il me révèle la hiérarchie des contenus appliquées par Edgerank : Video Update > Picture Update > Link Update > Status Update.

Une photo vaut plus qu’un like. Une vidéo vaut mieux qu’un commentaire.

[Avis aux non spécialistes : vos contacts Facebook ne voient pas tout ce que vous postez sur vos murs]

Je ne parviens pas à retrouver cette information mais il semblerait que l’objet doté du poids le plus fort est le statut marital, parce qu’il est celui qui est censé changer le moins souvent.

En d’autres termes, pour Facebook, c’est la situation maritale qui compte le plus dans la série des informations à faire apparaître sur les murs des gens. Le mariage prime sur les vacances en Thaïlande. Le célibat est plus important que le score de l’équipe de France…

Qui a dit que Facebook ne se résumait qu’à une conversation de bistro au sujet des lolcats ?

Cette donnée illustre parfaitement la slide 11 de ce deck d’Hubert Guillaud (ou cette colonne de Dominique Cardon sur l’affaire google x juif / Merci Aurélien) consacré à l’open data :

“Non seulement nous devons reconnaître que ces algorithmes ne sont pas neutres, qu’ils codent des choix politiques, et qu’ils “armaturent” l’information d’une manière particulière, mais nous devons également comprendre ce que signifie de nous appuyer sur eux, pourquoi voulons-nousqu’ils soient neutres, fiables, qu’ils soient des moyens efficaces pour atteindre ce qui est le plus important. » Tarleton Gillespie

Les algorithmes n’ont décidément pas bon goût.

Ceux qui veulent en savoir plus sur Edgerank :