Comment les fausses informations auraient pu inverser la tendance de vote alors que les filter bubbles nous tiennent prisonniers dans nos idées existantes?

Un sujet me taraude depuis l’élection de Donald Trump.

On accuse Facebook d’être – partiellement – responsable de son élection à cause de deux phénomènes :

  1. Les filter bubblesnos bulles socioculturelles nous conduisant à interagir avec des contenus qui nous confortent dans nos opinions donc qui finissent par s’imposer dans nos newsfeed sans laisser de place aux idées alternatives (n’oubliez pas que edgerank est un modèle basé sur l’intérêt individuel manifesté).
  2. Les fausses informations envoyées depuis de faux sites. Elles auraient permis de faire de l’intox à grande échelle, d’autant plus que les réseaux sociaux tels que Facebook ou Twitter ont reconnu avoir désactivé leur modération durant les élections afin d’assurer une liberté optimale de la pluralité d’opinion.

Le problème : si les filter bubbles favorisent la reproduction sociale, elles maintiennent le statu quo. Que ces infos qui maintiennent le statu quo soient vraies ou fausses ne changent rien : les filter bubbles nous empêchent d’être exposés à des contenus qui ne nous intéressent pas.

On accuse Trump d’avoir utilisé des fausses informations mais les conséquences de cette démarche ne peuvent donc que renforcer le statu quo, donc n’expliquent pas son succès inattendu. Les filter bubbles ont du empêcher les démocrates d’être exposées aux inepties de Trump.

Que s’est-il passé? Plusieurs hypothèses s’offrent :

  1. Avec de vraies ou de fausses informations, l’électorat de Trump était sous-évalué sur les réseaux sociaux : soit tous les électeurs n’étaient pas sur Facebook, soit ils n’étaient pas sortis du bois sur Facebook.
  2. Les sondeurs ont effectivement mal calibré la représentativité de leurs échantillons, eux-mêmes biaisés par leur croyance en Hillary Clinton.
  3. Les journalistes ne comprennent décidément rien à rien et blâment Facebook – comme on blâmerait la société – alors qu’ils sont également responsables de la situation en ayant accordé une place dingue et gratuite à Trump dans leurs colonnes (2.5x fois exactement), ce dont NLQ s’inquiétait il y a 2 mois.

Quoi qu’il arrive, je ne comprends toujours pas comment on peut accuser Facebook d’être en même temps une machine à production de statut quo et une machine à produire de l’inattendu…

Les fausses informations n’ont pu que confirmer le sentiment de ras-le-bol sous-jacent. Les gens n’auraient pas autant partagé ces fausses infos s’ils n’étaient pas en colère. N’oublions jamais que :

“L’autonomie et le fonctionnement en réseau ne sont pas des inventions d’Internet, ce serait plutôt Internet qui serait le produit de l’autonomie et du fonctionnement en réseau.”

Lâchez prise et parlez à votre collègue de droite, vous allez être surpris

S’il y a encore des gens qui n’ont pas entendu parler des filter bubbles, offrez 15 riches minutes à votre gueule de bois post qualification en finale : ça vaut le coup.

Comme pour de nombreuses autres décisions politiques – les élections notamment – l’algorithme Facebook a été accusé de favoriser le conservatisme dans le vote du Brexit. Pourquoi?

Parce qu’à mesure que les utilisateurs utilisent l’outil, leurs interactions sont assimilées par edgerank qui pousse alors des opinions conformes à celles qui vous font réagir, aka. les vôtres.

Résultat : votre mur est tapissé de points de vue de gens d’accord avec vous. Et lorsqu’un grand moment de civisme pointe son nez, vous voici cerné d’opinions conformes aux votres. Autrement dit : si une opinion est dans l’air, il est très compliqué de faire évoluer le point de vue des gens tant ils se sont emmurés dans une bulle préférentielle.

Faites le test sur votre mur : combien de personne horribles avez-vous déjà arrêté de suivre? Contre combien de personne vous êtes déjà ouvertement opposé sur un mur? Sans doute moins que ceux qui vous inspirent…

Bottom line : faites confiance à la sérendipité, quittez Facebook et offrez-vous un magazine inconnu pour votre heure de train ce soir.

Les machines à liker sont des machines à hater : comment les réseaux sociaux accélèrent la reproduction sociale

Rubicub - Cible - Personnes

Si l’idée d’affiner les résultats du search par les recommandations de ses contacts est théoriquement excellente, elle est inopérante du fait de l’asymétrie – dont Google n’a pas connaissance – entre ce en quoi mes amis s’y connaissent et les sujets sur lesquels je fais confiance à mes amis.

Le filtre social qui façonne notre wall Facebook – suivant la même vision que Google Plus – produit des effets inattendus. Le filtre social construit autant qu’il détruit la relation avec nos contacts.

La fameuse question des filter bubbles levée par Eli Pariser* omet de préciser qu’avant de voir disparaître de son wall les opinions divergentes, c’est que nous ne les avons pas likées (ie. interagit avec elle pour que l’algorithme FB comprenne qu’elles nous « intéressent »).

En leur qualité de machine à reproduction sociale, Facebook et les réseaux sociaux sont des machines à casser les amitiés.

Exemple : ton pote avec qui tu regardes le foot de temps en temps (il a une super télé et de la bière fraîche), ton cousin que tu n’as pas revu depuis ce mariage dans le Périgord il y a 4 ans, ta collègue de bureau avec qui tu ne discute que de compta et de performance.

Ces gens sont nos amis Facebook parce qu’on partage un centre d’intérêt avec eux.

Se trouver exposés à l’intégralité de leurs centres d’intérêts peut réserver de mauvaises surprises. Le pote footeux parle de Jean-François Copé, le cousin like 3 articles de Slate par jour, la collègue de bureau poste des photos ridicules.

Nous exposer à toutes les facettes de gens qu’on ne connait qu’à travers un prisme (soit 99% de nos amis qui ne sont pas très proches) accélère drastiquement la reproduction sociale.

Qui doit décider du bon goût ? De l’absence de poésie des algorithmes

Le sujet de la poésie au quotidien est inépuisable (souvenir). Le dernier post de Neil Perkin évoque une dimension effrayante de l’intelligence artificielle : la curation automatisée.

Instagram recommande ses images préférées (les affichant en page d’accueil façon trending topic) à l’aide d’un algorithme sibyllin (le ratio du nombre de like par nombre de follower + le nombre de like par rapidité de scoring). L’humain vote, la machine exécute. Ce qui plait = ce qui est populaire. Jusqu’ici rien de nouveau.

On en revient à cette dispute vieille comme le monde. Le goût doit-il être dicté par la plèbe ou par une instance tierce? C’est Arte vs. TF1.

Pendant ce temps, dans le domaine du search, Google affine de plus en plus nos recherches. Les critiques sur les risques de disparition de la sérendipité et des filter bubbles ne manquent pas non plus :

Pourtant, entre Instagram et Google, il y a une nuance.

Outre les différences de fonctionnement des deux algorithmes (Instagram 100% social, Google page rank + un peu de social) la précision algorithmique choque peu chez Google. Au contraire, elle améliore mon expérience en apportant une réponse précise à une requête précise.

Dans le domaine de l’esthétique, c’est plus perturbant. Populiste ou mécanique (façon Amazon ou Netflix), la beauté se décide-t-elle automatiquement? Le bon goût est-il affaire de quants?

Cette vision de l’art est flippante.

L’art est surprise et transgression, pas le reflet d’une conformité populaire. Les coups de coeur et heureux incidents ne seront plus jamais les mêmes (cette observation explique probablement le succès de Chatroulette qui réinjectant un peu de surprise dans nos quotidiens).

A moins que…

Donnons le dernier mot à Nietzsche :