Les réseaux sociaux nous enferment-ils dans nos bulles ?
Publié par Marguerite Pometko, le 23 février 2022 13k
Le 8 février 2022, se tenait un échange en ligne sur la thématique « réseaux sociaux – chacun dans sa bulle ? » organisé par les Cafés Sciences et Citoyens de l’Agglomération Grenobloise. En question : le phénomène de bulle de filtre algorithmique théorisé par le militant internet Eli Pariser en 2011.
Si le concept est relativement nouveau, il décrit un phénomène que chacun.e d’entre nous expérimente : notre tendance à nous rapprocher de ce qui nous ressemble. Sur les réseaux sociaux, cela semble se matérialiser dans une « bulle » virtuelle, où nous ne consommerions que des contenus relayés par des personnes qui partagent les mêmes opinions que nous.
Ce constat est-il véridique ? De quoi ces bulles de filtre sont-elles la conséquence ? Quelle est la responsabilité des réseaux sociaux dans ces bulles de filtre ? Comment les éviter ?
Je fais un compte rendu dans cet article sur ces riches échanges avec les intervenant.e.s d’horizons variés :
- Oana Goga, chercheure en informatique sur les liens entre intelligence artificielle et société ;
- Grégoire Borst, enseignant-chercheur en psychologie du développement et neurosciences cognitives de l’éducation ;
- Charles Perez, enseignant-chercheur et auteur d’ouvrages sur le numérique ;
- Pascal Wagner-Egger, enseignant-chercheur en psychologie sociale.
Qu’entend-ton par « bulle de filtre » ?
Commençons par une petite clarification. A quoi fait-on référence lorsque l’on parle de « bulles de filtre » sur les réseaux sociaux ?
La bulle de filtre illustre le phénomène de n’être exposé qu’à des contenus qui vont nous plaire ou qui vont confirmer ce que l’on pense déjà. On connaît déjà la publicité ciblée, mais selon les mêmes mécanismes, on peut aussi être exposé à de l’information ciblée. Ainsi, le fil d’actualité Facebook de chaque utilisateur/utilisatrice serait une curation unique propre à chacun.e.
Ces phénomènes sont mesurables en recherche. C’est le travail d’Oana Goga et de ses collègues dans le projet CheckmyNews qui étudie le ciblage de l’information sur Facebook.
Oana précise tout de même qu’il n’existe pas de consensus scientifique autour des bulles de filtre, certains travaux de recherche concluant que la personnalisation des contenus ne mène pas systématiquement à nous priver d’accès aux opinions contraires et d’autres remettant en cause leur efficacité (notre capacité à en sortir). Par ailleurs, comme nous le confie Oana, la science manque de données, car les particuliers sont réticents à partager leurs données personnelles, même pour un projet de recherche.
Bulle de filtre: pourquoi en parle-t-on en ce moment ?
Photo de NeONBRAND sur Unsplash
Selon Oana Goga, si l’on en parle autant maintenant, c’est parce que la technologie a amplifié les bulles de filtres par deux mécanismes :
1/ les algorithmes
Les algorithmes de recommandation sont implantés sur toutes les plateformes. Ils apprennent de nos comportements en se nourrissant de nos informations de navigation (likes, commentaires, temps passé à regarder une vidéo…). Plus de traces nous laissons, mieux ils pourront anticiper le contenu que nous aimerons dans le futur.
Quand il s’agit de nous faire une proposition de film à regarder sur Netflix cela peut sembler innocent, mais quand ça vient toucher aux informations politiques cela devient problématique. Cela peut amener à influencer nos opinions (disons sur un candidat.e) ou nos actions (par ex : le fait de porter un masque ou non, de se rendre aux urnes ou non).
2/ l’homophilie
L’homophilie, la tendance des individus à s’associer à leurs semblables, n’est pas une nouveauté propre à internet. Les réseaux sociaux rendent seulement le phénomène plus visible, en nous encourageant à rejoindre des groupes proches de nos intérêts ou à ajouter des amis d’amis (le fameux « Vous pourriez aussi connaître… » sur Facebook).
Le résultat est qu’on se retrouve exposé à une seule perspective sur un problème donné, qui vient renforcer ou extrêmiser nos opinions et façonner ainsi notre vision du monde.
C’est là que nos biais cognitifs entrent en jeu :
- à force de toujours voir la même information, on finit par croire qu’elle est correcte ;
- si tout le monde a la même opinion autour de nous, on finit par croire qu’ils ont raison.
Fake news, complotismes, extrémismes… la faute aux réseaux sociaux ?
Photo de Julien-Pier Belanger sur Unsplash
L’arrivée des réseaux sociaux est-elle responsable de tous ces maux et du phénomène de bulle de filtre en particulier ? Pas vraiment. Comme l’explique Pascal Wagner-Egger, enseignant-chercheur en psychologie sociale, tout le monde a des biais à divers degrés. Les biais sont le fruit de notre évolution et sont indispensables à notre socialisation (car nous avons plus de chance de survie en société).
Le biais de confirmation est particulièrement présent dans les croyances. Les partisans des théories du complot chercheront toujours à confirmer leurs croyances car il est coûteux d’admettre qu’on a eu tort, même lorsqu’il y a preuve du contraire. Cela explique pourquoi certaines sectes ne faiblissent pas, même après qu’une prophétie ne se soit pas réalisée.
Là où les choses changent, c’est que le risque d’embrigadement complotiste ou terroriste se fait à plus grande échelle sur les réseaux sociaux. La proportion de fake news auxquelles ont peut être exposé augmente également (même si elle est à nuancer, car en proportion de la consommation médiatique globale elle ne représente que 0,15% selon cette étude publiée en 2020 aux Etats-Unis). Nous ne sommes donc pas devenus plus crédules, mais si l’on navigue dans un environnement où l’on est régulièrement confronté à ce genre de contenus, on a statistiquement plus de chance d’y succomber.
Le business model des réseaux sociaux en question
Charles Perez, enseignant-chercheur et auteur d’ouvrages sur le numérique, rappelle que pour comprendre le phénomène de bulles de filtres, il est important de se pencher sur le business model des plateformes des réseaux sociaux. Dans le monde des distractions numériques où l’information est abondante, les entreprises se livrent à une guerre de l’audience 2.0 avec pour enjeu l’attention.
Dans cette course à l’attention, les réseaux sociaux vont tout faire pour capter l’attention des utilisateurs, avec pour outil les algorithmes de recommandation. Sous cette volonté de mieux personnaliser est en réalité cachée la volonté de mieux nous vendre.
L’objectif des entreprises est double :
- exposer les internautes à davantage de publicités, car c’est des annonceurs qu’ils tirent leurs revenus (car l’usage de la plateforme est gratuit) ;
- et recueillir des informations sur leurs habitudes de navigation / achat. Isolées ces données ont peu de valeur, mais une fois agrégées, il est possible d’en déduire des profils de comportements d’utilisateurs sur le web, que des parties tierces sont intéressées d’acquérir. C'est le marché informationnel.
On sait aussi grâce aux études en marketing (Berger & Milkman, 2010) que les contenus à haute valeur émotionnelle (colère, peur, anxiété…) sont plus « vendeurs », dans le sens où ils retiennent davantage l’attention des internautes. Cela explique alors le manque d’initiative des plateformes pour retirer ces contenus rapidement. Certains acteurs (comme dans le documentaire The social dilemma) s’inquiètent de cette surenchère qui pourrait jouer un rôle dans l’extrêmisation des opinions, qui pourrait mener à terme à polariser une société en des camps qui n’arrivent plus à dialoguer ensemble.
Comment agir face aux bulles de filtre algorithmiques ?
Comme l’indique très justement Charles Perez, pour la première fois dans l’histoire, notre environnement est motivé: il essaye de nous soutirer des informations ou de nous influencer. Il va donc y avoir une inégalité dans la façon dont on va approcher cet environnement selon notre degré de connaissance sur le sujet. Et c’est d’autant plus fallacieux si nous ne sommes pas au courant que notre voisin n’a pas le même contenu internet que nous… Bref, quels moyens avons-nous d’agir face aux bulles de filtre ?
- Les rendre visibles : c’est le travail de plusieurs équipes de recherche à l’Université Grenoble Alpes. En ce moment, vous pouvez participer à l’enquête « FeedingBias » coordonnée par la Chaire « Société Algorithmique » de l’Institut MIAI sur les effets de bulles de filtre pendant la campagne présidentielle.
- Utiliser des solutions d’intelligence artificielle qui viendraient taguer les fausses informations. Mais selon Gregoire Borst, ces solutions fonctionnent avec un taux de succès d’environ 70-80%… est-on prêt.e.s à laisser filer 20% de fausses informations ?
- Rétablir la confiance dans les médias traditionnels : Grégoire Borst, enseignant-chercheur en psychologie du développement et neurosciences cognitives de l’éducation, tient à rappeler que les grands médias, même s’il leur arrive de commettre des erreurs, doivent sérieusement vérifier leurs sources.
- Continuer d’enseigner et d’appliquer la méthode scientifique qui selon Pascal Wagner-Egger est encore floue pour beaucoup en France, alors qu’elle reste le meilleur moyen de lutter contre le biais de confirmation.
-
Apprendre dès le plus jeune âge à activer sa pensée logique et analytique.
En psychologie cognitive, selon la théorie du double processus, le traitement de l’information se fait soit :
> de façon automatique, inconsciente et rapide (Système 1) ;
> de façon volontaire, consciente, analytique et plus lente (Système 2).
Nous avons besoin du Système 1, sinon nous passerions des heures à analyser l’information même la plus insignifiante. Mais dans certains cas, les raccourcis mentaux que nous fait prendre le Système 1 pour plus d’efficacité peut nous faire succomber à des fake news… Selon Grégoire Borst, apprendre à « activer » sa pensée analytique (Système 2) au bon moment peut nous éviter des erreurs de raisonnement. Et cela peut s’apprendre dès le collège, voir la primaire.
- Questionner et repenser le business model des réseaux sociaux. Car « quand c’est gratuit, c’est vous le produit. » A quand des réseaux sociaux payants ? Est-ce souhaitable ou réaliste ?
- Informer et éduquer les (futur.e.s) internautes afin qu’ils / elles puissent utiliser ces services en toute connaissance de cause. L’éducation aux médias, mais aussi ce café sciences et citoyens sont des exemples d’initiatives en ce sens. 😉
-
Se nourrir d’opinions diverses : c’est ce que je fais à ma petite échelle, en m’abonnant à des comptes de personnes avec qui je suis en désaccord sur les réseaux sociaux. Cela me vaut parfois les foudres de mes ami.e.s qui me reprochent de gonfler le nombre d’abonnés de ces personnalités, mais ma liberté de penser m’est plus chère que les apparences.
Et vous ? Avez-vous expérimenté ou ressenti le phénomène de « bulle de filtre » ? Faites-vous quelque chose pour vous en protéger ?
Marguerite POMETKO
SocioJam.com
Pour aller plus loin:
-
PRISON NUMÉRIQUE Mise en lumière de quelques nuances sombres de notre société numérique - Charles Perez
- Psychologie des croyances aux théories du complot - Pascal Wagner-Egger