- Accueil
- Transformation numérique
- Algorithmes et bulles de filtre : peut-on échapper à l’enfermement informationnel ?
Algorithmes et bulles de filtre : peut-on échapper à l’enfermement informationnel ?
Popularisé en 2011 par le militant américain pour un Internet démocratique, Eli Pariser, ce concept de bulle de filtre désigne le phénomène par lequel les algorithmes des réseaux sociaux et des moteurs de recherche personnalisent le contenu proposé aux utilisateurs en fonction de leur navigation et de leurs requêtes sur des sites, de leur communauté digitale et de leurs interactions positives ou négatives sur des contenus.
Le réel selon l’algorithme et moi !
Au départ, l’intention est plutôt louable. Elle vise à guider l’internaute face à l’abondance infinie des informations disponibles sur le Web et à l’aider à trouver des lectures, des vidéos ou des podcasts qui correspondent le mieux à ses centres d’intérêts. Les grandes plateformes comme Facebook, X (ex-Twitter), LinkedIn, Instagram, TikTok, YouTube ont toutes développé des algorithmes redoutablement efficaces pour proposer une expérience où l’utilisateur trouvera en priorité des informations susceptibles de lui plaire, de le divertir, de l’enrichir en termes de connaissances, mais aussi de le conforter dans sa vision du monde, ses convictions et ses détestations.
C’est à ce moment précis que la bulle de filtre entre en jeu. À force d’observer nos comportements numériques, l’algorithme devient capable de discerner de mieux en mieux ce qui est compatible avec nos envies et nos idées. Il opère alors un filtrage en écartant ce qui est considéré comme non pertinent et ne distribue que ce qui est supposé répondre à nos attentes. Autrement dit, un internaute identifié par l’algorithme comme étant militant d’une cause donnée, se verra alors présenter des contenus qui abondent dans son sens et en retour, sera moins exposé à des contenus critiques, voire antagonistes. En résumé, ce que nous voyons est globalement ce que nous aimons.
Nos propres biais de confirmation confortés
En favorisant ainsi la création d’univers informationnels personnalisés, les bulles de filtre conduisent à une forme d’enfermement cognitif où se dessine alors une réalité quasiment conforme à ce que nous voulons entendre, lire et voir. Cette réduction de l’exposition à des points de vue diversifiés et contradictoires plonge l’individu dans une sphère où le doute et l’esprit critique sont progressivement expurgés au profit des biais de confirmation de notre cerveau. Nombre d’études psychologiques et sociologiques ont en effet démontré cette propension naturelle qu’ont les êtres humains à privilégier les informations qui confortent leurs préjugés, leurs idées reçues, leurs convictions, leurs hypothèses.
Si d’autres recherches scientifiques ont quelque peu pondéré l’effet d’enfermement décrit par Eli Pariser, il n’en demeure pas moins que les bulles de filtre existent et ont un impact du fait des algorithmes des moteurs de recherche et des plateformes sociales. Or, dans des sociétés occidentales où la défiance sociétale et la polarisation du débat public sont de plus en plus exacerbées, les bulles de filtre jouent un rôle délétère additionnel. L’exemple le plus probant est sans doute l’évolution de X (ex-Twitter ) depuis qu’Elon Musk en a pris le contrôle. Ce dernier a d’ailleurs récemment admis qu’il détournait à son avantage, l’algorithme de sa plateforme pour mettre en avant ses propres tweets et ceux de Donald Trump.
En octobre dernier, des journalistes du Wall Street Journal ont mené une expérimentation pour comprendre plus précisément le système de recommandation algorithmique de X. Ils ont créé 14 profils actifs et localisés dans les fameux « swing states » lors de l’élection présidentielle pour désigner le 47ème président des Etats-Unis. Les contenus postés n’avaient rien à voir avec la politique et évoquaient des thèmes aussi variés que la course à pied, les recettes de cuisine ou l’artisanat.
Les trouvailles des journalistes ont de quoi laisser songeur ! La majorité des publications recommandées par les algorithmes de X envers ces 14 profils étaient à teneur politique et souvent en lien avec les élections. Avec une accentuation plutôt biaisée puisque 10 des profils recevaient d’abord des contenus en faveur du candidat républicain. D’autre part, les messages pro-Trump apparaissaient deux fois plus fréquemment que les publications pro-Harris (1).
Quelles solutions pour quelle hygiène informationnelle ?
Le rôle central des grandes entreprises technologiques comme Meta, Google, Twitter et TikTok n’est plus à démontrer dans la création et le maintien de ces bulles de filtres à travers leurs algorithmes de recommandation et de personnalisation. Il ne tient qu’à leur seule volonté d’en juguler ou d’en amplifier les effets d’enfermement algorithmiques. Or, le moins qu’on puisse dire jusqu’à aujourd’hui est que ces acteurs traînent régulièrement la jambe pour apporter des correctifs malgré les polémiques à répétition. Il n’est guère certain qu’à l’avenir, ceux-ci se montrent plus enclins à ajuster leurs recommandations de contenus de façon plus ouverte et diversifiée aux utilisateurs. Tout simplement parce que ce modèle est au cœur de leur puissance commerciale et de leur capacité à cibler les internautes de manière granulaire pour proposer des publicités et autres contenus pour lesquels des annonceurs paient.
Doit-on se résoudre alors à être enfermés dans des silos informationnels ? La réponse est clairement non, mais elle ne se situe pas pour autant du côté technologique. Elle passe avant tout par une reprise en main de chacun de ses différents espaces d’information. Contrairement aux États-Unis où 36 % des adultes âgés de 18 à 29 ans considèrent les médias sociaux comme leur principale source d’information (2), il s’agit d’élargir le panel des sources en consultant par exemple les médias traditionnels qui demeurent des acteurs fiables et offrent des sensibilités diverses. Ensuite, il est également possible de quitter certains réseaux sociaux comme X dont la toxicité informationnelle ne cesse de croître entre les fake news relayées par Musk lui-même et le poids écrasant des contenus extrémistes.
Cette hygiène informationnelle est essentielle et mériterait sans doute de faire l’objet de vastes campagnes de sensibilisation auprès des opinions publiques et dans le système éducatif. Il existe certes ça et là des actions remarquables comme celles du CLEMI (Centre pour l’éducation aux médias et à l’information) qui mène régulièrement des actions auprès des élèves pour leur faire comprendre et décrypter l’univers des médias, apprendre à vérifier les sources et l’information, développer leur goût pour l’actualité et se forger leur identité de citoyen. Il serait souhaitable que de pareilles approches soient déclinées pour les réseaux sociaux dont les plus jeunes générations sont adeptes.
la newsletter
la newsletter