

Le postulat de départ de cet épisode de la célèbre série d’anthologie d’anticipation est un constat, terrible : l’humanité incapable de modifier ses modes de développement, de production et de consommation a dû développer une solution technologique pour tenter de conserver un semblant d’équilibre dans la biodiversité fragilisée et, de fait, en voie d’artificialisation. L’usage de ce postulat n’est pas un cas isolé. On peut déjà penser à Blade Runner le film de Ridley Scott, adaptation du roman Les androïdes rêvent-ils de moutons électriques ? de Philip K. Dick. Dans cette univers, la réponse à l’effondrement de la biodiversité est « compensée » par le génie génétique industriel qui produit des répliques des animaux au moyen de la biologie de synthèse. Cette « démarche » inclut la production d’êtres humains artificiels. Réduits à l’état de produits d’une industrie, ce sont des individus — désignés dans le film par le terme de réplicant — qui voient leur humanité leur être niée ; l’industriel a d’ailleurs pris le soin ajouté à leur code génétique une date de péremption qui, atteinte, les désactive, qui les tue. L’autre exemple de cette incapacité à trouver un autre chemin au développement des sociétés humaines contemporaines se trouve dans le film Geostorm. La principale conséquence de ce postulat se manifeste dans une accélération, dans l’accentuation de la violence des manifestations du dérèglement climatique, conséquences du réchauffement global de la planète. Comme dans Blade Runner, l’humanité va apporter une réponse technologique à la situation émergente : dans ce film, sous la tutelle des USA, elle va construire un système de régulation climatique à l’échelle de la planète, sous la forme d’un réseau de milliers de satellites. Dantesque, ce système est piloté depuis l’espace. Il est surtout l’objet de convoitises géopolitiques.
Petits arrangements et brèches informatiques
Dans Haine virtuelle, non plus à l’échelle de la planète, mais juste sur le territoire du Royaume-Uni, la réponse des autorités à la disparition des pollinisateurs — est-elle totale ou partielle, l’épisode n’en dit rien — passe donc par le déploiement de robots miniatures. Ces petites machines singent le comportement des abeilles ; elles vont jusqu’à bâtir des ruches « numériques » — celles-ci ont pour base le carré et non plus l’hexagone. Là, des robots sont répliquéesde manière autonome afin de maintenir la population de ces insectes artificiels. On les voit partout en ville : dans les arbres, au coin des immeubles où elles bâtissent leurs étranges ruches, sur les fleurs. Personne ne leur prête plus attention. Un bel exemple de technologie seamless, sans couture, qui disparaît du champ de l’attention des usagers tellement elle est aboutie.
[Attention : divulgâchage] C’est merveilleux ! pourrait-on s’exclamer. Oui… mais non ! quand on apprend que, par-dessus les épaules des roboticiens, des éthologues et des botanistes, le gouvernement, discrètement, ajoute « sa patte ». Il s’agit d’une petite fonction, qui lui permet d’écouter, de voir, de surveiller la population au moyen de ces abeilles robotiques. Là, le vers est dans le fruit : cette « petite » altération de la fonction initiale dévolue aux abeilles numériques — polliniser — crée une trappe, une fragilité dans le système qui va être mise à profit par le « méchant » de l’épisode. Mais le machiavélisme de l’antagoniste ne s’arrête pas là. Pour des raisons qui sont les siennes — à découvrir dans l’épisode—, il conçoit une version 2.0 d’une justice de la foule en masse. À cette étrange fin, il combine le pire des comportements humains sur les réseaux sociaux — harcèlement, haine, colère, stigmatisation, délation, on en passe et des meilleurs — et les capacités de surveillance des individus par les abeilles artificielles. Les protagonistes, eux, sont réduits au statut de témoins impuissants de cette justice implacable et dématérialisée : aveugle, elle concentre la haine en ligne sur une personne grâce à un hashtag. Les abeilles numériques — millions d’yeux invisibles— se chargent d’exécuter la peine de mort à l’encontre de celle ou celui qui aura rassemblé le plus de mentions… Affreusement efficace, non ? Ne dit-on pas « Vox populi, vox dei » ?
Manipulations et détournements
À cheval entre le virtuel et le tangible, Haine virtuelle met en œuvre un autre rapport au réel : des capacités informatiques déployées pour accompagner, augmenter, aider les humains sont retournées contre ceux-ci. Cette notion de détournement d’usage n’a rien de neuf. Les exemples, hélas, ne manquent pas. Les personnes manipulées par les Deep Fake, voix ou apparence clonées d’un dirigeant qui permettent des détournement de grosses sommes d’argent s’accumulent… Et, au quotidien, nous sommes tous, nous le serons plus encore demain, dans le collimateur de manipulateurs qui compensent les petites sommes détournées par le grand nombre des personnes abusées, nous n’avons pas tous des millions sur nos comptes bancaires. Mais, ces détournements sont grossiers : ils ne font pas preuve d’une grande intelligence. Ils sont directs, grossiers. Alors que dans Haine virtuelle, on assiste au déploiement de toute la puissance d’un esprit malheureusement plus malfaisant que brillant.
Dès aujourd’hui, on rencontre ce genre de détournement qui gêne autant qu’ils fascinent — et qui pourraient bien être les précurseurs de ce qu’on découvre dans cet épisode de Black Mirror. On peut commencer par cet ingénieur qui a appris à ChatGPT à piloter une tourelle portant une arme à feu : la machine vise et tire sur les ballons de baudruche dont la couleur lui a été indiquée par la voix de l’opérateur quand ceux-ci passent dans son champ. Malin et terriblement efficace jusqu’à la terreur. Même si cet utilisateur de ChatGPT a été banni par Open AI, l’éditeur du chatbot, on se rend compte qu’on se rapproche, comme dans un cauchemar, du moment où il n’y aura plus d’humain derrière certaines machines conçues pour tuer : un « prompt » sera au commande : « Tire sur toute personne qui possède telle ou telle caractéristique… ». Le tabou — pas toujours exprimé clairement au-delà des domaines militaires — du tire létal autonome est en passe de tomber.
Après ce frisson de terreur, on peut aussi citer le cas de ce joueur d’échecs qui, se servant d’une paire de lunettes Ray-Ban Meta, a programmé une « routine » qui, avec les caméras de la paire de lunettes, lit la partie d’échec qui est en train d’être jouée, qui l’envoie via Instagram dans le moteur d’échec Stockfish… les suggestions de coups à jouer s’affichant sur les verres de la paire de lunettes augmentée du joueur indélicat. Efficace, discret… mais foncièrement malhonnête. Pour de nombreux observateurs et experts, ce type de lunettes est appelé sous peu à remplacer nos téléphones. Maintenant que nous sommes entrés dans l’air de l’IA générative, il semble évident que c’était la pièce du puzzle qui manquait lors des précédentes tentatives de proposer ce genre d’outil. Google ne le sait que trop bien avec l’échec de ses Google Glass : mises sur le marché en 2013, elles ont été retirées du marché en 2015. Avec ce cas de détournement d’usage, c’est la question de l’équité qui se pose, équité lors d’un entretien, lors d’un concours… Quelles procédures mettre en place pour maintenir l’égalité des chances ? Et, là, on ne parle pas du moment où ce sera un implant du genre Neuralink qui sera le vecteur de la rupture d’équité : faudra-t-il que les candidats déclarent les augmentations qu’ils portent ?
Vers une vigilance à sans renforcer
Avec cet épisode, la série Black Mirror interroge nos comportements et nos usages individuels aussi bien que collectifs des outils numériques. Cet épisode n’est pas un appel à la réforme des comportements humains : les malversations, les fraudes, les détournements et autres violences ont de tous temps fait partie des sociétés humaines. On ne va pas se changer… ça se saurait. Par contre, cet épisode nous appelle à la prudence que porte en elle la règle du Zero Trust. Conceptualisée à l’origine pour réguler plus particulièrement les « relations » entre les machines, les protocoles de communication et d’authentification entre les ordinateurs et l’ensemble des périphériques impliqués dans le monde informatique, cette « bonne pratique » ne pourrait-elle pas inspirer les humains dans leurs usages numériques ? Ce Zero Trust humain ne pourrait-il pas appeler à une prudence dans les capacités déployées de ces outils à renforcer par un appel à la prudence des usagers ? Si « Science sans conscience n’est que ruine de l’âme », technologie sans confiance serait-elle ruine pour l’Homme (pour la rime, sinon : humain) ?
la newsletter
la newsletter