Au XVIIe siècle, Thomas Hobbes imagine un souverain tout puissant domptant les individus pour garantir leur sécurité. Ce souverain est le Léviathan, monstre de l’Ancien Testament que le philosophe compare à un « dieu mortel ». A entendre ceux qui déifient l’intelligence artificielle (IA), celle-ci pourrait devenir le nouveau Léviathan. Faut-il vraiment y croire ?

En 1948, sort un livre majeur : « Cybernetics, or Control and Communication in the Animal and the Machine », de Norbert Wiener. Vulgarisant la théorie cybernétique en partie à l’origine de l’IA, il dévoile ses rouages : les hommes et les machines s’adaptent à leur environnement, définissent leur « conduite future par les expériences passées » grâce à l’« apprentissage » rendu possible par l’ « information » qu’ils s’échangent. Cet apprentissage est nommé « rétroaction »

Depuis cet ouvrage, chaque décennie connaît ses « oracles » prophétisant l’avènement d’une machine capable de prescrire des décisions adaptées à son environnement au moyen de la rétroaction. Parmi eux demeure le dominicain Dominique Dubarle qui écrit, dès la sortie du livre, un article remarqué dans Le Monde du 28 décembre 1948 : « Une nouvelle science, la cybernétique : vers la machine à gouverner ».

Le penseur explique, de manière critique, qu’un « prodigieux Léviathan politique » comme « machine à gouverner » cybernétique pourrait surgir. Grâce à la collecte d’informations, celle-ci serait capable de « déterminer en fonction […] des mesures qu’il est possible de prendre à un instant déterminé […] les évolutions les plus probables de la situation ». Il poursuit ainsi : « Ne pourrait-on même concevoir un appareillage d’État couvrant tout le système de décisions politiques […] dans le régime […] d’un gouvernement unique de la planète ? Rien n’empêche aujourd’hui d’y penser. »

Désormais, ceux qui prédisent l’avènement d’un tel « appareillage » expliquent que celui-ci sera rendu possible grâce à l’IA. Mais pour les plus lucides, cela n’est ni réalisable ni souhaitable. Selon eux, l’IA ne peut et ne doit être qu’un outil au service d’une gouvernance plus efficace et démocratique.

De Cybersyn à la Nounou IA

Après le renversement du gouvernement chilien de Salvador Allende par le général Pinochet, le 11 septembre 1973, les putschistes découvrent une étrange salle au décor futuriste digne d’un roman de science-fiction : l’Op-room ou « salle des opérations ». Elle est dotée d’écrans et de sept fauteuils avec des boutons servant à contrôler un outil cybernétique de gouvernance, nommé Cybersyn.

Pour mieux planifier l’économie socialiste du président Allende, ce Cybersyn (contraction de Cybernetics et de Synergy) devait être capable, au moyen de la rétroaction, de prendre des décisions à partir de données envoyées en temps réel par les usines grâce au logiciel Cyberstrider. Conçu par Stafford Beer, le théoricien de la gestion cybernétique, ce système est resté inachevé.

Depuis Cybersyn, la machine à gouverner n’a pas quitté l’imaginaire des hommes souhaitant réaliser ce qui relève a priori de la science-fiction. Parmi eux se trouve Ben Goertzel, qui propose la création de ce qu’il appelle une « Nounou IA » capable de nous « protéger » et nous « surveiller » comme il l’explique dans son article « Should Humanity Build a Global AI Nanny to Delay the Singularity Until It’s Better Understood? », publié en 2012 dans le Journal of Consciousness Studies.

Selon lui, cette IA doit être chargée de « ralentir » l’avènement de la « Singularité » qui désigne l’hypothétique émergence d’une super intelligence dépassant de loin l’intelligence des humains, lesquels ne seraient donc plus maîtres de leur destin. Pour ce, cette « super technologie modérément surhumaine » doit guider l’humanité vers l’élaboration d’une « Singularité amicale » permettant d’éviter l’avènement brutal et imprévu d’une super intelligence destructrice.

Seulement transitoire et interconnectée avec des « systèmes de surveillance mondiaux » ou encore des « robots », la Nounou IA doit être dotée d’une « architecture cognitive comprenant un ensemble explicite d’objectifs ». Ceux-ci seraient, entre autres, une « forte inhibition contre la modification rapide de son intelligence générale » et contre la réalisation d’actions qu’une majorité d’humains réprouvent. Ou encore la poursuite d’un « mandat » l’obligeant à « céder le contrôle du monde à une IA plus intelligente dans un délai de N années », « abolir les maladies humaines », « empêcher le développement de technologies qui menaceraient sa capacité à atteindre ses […] objectifs », « faire preuve d’ouverture d’esprit face aux suggestions d’êtres humains intelligents ».

L’IA, un simple outil de décision publique ?

Dans une étude de 2022 intitulée « Intelligence artificielle et action publique : construire la confiance, servir la performance », le Conseil d’État français bat en brèche le « fantasme de la « singularité » ». Selon lui, de la même manière « que la singularité reste un mythe à ce jour, le remplacement massif des agents publics par l’IA et l’avènement d’une « IAcratie », répondant à ses propres consignes ou même à celles de dirigeants humains, ne résiste pas à l’épreuve de l’analyse des SIA [systèmes d’intelligence artificielle] déployés aujourd’hui dans les administrations publiques ».

Et pour cause, comme l’explique le rapport AI Watch de la Commission européenne publié en 2020, sur les 230 cas d’usage d’IA dans l’administration étudiés, plus de la moitié (127) n’ont que de faibles effets « incrémentaux » et seulement trois produisent un « changement radical ». Ainsi, selon le Conseil d’État, « l’administration ne doit pas rêver d’emblée d’un grand soir de l’IA mais s’éveiller au petit matin de l’apprentissage automatique ».

Cet éveil est rendu possible grâce à l’utilisation croissante des SIA dits « d’aide à la décision publique ». Utilisés par les collectivités publiques, ceux-ci leur permettent de « tirer des données dont elles disposent des informations, des connaissances et des analyses exploitées par les agents pour prendre les meilleures décisions » explique le Conseil d’État.

Déployés dans de nombreux domaines (les transports, les secours, la santé, l’éducation, etc.), ces SIA d’aide à la décision peuvent simuler et évaluer des politiques publiques. Il en va par exemple ainsi des jumeaux numériques permettant aux collectivités territoriales, grâce à une reproduction virtuelle de leur territoire à partir des données dont elles disposent, de déterminer les effets qu’aurait telle ou telle décision pour adopter la plus adéquate.

L’IA, un outil pour plus de démocratie ?

En outre, ces SIA peuvent produire des décisions automatisées cachées tant leur performance et usage croissants rendent possible « un fort « biais d’automatisation », c’est-à-dire la tendance à accorder aux analyses et aux recommandations de la machine une confiance excessive et […] supérieure à son propre jugement d’humain » observe le Conseil d’État. Pourtant, n’étant qu’une aide à la décision, leur utilisation échappe au strict encadrement juridique de la décision automatisée visant à protéger les droits et libertés des citoyens. C’est pourquoi il faut prévenir ce biais cognitif, par la formation, pour ne pas voir une « IAcratie » s’installer discrètement.

Dans un rapport de 2019 sur l’IA et son utilisation dans le secteur public, l’OCDE vante les mérites de la plateforme numérique belge CitizenLab permettant aux citoyens de participer à l’élaboration des politiques publiques grâce à des contributions écrites. Utilisant des techniques de traitement automatique du langage naturel et d’apprentissage automatique, celle-ci aide les élus à analyser les contributions en les classant par thèmes et en dévoilant les tendances majoritaires influençant les choix politiques. A l’heure où l’on parle de « crise » de la démocratie représentative, ce genre d’initiative semble salutaire. Le salut de nos démocraties passera-t-il donc par l’IA ?

Restez informés en temps réel
S'inscrire à
la newsletter
En fournissant votre email vous acceptez de recevoir la newsletter de Incyber et vous avez pris connaissance de notre politique de confidentialité. Vous pourrez vous désinscrire à tout moment en cliquant sur le lien de désabonnement présent dans tous nos emails.
Restez informés en temps réel
S'inscrire à
la newsletter
En fournissant votre email vous acceptez de recevoir la newsletter de Incyber et vous avez pris connaissance de notre politique de confidentialité. Vous pourrez vous désinscrire à tout moment en cliquant sur le lien de désabonnement présent dans tous nos emails.