- Accueil
- Transformation numérique
- Ils veulent remettre l’humain dans l’IA pour la sauver d’elle-même, qui sont-ils?
Ils veulent remettre l’humain dans l’IA pour la sauver d’elle-même, qui sont-ils?
Le 26 février 2026, le signaleur de confiance néerlandais Offlimits, annonce attaquer X devant les tribunaux du pays afin d’obtenir que Grok cesse de permettre la fabrication de deepfakes sexuels. Le lendemain, le 27 février, le gouvernement américain annonçait rompre son partenariat avec Anthropic concernant l’usage de Claude par l’armée. Le point commun entre ces deux événements? Une certaine idée que l’humain doit garder la primauté sur ce que fait l’IA.
Imposer un humain dans les décisions prises par une IA
Ce qui s’est joué le 27 février au Pentagone c’est finalement le choix de comment une IA peut décider de la mort d’un adversaire. Comme Tariq Krim l’a remarquablement synthétisé dans sa newsletter Cybernetica : faut-il qu’un militaire soit dans la boucle de décision avant tout usage létal de la force par une IA, ou suffit-il de rechercher les responsables après coup, en fonction des lois applicables ? Dans les deux cas, l’armée américaine conserve la maîtrise de ses choix. Reste que conditionner le déploiement de toute la puissance de l’IA à un arbitrage humain — même militaire — crée une contrainte opérationnelle et introduit de la lenteur.. Si deux IA s’opposent sur le terrain, l’une avec un contrôle humain intégré, et l’autre avec un contrôle humain a posteriori, celle qui agit en autonomie est nécessairement plus agile. Dario Amodei, le PDG d’Anthropic, a fait le choix “in good conscience” (selon ses mots) qu’un humain devait rester dans la boucle et il a perdu le contrat du Pentagone. Son concurrent OpenAI a lui fait le choix inverse, estimant que le droit des États-Unis serait assez protecteur et a obtenu le contrat.
Rendre aux humains la maîtrise de leur dignité
Dans les deux cas, l’armée américaine est seule à décider de ses choix, mais à l’évidence exiger que le déploiement de la pleine puissance de l’IA soit conditionné à un exercice de libre arbitre humain (même strictement militaire) est une contrainte opérationnelle, source de lenteur.
La veille aux Pays-Bas, Offlimits demandait en référé que Grok AI ne puisse plus créer des deepfakes sexuels, avec une audience prévue le 12 mars et sous astreinte de 100.000 € par jour. L’assignation néerlandaise n’est pas une première mondiale. Le parquet de Paris, dirigé par la procureure Laure Beccuau, l’avait précédée avec une perquisition menée le 3 février dans les locaux de X. Des convocations en auditions libres ont également été adressées à Elon Musk pour le 20 avril, ainsi qu’à plusieurs salariés, dont l’ancienne directrice générale Linda Yaccarino, notamment pour des faits similaires.
Mais l’inquiétude des régulateurs est internationale : les autorités en Australie, Canada, Royaume-Uni, celles de l’Union européenne (le régulateur irlandais et la Commission Européenne) mais aussi en Inde et Malaisie, ont ouvert des enquêtes ou évaluent la situation de près. Ce qui se joue ici, c’est la capacité de l’IA à décider en autonomie de porter atteinte à la dignité d’une personne physique. En Europe, aux États-Unis comme ailleurs, ce ne sont pas tant les fondements juridiques qui manquent, mais l’expérience. Chaque pays tâtonne et expérimente. Les actions juridiques se multiplient comme autant de tests, d’autant moins perceptibles qu’elles s’étalent dans le temps et ne sont pas coordonnées.. Le président d’Offlimits, Robbert Hoving, à propos de ces applications de “nudification” dit qu’on assiste à un “désastre au ralenti”. La réponse s’organise, et comme pour toute intervention de secours, leur apparente lenteur est difficile à supporter pour les victimes, alors qu’il est si facile pour les abuseurs de produire de nouvelles photos et de les partager largement.
Rendre l’IA plus sage avec l’expertise humaine dans toute sa diversité
Et si, plutôt que de subir les errements de l’IA et ses désormais fameuses hallucinations, on travaillait à l’éduquer à la source, en la nourrissant d’expertise scientifique, mais aussi de nuances venues de différentes langues et de différentes cultures? C’est la tâche que s’est assigné Akash Pugalia, le Chief Digital Officer de TP, un des acteurs mondiaux de la gestion de l’expérience client, connu pour ses téléconseillers, modérateurs de contenus et annotateurs. Ses deux armes : “Wisdom of the crowd” et “Power of diversity”. L’idée est simple : comme l’IA se nourrit du savoir humain, autant lui donner le meilleur en recourant à des vrais experts venus du monde entier et de tous les milieux : que l’on soit linguiste ou locuteur de langue rare, connaisseur d’un domaine scientifique, médical, financier, juridique, culturel, d’une communauté, des professionnels Trust & Safety (évaluation, validation des raisonnements, red teaming, etc.), les besoins sont spécialisés, immenses et planétaires. La déclaration de principe d’Akash Pugalia, où il affirme sa vision, ne date que des derniers jours de 2025, dans un article paru dans Forbes. Aussi, 2026 s’annonce comme l’année de massification de l’injection de l’intelligence humaine dans l’IA. Et non seulement cette masse d’experts deviendra en soi une “infrastructure d’entraînement” de l’IA, mais elle contribuera à fournir ce “contrôle humain” que l’IA Act européen exige pour les systèmes d’IA à haut risque à partir d’août 2026, et que le code de conduite en cours d’élaboration va mettre en place pour détecter les deepfakes sexuels et de toute nature.
Redonner aux humains les clés pour détecter un contenu artificiel
L’IA a déjà atteint un niveau de vraisemblance ou de crédibilité qui la rend indétectable même par un regard exercé. D’où l’importance de garde-fous comme l’article 50 de l’IA Act sur les obligations de transparence par les fournisseurs et les déployeurs d’IA. Mais ce n’est qu’à l’horizon 2028 que les plateformes devront relayer cet étiquetage – ce qui semble une éternité à l’aune du déploiement des nouveaux modèles d’IA. Ainsi les fichiers de toutes natures (image, vidéo, sons, textes) devront être marqués, enrichis de métadonnées, pour que de manière transparente on puisse savoir qu’ils sont artificiels et manipulés. En France, deux start-ups se positionnent, Keeex pour les métadonnées et Label4.ai pour le marquage des contenus et la détection forensique (laquelle permet d’estimer la proportion d’intervention de l’IA générative dans le contenu). Ce sont les deux seules entreprises françaises à avoir contribué au code de conduite européen en cours d’élaboration, et dont la première mouture est parue mi-décembre. Anthony Level, co-fondateur de Label4.ai l’affirme, il n’y a pas encore aujourd’hui d’écosystème structuré qui assure le développement de cette industrie de la transparence, pourtant si nécessaire à la confiance. D’où son énergie à marteler qu’il faut marquer ses contenus IA dès aujourd’hui, conformément à la future réglementation européenne. De la Californie à l’Inde, de l’UE à la Chine et la Corée du Sud, le mouvement pour la transparence des contenus générés par IA est lancé.
Comment tout cela va se combiner?
De la procureure de Paris Laure Beccuau, à la société civile incarnée ici par Robbert Hoving, du startupeur français de la transparence Anthony Level à Dario Amodei dont Anthropic est valorisée 380 milliards de dollars, en passant par Akash Pugalia qui mobilise des dizaines de milliers d’experts sur le terrain et de tous les domaines à travers le monde, il n’y a nulle synergie, et rien ne semble les réunir. Pourtant, chacun apporte en sa conscience et délibérément sa part pour que l’humain garde sa voix authentique et sa capacité à décider de son futur. Leur force et leur chance de succès est peut-être justement qu’ils ne se connaissent pas.’Is sont juste des éléments saillants, disparates en apparence, mais convergents en profondeur et ils sont l’expression de cette “sagesse du collectif” qui sauvera l’IA d’elle-même.
la newsletter
la newsletter