- Accueil
- Cyber stabilité
- IAPP Global Summit 2026 — À Washington, la gouvernance des données passe en production
IAPP Global Summit 2026 — À Washington, la gouvernance des données passe en production
L’édition 2026 ne se distingue pas par l’apparition de nouveaux sujets, mais par leur articulation. Les interventions, les formats et les retours d’expérience convergent vers une même réalité : les organisations ne traitent plus séparément les données, l’intelligence artificielle et la cybersécurité. Elles cherchent à les faire fonctionner ensemble, dans des environnements en évolution permanente.
La session d’ouverture donne immédiatement ce cadre. Kent Walker insiste sur un point structurant : les cycles traditionnels de régulation sont trop lents face au rythme d’évolution des technologies. La conséquence est directe. La gouvernance ne peut plus être uniquement externe. Elle doit être intégrée au fonctionnement des systèmes.
L’intervention de Salman Rushdie introduit un autre niveau de lecture. En abordant les effets concrets de la circulation de l’information — exposition, violence, irréversibilité — elle déplace la réflexion vers les impacts réels des systèmes numériques. Maya Shankar prolonge en montrant comment ces systèmes influencent les comportements à grande échelle.
Ce premier ensemble installe une idée centrale : la gouvernance des données ne concerne plus seulement des flux techniques, mais des dynamiques humaines et organisationnelles.
Les sessions consacrées aux modèles de langage confirment ce déplacement. OpenAI, Anthropic et Cohere décrivent des contraintes très concrètes. Les données d’entraînement ne sont pas entièrement traçables. Les sorties des modèles sont difficiles à corriger de manière fiable. Les droits classiques — accès, rectification, suppression — rencontrent des limites techniques.
Face à ces contraintes, les réponses sont pragmatiques : amélioration des mécanismes de journalisation, développement de filtres en sortie, mise en place de dispositifs de correction partielle. Il ne s’agit pas de solutions définitives, mais de systèmes capables de fonctionner dans des conditions imparfaites.
C’est dans ce contexte que s’impose la notion d’“adaptive privacy”. La gouvernance n’est plus conçue comme une validation ponctuelle, mais comme un processus continu. Les systèmes sont suivis dans le temps, ajustés en fonction des usages, corrigés lorsque des dérives apparaissent.
Les discussions sur l’IA dite “agentique” poussent cette logique plus loin. Des systèmes capables d’agir et de prendre des décisions posent des questions de contrôle et de responsabilité qui ne peuvent plus être traitées uniquement par le droit. Les réponses passent par l’architecture : limitation des périmètres d’action, traçabilité des décisions, mécanismes d’arrêt.
Le débat sur le Data Privacy Framework entre l’Europe et les États-Unis montre que ces questions dépassent largement le cadre technique. Les transferts de données deviennent un enjeu de continuité opérationnelle dans un environnement fragmenté. Les organisations doivent cartographier leurs flux, anticiper les contraintes juridiques et maintenir des échanges entre espaces réglementaires différents.
Le lendemain, la dimension géopolitique apparaît de manière explicite. Les données sont présentées comme des ressources stratégiques. Les exigences de localisation, les restrictions d’accès et les divergences réglementaires redéfinissent les conditions d’accès au marché.
Dans ce contexte, l’intelligence artificielle modifie la nature du risque. Les systèmes deviennent moins prévisibles, plus difficiles à auditer, et leurs effets peuvent se propager rapidement. Les discussions sur la cybersécurité convergent vers un même constat : la maîtrise complète du comportement des systèmes n’est plus possible.
La réponse évolue en conséquence. La sécurité repose moins sur la prévention que sur la détection rapide, la capacité de réaction et la coordination entre équipes techniques, juridiques et opérationnelles.
Les sessions opérationnelles de l’après-midi illustrent cette évolution. L’utilisation d’agents IA en cybersécurité permet d’automatiser certaines réponses, mais introduit de nouveaux risques liés à la vitesse de décision. La gouvernance doit donc être intégrée en amont, dès la conception des systèmes, et non activée uniquement en cas d’incident.
L’échange entre Max Schrems et Brian Hengesbaugh met en évidence une autre transformation. Le droit ne se limite plus à encadrer les pratiques. Il structure les conditions d’accès au marché et devient un levier stratégique.
Les ateliers consacrés à la cybersécurité, notamment avec le Federal Bureau of Investigation, ainsi que les simulations de dérive de systèmes d’IA, confirment que la gouvernance doit être pensée dans des situations concrètes, sous contrainte de temps et avec des informations incomplètes.
Pris dans leur ensemble, ces éléments dessinent une évolution cohérente. La privacy ne disparaît pas, mais elle change de fonction.
Elle ne se limite plus à la protection des données.
Elle devient un mécanisme de pilotage des systèmes numériques.
Elle n’est plus statique.
Elle est continue, intégrée, adaptative.
Elle n’est plus périphérique.
Elle se situe au cœur des architectures techniques et des décisions opérationnelles.
L’IAPP 2026 ne marque pas une rupture spectaculaire, mais une consolidation. Les différents composants — données, IA, cybersécurité, régulation — sont désormais pensés comme un système unique. La question centrale n’est plus seulement de protéger les données, mais d’organiser des environnements numériques capables de fonctionner dans des conditions instables et évolutives.
la newsletter
la newsletter