7 min

L’intelligence artificielle ne remplacera pas les spécialistes, elle les augmentera !

L’intelligence artificielle (IA) s’est immiscée dans tous les secteurs d’activité de notre société… Même dans les domaines les plus complexes, comme la médecine. La combinaison des approches innovantes de l’IA moderne et des algorithmes de ”machine learning“ de plus en plus performants amène à des résolutions vraiment intéressantes de problèmes parfois inextricables. Dans le monde médical, l’intelligence artificielle aide les médecins à extraire, depuis les images médicales, des informations très utiles, mais difficiles à repérer, voire indétectables à l’œil nu, pour y trouver des indices qui leur permettront de détecter plus tôt des maladies graves comme le cancer.

Traquer le mal alors qu’il est quasiment invisible, et ce, qu’il soit biologique ou numérique, telle est la force des technologies dites « d’intelligence artificielle ». On voit d’ailleurs apparaître des cas d’usage de l’IA en cybersécurité.

Il est clair que la médecine comme la cybersécurité sont des domaines beaucoup plus complexes qu’un jeu d’échecs, notamment de par leur multidisciplinarité. Il faut appréhender l’utilisation de l’IA, dans ces secteurs, avec une bonne dose d’humilité et de réalisme. Comme Garry Kasparov l’évoquait récemment lors du WebSummit à Lisbonne: « Les scientifiques d’IBM ont passé des années à construire Deep Blue, et tout ce qu’il peut faire finalement est de jouer aux échecs ».

On est évidemment très loin du petit David dans A.I. de Spielberg. Il conviendrait plutôt de parler d’intelligence augmentée: un ensemble de technologies qui permet aux ordinateurs de faire une seule chose novatrice : apprendre. Utilisant des données structurées et non structurées, la machine est capable de se construire un certain niveau de connaissance sur un sujet déterminé. Elle peut ensuite commencer à raisonner et à identifier des relations entre différents éléments (comme des fichiers malfaisants, des adresses IP, des images médicales…). C’est cela l’IA, rien de plus, ni de moins.

 

Grâce à l’intelligence augmentée, la sécurité deviendra cognitive

Le nombre de cyber menaces est en croissance constante, les coûts engendrés par la cybercriminalité atteindraient, globalement, les 2 milliards de dollar en 2019. 2,5 trillions d’octets de données sont générés chaque jour mondialement, dont 80% sont non structurées. Les êtres humains n’ont tout simplement pas la capacité de sécuriser cela tous seuls.

Depuis les approches « châteaux forts », à savoir le déploiement de défenses statiques pour protéger son périmètre, nous voyons émerger, de nos jours, de plus en plus de concepts de « security intelligence » ou « threat intelligence ». Il s’agit d’exploiter la puissance des ordinateurs pour collecter et analyser des masses de données en temps réel. Grâce aux facultés nouvelles de l’IA, permettant d’apprendre, d’interpréter et de traiter d’avantage encore les renseignements provenant de SIEM ou autres systèmes d’analyse, l’être humain peut se concentrer sur ce qu’il sait faire de mieux : prendre des décisions critiques. Les analystes et experts en cybersécurité voient ainsi leur performance augmenter. C’est une bonne nouvelle quand on s’attend à une pénurie d’experts de près d’un million, d’ici 2020.

 

Bienvenue dans l’ère de la sécurité cognitive…

…où des systèmes d’intelligence artificielle travaillent main dans la main avec les humains pour renforcer la prévention, l’anticipation ainsi que la réaction aux attaques, elles aussi de plus en plus sophistiquées. En 2016, IBM a publié l’étude « Cybersecurity in the Cognitive Era: Priming Your Digital Immune System », démontrant que la complexité et la rapidité vont devenir les défis majeurs en cybersécurité, et qu’il faut oser ce changement de paradigme.

Pour le moment, c’est encore spécifiquement en matière de détection des vulnérabilités et des menaces que l’IA dévoile son meilleur potentiel. Les systèmes de détection traditionnels montrent certaines limites : nombre de faux positifs élevés, difficultés face aux nouvelles menaces, lourdeur des bases de signatures… Dès lors, de nombreuses start-ups, et plusieurs des éditeurs les plus connus ont commencé à développer des solutions à base d’intelligence augmentée.

Prochainement, nous espérons pouvoir bénéficier des atouts de l’IA dans des domaines tels que :

  • le développement logiciel : assistance à la programmation, correction des bugs
  • la cyber-résilience : systèmes auto-adaptatifs
  • la prévention des fuites de données
  • l’attribution des attaques : identification des auteurs d’une attaque informatique
  • la simulation d’attaques en vue d’entraîner les équipes opérationnelles
  • la détection d’anomalies pour notamment lutter contre la fraude
  • la réponse sur incident : automatisation et orchestration pour une réponse rapide

 

Le Ponemon Institute a mené une étude approfondie sur le sujet, publiée en juillet 2018. Quelques 600 entreprises qui ont déployé l’intelligence artificielle dans leur stratégie de cybersécurité ou bien qui comptent la déployer bientôt y ont répondu, ce qui confère à l’étude une certaine représentativité.

On y apprend que dans 69% des cas, l’IA augmente la vitesse d’analyse des menaces et dans 64% des cas, permet d’endiguer plus rapidement un sinistre.

Parmi les révélations de l’étude, les entreprises sondées estiment que les technologies basées sur l’IA fournissent une sécurité plus forte que ce que l’humain pourrait apporter seul, et qu’elle réduit considérablement la charge de travail des équipes IT. En moyenne, 39500 heures par an ! Soit près de 2,5 millions de dollars… Faut-il craindre pour l’emploi ? Difficile à dire, mais les sondés pensent majoritairement que les technologies ne remplaceront jamais complètement le jugement humain.

Pour autant, l’intelligence artificielle exige une certaine préparation avant d’être déployée. L’étude révèle les barrières les plus courantes à son utilisation. Dans les top 3, on trouve les problèmes d’interopérabilités, le manque de maturité ou de stabilité de certaines technologies, et des erreurs ou imprécisions. Car la différence-clé entre une machine « intelligente » et une machine conventionnelle est que la première peut se tromper.

 

Le côté obscur de la force

L’IA, mise en application correctement, est donc très prometteuse en matière de cybersécurité, surtout lorsqu’il s’agit de faire face à des quantités de données exponentielles, dans lesquelles se dissimulent des menaces dont les formes évoluent sans cesse… Et qui sont également dotées d’intelligence, naturelle ou artificielle. Le contraire serait trop beau : les cybercriminels ont également pensé à l’intelligence artificielle.

D’après un rapport du « Centre for the Study of Existential Risk » de l’Université de Cambridge, le spear-phishing à large échelle visant les grandes figures de la politique serait un des premiers produits de l’utilisation malveillante de l’intelligence artificielle. Toute ressemblance avec des faits ou des personnages connus est purement fortuite…

« C’est officiel, l’IA est arrivée en cybersécurité », c’est ainsi que Brian Wallace, security data scientist, ouvre sa présentation au congrès BlackHat en 2017. « Les pirates informatiques utilisent l’intelligence artificielle comme une arme depuis un certain temps. Cela semble logique, car comme nous, ils ont un problème d’échelle, voulant attaquer le plus grand nombre, pour compromettre un maximum de systèmes, tout en essayant de réduire les risques pour eux-mêmes », continue-t-il. Alors, comment utiliser la force de l’IA pour la bonne cause, en évitant son côté obscur ?

 

Avons-nous désamorcé l’épée de Damoclès une fois de plus ?

Dans les années 50, John McCarthy comme Alan Turing, les pères de l’IA, considéraient que l’intelligence artificielle allait sauver l’humanité. Depuis, les efforts pour rendre les machines de plus en plus similaires aux hommes, ont probablement permis un rapprochement entre les deux univers, mais pas toujours dans le sens espéré de l’humanisation de la machine. Ceux qui de nos jours, doivent gérer des équipes d’informaticiens spécialisés comprendront de quoi je parle. 😉

Je rejoins donc le célèbre astrophysicien Stephen Hawking, qui en 2014, nous mettait en garde contre le risque que les « robots du futur » dépasseront l’intelligence humaine. Elon Musk et plusieurs de ses pairs partagent également cette analyse et ces craintes, qui s’avèrent aujourd’hui plus d’actualité que jamais. Concentrons-nous donc sur ce que l’humain sait faire le mieux : explorer, expérimenter, parfois échouer, et surtout interagir, car notre force est dans l’intelligence collaborative, dans la réflexion créatrice et hors des cadres traditionnels. Les technologies permettent aujourd’hui à l’être humain de se renforcer là où il est faible, et de soutenir le développement de la créativité et de l’intelligence collective. Intelligent ou non, ce qui semble clair c’est que le futur sera augmenté. Comme l’annonce Ray Kurzweil, futurologue et auteur du livre « The Singularity is Near » : Les différentes formes d’expression humaine, l’art, la science, toutes vont être augmentées et élargir notre intelligence.

  

— Pascal Steichen

Pascal Steichen est membre de l’Advisory Board du FIC

Partager cet article avec un ami