En ce moment

Cybersécurité : l’intelligence artificielle n’est pas l’arme fatale !

Posté le 30 septembre 2019
par Philippe RICHARD
dans Informatique et Numérique

L'IA commence à être de plus en plus intégrée dans différentes briques de la cybersécurité. Les algorithmes peuvent être entraînés pour prendre certaines mesures prédéfinies en cas d'attaque. Mais reposant sur de mauvais algorithmes, des programmes d'IA pourraient poser de sérieux problèmes, préviennent des experts.

La multiplication des attaques informatiques rend très difficile la tâche des équipes de sécurité. Et même si on constate une diversité et une sophistication (des cas récents montrent aussi que les cibles sont « faibles » car elles n’appliquent pas les règles élémentaires de sécurité…) des techniques malveillances, l’ennui est une réalité !

L’identification et l’évaluation des cybermenaces nécessitent l’examen de grandes quantités de données et la recherche de signaux et de comportements suspects. Résultat, de nombreux RSSI, DSI ou experts en cybersécurité sont victimes (ou très proches) d’un burn-out.

Dans un tel contexte défavorable aux organisations, l’IA peut représenter une option salutaire. De plus en plus de fournisseurs de solutions de cybersécurité proposent des produits intégrant de l’IA (ou sa déclinaison, le Machine learning) pour faciliter l’identification des cybermenaces et leurs impacts.

Les algorithmes d’IA peuvent être entraînés à prendre certaines mesures prédéfinies en cas d’attaque et, avec le temps, ils peuvent apprendre quelle devrait être la réponse adéquate grâce à l’apport d’experts en cybersécurité.

De plus, les logiciels d’analyse des données de cybersécurité basés sur l’IA peuvent accomplir une tâche avec une précision toujours plus grande que celle faite par des experts. L’analyse d’importants volumes de données et la détection d’anomalies sont quelques-uns des domaines dans lesquels l’intelligence artificielle pourrait aujourd’hui apporter une valeur ajoutée en matière de cybersécurité.

Les principaux cas d’usage sont les suivants

Mais trop d’entreprises commencent à voir l’IA comme un moyen de réduire leur effectif en matière de cybersécurité. C’est une erreur ! L’IA a besoin du savoir-faire et de l’expérience empirique d’experts. Par ailleurs, la « performance » des algorithmes IA dépend des données qui leur sont transmises.

« C’est plus complexe d’avoir la trace d’une cyberattaque que l’image d’un chat », rappelle le directeur de l’innovation chez Wallix, Henri Binstock. Selon Aarti Borkar, vice-président d’IBM Security, il peut y avoir des erreurs dans trois domaines : le programme, les données et les personnes qui conçoivent ces systèmes d’IA.

La qualité des données a une importance capitale. « Si les données utilisées sont biaisées, l’intelligence artificielle ne comprendra qu’une vision partielle du monde et prendra des décisions basées sur cette compréhension étroite », explique Aarti Borkar.

De la même façon, si les personnes qui conçoivent le programme viennent d’une culture ou d’un milieu similaire et partagent les mêmes idées, la diversité cognitive sera faible. Et cette absence d’ouverture d’esprit ne favorisera pas l’émergence de multiples scenarii.

De façon plus générale, les craintes concernant les limites de l’IA rejoignent indirectement celles des spécialistes de AI Now, l’un des meilleurs groupes de recherches dans le domaine de l’IA.

« Les systèmes techniques échouent encore souvent et l’erreur humaine peut amplifier cette défaillance. Ces questions de sécurité sont particulièrement importantes lorsque des vies sont en danger », avertit AI Now.


Pour aller plus loin

Dans l'actualité