Logo ETI Quitter la lecture facile

Cybersécurité : l’intelligence artificielle n’est pas l’arme fatale !

Posté le par Philippe RICHARD dans Informatique et Numérique

L'IA commence à être de plus en plus intégrée dans différentes briques de la cybersécurité. Les algorithmes peuvent être entraînés pour prendre certaines mesures prédéfinies en cas d'attaque. Mais reposant sur de mauvais algorithmes, des programmes d'IA pourraient poser de sérieux problèmes, préviennent des experts.

La multiplication des attaques informatiques rend très difficile la tâche des équipes de sécurité. Et même si on constate une diversité et une sophistication (des cas récents montrent aussi que les cibles sont « faibles » car elles n’appliquent pas les règles élémentaires de sécurité…) des techniques malveillances, l’ennui est une réalité !

L’identification et l’évaluation des cybermenaces nécessitent l’examen de grandes quantités de données et la recherche de signaux et de comportements suspects. Résultat, de nombreux RSSI, DSI ou experts en cybersécurité sont victimes (ou très proches) d’un burn-out.

Dans un tel contexte défavorable aux organisations, l’IA peut représenter une option salutaire. De plus en plus de fournisseurs de solutions de cybersécurité proposent des produits intégrant de l’IA (ou sa déclinaison, le Machine learning) pour faciliter l’identification des cybermenaces et leurs impacts.

Les algorithmes d’IA peuvent être entraînés à prendre certaines mesures prédéfinies en cas d’attaque et, avec le temps, ils peuvent apprendre quelle devrait être la réponse adéquate grâce à l’apport d’experts en cybersécurité.

De plus, les logiciels d’analyse des données de cybersécurité basés sur l’IA peuvent accomplir une tâche avec une précision toujours plus grande que celle faite par des experts. L’analyse d’importants volumes de données et la détection d’anomalies sont quelques-uns des domaines dans lesquels l’intelligence artificielle pourrait aujourd’hui apporter une valeur ajoutée en matière de cybersécurité.

Les principaux cas d’usage sont les suivants

  •  L’identification des menaces réseau : Les logiciels de sécurité réseau basés sur l’IA peuvent (potentiellement) surveiller tout le trafic entrant et sortant afin d’identifier tout comportement inhabituel.
  • La surveillance des emails : L’IA commence maintenant à être déployée pour renforcer la surveillance des messageries. Reposant notamment sur le traitement en langage naturel, un logiciel de détection d’anomalies peut aider à identifier si l’expéditeur, le destinataire, le corps ou les pièces jointes du courriel sont des menaces.
  • L’IA pour combattre… l’IA : Les entreprises vont devoir impérativement améliorer la vitesse de détection des cybermenaces, car les pirates utilisent maintenant l’IA pour découvrir les faiblesses dans les réseaux.

Mais trop d’entreprises commencent à voir l’IA comme un moyen de réduire leur effectif en matière de cybersécurité. C’est une erreur ! L’IA a besoin du savoir-faire et de l’expérience empirique d’experts. Par ailleurs, la « performance » des algorithmes IA dépend des données qui leur sont transmises.

« C’est plus complexe d’avoir la trace d’une cyberattaque que l’image d’un chat », rappelle le directeur de l’innovation chez Wallix, Henri Binstock. Selon Aarti Borkar, vice-président d’IBM Security, il peut y avoir des erreurs dans trois domaines : le programme, les données et les personnes qui conçoivent ces systèmes d’IA.

La qualité des données a une importance capitale. « Si les données utilisées sont biaisées, l’intelligence artificielle ne comprendra qu’une vision partielle du monde et prendra des décisions basées sur cette compréhension étroite », explique Aarti Borkar.

De la même façon, si les personnes qui conçoivent le programme viennent d’une culture ou d’un milieu similaire et partagent les mêmes idées, la diversité cognitive sera faible. Et cette absence d’ouverture d’esprit ne favorisera pas l’émergence de multiples scenarii.

De façon plus générale, les craintes concernant les limites de l’IA rejoignent indirectement celles des spécialistes de AI Now, l’un des meilleurs groupes de recherches dans le domaine de l’IA.

« Les systèmes techniques échouent encore souvent et l’erreur humaine peut amplifier cette défaillance. Ces questions de sécurité sont particulièrement importantes lorsque des vies sont en danger », avertit AI Now.

Pour aller plus loin

Posté le par Philippe RICHARD


Réagissez à cet article

Commentaire sans connexion

Pour déposer un commentaire en mode invité (sans créer de compte ou sans vous connecter), c’est ici.

Captcha

Connectez-vous

Vous avez déjà un compte ? Connectez-vous et retrouvez plus tard tous vos commentaires dans votre espace personnel.

INSCRIVEZ-VOUS
AUX NEWSLETTERS GRATUITES !