Contactez-nous

Conférence en ligne

À voir en replay !

Les journalistes de Techniques de l'Ingénieur organisent des conférences en ligne gratuites animées par des experts de l'ingénierie et de la recherche.

À voir en replay !
Informatique et numérique

Sécurité et nouveaux modèles d’intelligence artificielle – REPLAY

Vous souhaitez partager cette conférence en ligne ?

Le règlement européen sur l’intelligence artificielle, adopté il y a quelques mois, doit veiller à ce que les systèmes d’IA mis sur le marché respectent les droits humains et les législations en vigueur. Cette mise en œuvre répond à la nécessité de mieux encadrer le développement de nouveaux modèles d’IA de plus en plus autonomes, qui pourraient poser des problèmes inédits en termes de sécurité.

Objectifs :

Ce webinar permet de répondre aux questions suivantes :
  • Quel cadre pour examiner la progression du développement de l’IA ?
  • Quels pourraient être les “nouveaux” dysfonctionnements des nouveaux modèles d’IA ?
  • Quelles sont les mesures techniques de sécurité existantes pour l'IA ? Comment ces solutions atténuent les modes de défaillance actuels et permettent d’aborder les problèmes futurs ?
  • Quelles stratégies de défense en profondeur, de la culture de sécurité organisationnelle et du rôle des auditeurs tiers.
  • Quels outils d'évaluation pratique pour mesurer la robustesse des systèmes de supervision des grands modèles de langage ?

Programme :

  • Présentation d'un cadre pour examiner la progression du développement de l'IA, en se concentrant sur l'augmentation de l'autonomie et de la généralité des modèles d'IA. Cette tendance suggère que les futures itérations pourraient présenter de nouveaux types de dysfonctionnements non observés dans les modèles actuels.
  • Vue d'ensemble des mesures techniques de sécurité existantes pour l'IA : comprendre comment ces solutions atténuent les modes de défaillance actuels et leur potentiel pour aborder les problèmes futurs.
  • Élargissement du champ au-delà des solutions purement techniques : présenter la sécurité comme une caractéristique du système socio-technique dans lequel le développement technique a lieu, en discutant des stratégies de défense en profondeur, de la culture de sécurité organisationnelle et du rôle des auditeurs tiers.
  • Conclusion avec une introduction à BELLS : un outil d'évaluation pratique pour mesurer la robustesse des systèmes de supervision des grands modèles de langage, reflétant notre approche proposée.

Animé par :

Charbel-Raphaël Ségerie

Directeur exécutif du Centre pour la sécurité de l'IA (CeSIA)

Charbel-Raphaël Ségerie est directeur exécutif du Centre pour la sécurité de l'IA (CeSIA) à Paris, où il dirige la recherche et l'enseignement sur la sécurité de l'IA. Il enseigne également la sécurité de l'IA à l'École Normale Supérieure. Son travail se concentre sur l’identification des risques émergents dans l’intelligence artificielle, l’amélioration des méthodes de sécurité actuelles telles que le RLHF et l’interprétabilité, et l’avancement des approches d’IA sûres dès la conception. De plus, il contribue aux efforts d’évaluation de l’IA et collabore au code de bonnes pratiques du Bureau européen de l’IA pour les systèmes d’IA à usage général.

Inscrivez vous aux newsletters !

Recevez chaque semaine les newsletters du Magazine d’Actualité.

Actualités et veille technologique

L'espace actualité c'est quoi ?

De la découverte en laboratoire à l'innovation industrielle, scrutez les tendances et prenez part aux grands débats scientifiques qui construisent le monde de demain.

Contacter la rédaction
Contenus associés

Dans la même thématique

Voir plus de conférences en ligne

Inscrivez-vous aux newsletters !

Recevez chaque semaine les newsletters du Magazine d’Actualité