Face à l’explosion de la demande et à l’émergence de nouvelles applications en intelligence artificielle, la quête de paradigmes informatiques plus sobres en énergie s’impose désormais comme une priorité pour de nombreux secteurs. Au sein de l’équipe-projet BONUS, commune à l’Université de Lille et à Inria, les chercheurs El-Ghazali Talbi et Jorge Mario Cruz-Duarte s’attachent à développer ces nouvelles approches.
Éclairage avec El-Ghazali Talbi, chercheur dans l’équipe BONUS au Centre Inria de l’Université de Lille.

Le Professeur El-Ghazali Talbi est Professeur des Universités à Polytech’Lille (Université de Lille) et membre de l’équipe de recherche BONUS (CRISTAL-CNRS, INRIA, Université de Lille). Ses recherches couvrent des domaines variés, tels que l’optimisation, l’intelligence artificielle, le calcul haute performance, l’apprentissage automatique, ainsi que le calcul neuromorphique.
Auteur de plus de 300 publications dans des revues scientifiques, chapitres d’ouvrages et conférences internationales, il est également coéditeur de dix ouvrages. Il a dirigé l’équipe de recherche OPAC ainsi que l’équipe-projet INRIA Dolphin, et a participé à de nombreux projets nationaux, européens et internationaux, renforçant sa contribution à la recherche collaborative et à l’innovation scientifique.
Techniques de l’Ingénieur : En quoi l’architecture du cerveau humain a-t-elle influencé concrètement le développement de l’informatique neuromorphique ?
El-Ghazali Talbi : Le calcul neuromorphique s’inspire directement du fonctionnement du cerveau humain. Aujourd’hui, la plupart des modèles algorithmiques reposent sur les réseaux de neurones artificiels classiques, qui s’exécutent sur des architectures informatiques de type von Neumann, celles des ordinateurs que nous utilisons au quotidien.
À l’inverse, les réseaux de neurones impulsionnels (Spiking Neural Networks SNN) fonctionnent selon un principe différent : ils communiquent uniquement par des impulsions électriques, à l’image des neurones biologiques. Chaque neurone ne s’active que lorsqu’il reçoit un signal, et l’information circule sous forme d’impulsions entre neurones.
Ce mode de fonctionnement permet de réduire considérablement la consommation énergétique, ce qui constitue l’un des principaux atouts de l’informatique neuromorphique.
Cette réduction est de quel ordre ?
Le cerveau humain consomme environ 20 watts, alors qu’un seul GPU peut atteindre près de 700 watts aujourd’hui. L’écart est considérable. C’est d’ailleurs l’une des raisons qui nous ont poussés à nous intéresser à ce domaine. Les réseaux de neurones actuels sont très énergivores. Nous faisons face à une double impasse : économique et énergétique. Si rien ne change, nous allons droit dans le mur.
Quels sont les autres avantages du calcul neuromorphique ?
En plus de la consommation énergétique, un premier avantage majeur concerne la latence. Dans les architectures neuromorphiques, le traitement de l’information repose sur des événements et non sur des calculs synchrones continus. La latence peut ainsi être réduite de plusieurs ordres de grandeur : elle se situe typiquement dans la gamme de la microseconde à la milliseconde, contre plusieurs millisecondes à des dizaines de millisecondes pour les architectures classiques basées sur GPU.
Un second avantage réside dans l’empreinte matérielle. À titre d’exemple, l’un des processeurs neuromorphiques les plus avancés a été développé par Intel sous le nom de Loihi2. Il occupe environ 31 mm², consomme de l’ordre de 1 W, et intègre 128 cœurs neuromorphiques, supportant jusqu’à 1 million de neurones artificiels et 120 millions de synapses. Ceci permet une empreinte matérielle très faible tout en maintenant une grande efficacité énergétique, idéale pour l’Edge Computing, les systèmes embarqués et l’Internet des objets (IoT), où les contraintes de latence, de consommation énergétique et de compacité matérielle sont critiques.
Le développement d’algorithmes neuromorphiques combinant une faible consommation énergétique (de l’ordre du milliwatt à quelques watts), une latence très faible et une empreinte matérielle réduite, pourrait profondément transformer l’architecture des systèmes informatiques et ouvrir la voie à de nouvelles applications.
Quels sont les défis majeurs pour transposer cette inspiration en solutions technologiques ?
Il s’agit d’un nouveau paradigme de programmation. Il faut repenser la manière d’écrire les algorithmes, de concevoir les logiciels et de développer le matériel associé. Le calcul neuromorphique est également un domaine résolument multidisciplinaire. Aujourd’hui, ce sont principalement des physiciens et des électroniciens qui travaillent au développement du hardware, mais sa mise en œuvre nécessite aussi la collaboration d’informaticiens et de spécialistes en intelligence artificielle.
Quels secteurs pourraient bénéficier, en priorité, de l’informatique embarquée neuromorphique ?
Aujourd’hui, le calcul neuromorphique profite principalement aux applications cognitives, comme les neurosciences et le machine learning. On commence à s’intéresser aux applications non cognitives, comme l’optimisation, traitement de signal et résolution d’équations différentielles.
Notre objectif est de développer des algorithmes d’optimisation neuromorphique à grande échelle. Le logiciel NeurOptimiser a été développé pour généraliser ces approches et faciliter leur utilisation sur divers problèmes d’optimisation. Tous les secteurs où l’optimisation joue un rôle clé peuvent en tirer parti : robotique, drones, santé, aérospatial, défense, environnement, et l’IA embarquée, entre autres.
Quelles sont vos prochaines étapes ?
Notre démarche repose sur une feuille de route structurée en trois étapes majeures, chacune visant à franchir un palier scientifique et technologique.
La première étape a consisté à concevoir des algorithmes d’optimisation neuromorphique. L’objectif principal à ce stade est de développer des méthodes capables de rivaliser en performance avec les algorithmes classiques, tout en tirant parti des spécificités des architectures neuromorphiques. Cette étape a été cruciale pour établir des bases solides et évaluer le potentiel réel de nos approches.
La deuxième étape vise à passer à l’échelle en s’inspirant de l’organisation fractale du cerveau. Cette étape est essentielle pour démontrer la scalabilité et l’efficacité réelle de nos algorithmes dans des environnements complexes et à très grande échelle.
La troisième et dernière étape sera le déploiement effectif de nos algorithmes sur des architectures neuromorphiques. Ce sera un moment clé, car il permettra de valider nos méthodes dans des conditions réelles, hors simulation. Parmi les plateformes les plus reconnues figurent le processeur Loihi2, SpiNNaker, et BrainScale. À long terme, d’ici 2030, les architectures neuromorphiques devraient atteindre 100 milliards de neurones, contre 1 milliard aujourd’hui. Notre projet est donc positionné pour préparer et exploiter cette transition vers des systèmes massivement neuronaux, ouvrant la voie à des applications en optimisation à une échelle inédite.









Réagissez à cet article
Vous avez déjà un compte ? Connectez-vous et retrouvez plus tard tous vos commentaires dans votre espace personnel.
Inscrivez-vous !
Vous n'avez pas encore de compte ?
CRÉER UN COMPTE