À mesure que des questions de société émergent et que de nouveaux défis s’imposent aux sciences et technologies, notre vocabulaire s’étoffe, s’adapte. Des termes qu’on croyait déjà bien connaître s’enrichissent de significations inédites, des mots récemment créés entrent dans le dictionnaire. D’où viennent-ils ? En quoi nous permettent-ils de bien saisir les nuances d’un monde qui se transforme ? De « validisme » à « silencier », de « bifurquer » à « dégenrer », les chercheurs de The Conversation s’arrêtent deux fois par mois sur l’un de ces néologismes pour nous aider à mieux les comprendre, et donc mieux participer au débat public.
De façon littérale, « neuromorphique » signifie « qui imite le cerveau ». Ce qualificatif se retrouve dans des expressions comme « ingénierie neuromorphique », « informatique neuromorphique », « processeur neuromorphique », « robotique neuromorphique », dans le domaine des sciences et technologies de l’information et de la communication.
L’objectif du neuromorphisme est de surpasser les limitations auxquelles se heurtent nos ordinateurs, tablettes et smartphones actuels en matière d’intelligence artificielle et d’interactions homme-machine. Rappelons ici que les processeurs, qui sont les « cœurs » de nos machines, fonctionnent tous selon les mêmes principes : un codage binaire, des informations, une architecture unique séparant le calcul et la mémoire, et l’implémentation physique de cette architecture avec des dispositifs à semiconducteurs. Une des caractéristiques de ces processeurs est de ne traiter qu’une information à la fois, ce qui implique de le faire très rapidement en consommant beaucoup d’énergie pour être performant.
Avec l’émergence de nouveaux domaines applicatifs, comme les objets connectés ou l’Intelligence artificielle, la question d’un paradigme de traitement de l’information alliant une plus grande efficacité énergétique à des performances supérieures se pose de façon marquée. Dans ce domaine, le cerveau peut-être un bon modèle.
En effet, les recherches en neurosciences nous ont appris comment fonctionne le cortex cérébral, comment ses composants élémentaires que sont les neurones et les synapses codent, communiquent et mémorisent l’information et enfin, comment leur organisation en réseau permet d’effectuer des tâches cognitives avec une grande efficacité énergétique. Une caractéristique essentielle du cortex est de traiter un grand nombre d’informations simultanément grâce à une interconnexion gigantesque (un neurone peut être connecté à 10.000 autres neurones !). De ce fait, le cortex n’a pas besoin de traiter rapidement les informations pour être performant et il consomme peu d’énergie.
Grâce aux formidables avancées des neurosciences et aux besoins de performance en traitement de l’information, l’idée est venue de concevoir un artefact qui fonctionnerait comme le cerveau, avec des neurones et des synapses artificiels organisés en réseau. Notons que cette idée, qui suscite aujourd’hui un engouement certain, est en fait assez ancienne : elle fut proposée pour la première fois par Carver Mead à la fin des années 1980 !
Propulsé par l’idée de « mettre de l’intelligence » dans toutes nos machines, le sujet est devenu majeur de nos jours. Deux voies radicalement différentes sont suivies par les acteurs du domaine :
- La voie logicielle, celle de l’informatique neuromorphique, utilise un processeur classique pour simuler des réseaux de neurones et de synapses qui sont définis par des modèles mathématiques. Grâce à sa souplesse, cette approche de simulation numérique a connu un formidable essor avec des techniques comme l’apprentissage profond qui permet à une machine d’apprendre toute seule et les nombreux travaux autour de l’intelligence artificielle. Utilisant des machines standards, cette approche souffre malheureusement d’une mauvaise efficacité énergétique et elle demande des moyens de calcul gigantesques pour être performante.
- La voie matérielle est plus ambitieuse, mais aussi beaucoup plus complexe. Elle consiste à repenser complètement l’architecture des processeurs en fabriquant des neurones et des synapses artificiels et en les associant en un réseau physique qui émule les réseaux de neurones biologiques. Cette approche très technologique est suivie par les grands industriels de l’électronique comme IBM ou Intel qui ont déjà proposé de véritables processeurs neuromorphiques.
Alain Cappy, Professeur émérite en électronique, Université de Lille
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.
Comment pouvez-vous nous aider à vous tenir informés ?
Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.