lundi 26 novembre 2018

Des Puces Inspirées par le Cerveau Humain





Le cerveau humain contient 100.000 millions de neurones qui, à leur tour, sont connectés les uns aux autres par plus d'un billion de connexions. Par ces connexions, les neurones transmettent des impulsions électriques entre d’autres neurones connectés au même réseau par des impulsions nerveuses.

Ce fonctionnement du cerveau, basé sur les connexions entre différents neurones, a été transféré au domaine de l'ingénierie à travers le paradigme des réseaux de neurones, un paradigme de l'intelligence artificielle qui traite de l'auto-apprentissage d'un système par l'application de certaines impulsions d’entrée.

Les meilleurs algorithmes d'intelligence artificielle disposent déjà d'un programme simulant le cerveau, appelé réseaux de neurones simulés, qui repose sur un traitement parallèle permettant de reconnaître des modèles dans les données, notamment des objets dans des images et des mots spécifiques dans des discours.

Loi de Moore


La loi de Moore stipule que le nombre de transistors dans un microprocesseur est doublé tous les deux ans environ. Il a été conçu par Gordon E. Moore, cofondateur d’Intel, en avril 1965.

Bien que la loi ait été formulée à l’origine pour établir que la duplication serait faite chaque année, Moore a ensuite redéfini sa loi et prolongé la période à deux ans.

Actuellement, cette loi s'applique aux ordinateurs personnels et aux téléphones cellulaires. Cependant, lors de sa formulation, il n’existait pas de microprocesseurs inventés en 1971  d’ordinateurs personnels popularisés dans les années 80 et la téléphonie cellulaire ou mobile en était seulement au stade expérimental.

En plus de prévoir l'augmentation de la complexité des puces (mesurée par les transistors contenus dans une puce informatique), la loi de Moore suggère également une réduction des coûts. Les microprocesseurs d'aujourd'hui sont partout, des jouets aux feux de circulation.

Ce qui a rendu possible cette explosion spectaculaire de la complexité du circuit, c’est la taille réduite des transistors pendant des décennies. Les caractéristiques des transistors mesurant moins d’un micron ont été atteintes au cours des années 1980, lorsque les puces DRAM (Dynamic Random Access Memory) ont commencé à offrir des capacités de stockage en mégaoctets.


À l'aube du XXIe siècle, ces caractéristiques avaient une largeur de 0,1 micron, ce qui permettait la fabrication de puces de mémoire giga-octets et de microprocesseurs fonctionnant à des fréquences de giga hertz. La loi de Moore s'est poursuivie au cours de la deuxième décennie du 21e siècle avec l'introduction de transistors tridimensionnels de plusieurs dizaines de nanomètres.

La loi de Moore n'est pas une loi au sens scientifique, mais plutôt une observation et a jeté les bases de grands progrès. Cette règle simple a guidé toutes les avancées de la révolution technologique pendant plus d'un demi-siècle et continue de définir les limites croissantes de la technologie actuelle, nous permettant de prendre des concepts tels que l'intelligence artificielle et les véhicules autonomes, et de les concrétiser.

Parce que la loi de Moore suggère une croissance exponentielle, il est peu probable qu'elle continue indéfiniment. Certaines études ont montré que des limitations physiques pourraient être atteintes en 2018.

Apprentissage en profondeur


Ce type d'apprentissage automatique est à l'origine de la technologie "intelligente" et va des logiciels de reconnaissance vocale et d'image aux voitures autonomes. Les avancées obtenues dans les domaines de l'apprentissage en profondeur et de la robotique conduiront bientôt à la création d'une technologie de traitement des images médicales capable de créer des diagnostics fiables, des drones pilotés seuls ainsi que des machines et infrastructures de tous types soumis à une maintenance automatique.

Les principes mathématiques qui forment la base de l’apprentissage en profondeur sont relativement simples, mais combinés à d’énormes quantités de données d’apprentissage et de systèmes informatiques exécutant plusieurs opérations en parallèle, cette technique a permis de grandes avancées ces dernières années, notamment dans les domaines de la reconnaissance vocale et des images.

*
*    *

Les scientifiques construisent un simulateur de cerveau avec des processeurs ARM

Une équipe de scientifiques de l'Université de Manchester a commencé à travailler, en juillet 2011, sur un modèle de cerveau humain, basé sur le paradigme des réseaux de neurones, qui permet aux experts d'autres disciplines de mieux comprendre le fonctionnement du cerveau et servir de banc d’essai pour les travaux liés à l’intelligence artificielle.

À cette fin, ils ont construit un modèle à l'échelle (représentant 1% du cerveau) utilisant des processeurs ARM  qui agiraient comme des neurones  et qui se connecteraient les uns aux autres en imitant les connexions des neurones du cerveau et en formant ce qu'on appelle le Spiking Neural Network architecture ou SpiNNaker.

Ce modèle réduit est constitué d’un million de processeurs ARM, jouant le rôle de neurones, comme d’unités de traitement "simples", mais, là où réside réellement la puissance de ce système informatique, c’est précisément dans les connexions qui s’établissent entre ces neurones, où à chaque connexion est attribué un poids qui sert à amplifier l'excitation reçue de ladite connexion.

La plus grande complexité des réseaux de neurones réside dans les connexions, par conséquent, augmenter la capacité de traitement du neurone permet que ce modèle à échelle et réduit soit beaucoup plus puissant et, en outre, simplifie considérablement le nombre de connexions à mettre en place entre les millions de processeurs.

SpiNNaker vise à créer un modèle du système intelligent définitif, le cerveau humain. Ils ne savent pas comment le cerveau fonctionne en tant que système de traitement de l'information, quelque chose dont ils ont besoin de savoir. Ils espèrent que leur machine permettra une avancée significative vers la réalisation de cet objectif. En fin de compte, ce système pourrait être d'une grande aide pour les personnes qui ont présenté des problèmes de lecture après un accident vasculaire cérébral ou une lésion cérébrale. Dans le domaine de la psychologie, les réseaux de neurones ont déjà été utilisés pour reproduire des pathologies cliniques.


Il faut plus de 80.000 processeurs pour simuler 1 seconde d'activité du cerveau humain

L’Institut technologique de l'Université d'Okinawa et l'équipe allemande du centre Forschungs Jülich ont réalisé, en août 2013, un test simulant le fonctionnement du cerveau humain pendant une seconde. Ils avaient besoin d'un ordinateur d'une puissance incroyable, autant pour faire fonctionner 82.944 processeurs pendant 40 minutes, y compris l'ordinateur K, le quatrième super ordinateur le plus puissant au monde situé à Kobe (Japon).

Cette simulation a été rendue possible grâce au logiciel à code source ouvert NEST qui a permis la création d’un réseau de neurones artificiels de 1.730 millions de cellules connectées par 10.400 millions de synapses. Ces réseaux, bien qu’ils puissent sembler impressionnants, ne représentent qu’une fraction des neurones contenus dans un cerveau humain, où l'on estime qu'il existe entre 80 et 100 milliards de cellules nerveuses, soit autant que toutes les étoiles de la Voie Lactée.

Ceci explique l'impossibilité de simuler le fonctionnement du cerveau humain en temps réel et la nécessité de ces 40 minutes de traitement par 82.944 processeurs, qui avaient besoin d'un péta-octet de mémoire pour modéliser chaque synapse individuellement.


Un circuit basé sur le cerveau est 9.000 fois plus rapide qu'un PC  Neurogrid

Des bio-ingénieurs de l'Université de Stanford ont conçu un ensemble de processeurs en avril 2014, dont l'architecture s'inspire de celle du cerveau humain. Neurogrid est environ 9.000 fois plus rapide qu'un PC conventionnel et beaucoup plus efficace du point de vue énergétique.

Ce n'est pas la première fois que des scientifiques tentent de recréer le fonctionnement du cerveau humain au moyen de composants électroniques. Même le cerveau d'une simple souris est doté d'une capacité de traitement supérieure à celle des ordinateurs que nous gérons au quotidien.

Dans le cas de cette nouvelle puce, l’équipe de Stanford a conçu une carte mère dotée de 16 neuro-puces spécialement conçues, capable d’émuler un million de neurones et des milliards de connexions synaptiques. Le système est 100.000 fois plus efficace du point de vue de la consommation d'énergie qu'un ordinateur exécutant une simulation d'un million de neurones basée sur un logiciel.

L'ensemble est très difficile à programmer. Il est nécessaire de connaître le fonctionnement du cerveau pour pouvoir programmer le dispositif. Le prochain objectif est précisément de créer un neuro-compilateur qui permette au programmeur de travailler avec un code plus conventionnel sans avoir à connaître les synapses et les neurones.

L'architecture qui simule le cerveau de Neurogrid n'est pas occasionnelle. Son premier objectif est de devenir le contrôleur d'une nouvelle génération d'implants robotiques pour les personnes souffrant de paralysie. À l'avenir, cependant, il pourrait être utilisé pour des applications plus conventionnelles.

Chacun des 16 noyaux simulant 65.536 neurones a été fabriqué de manière quasi artisanale et avec des méthodes de production datant de 15 ans. L'application des techniques actuelles de production de processeurs permettrait de réduire d'environ 100 fois les coûts de production.


TrueNorth  Un processeur IBM simule un réseau d'un million de neurones

La nouvelle puce IBM créée en août 2014 va encore plus loin dans l'objectif de créer un processeur capable de simuler le fonctionnement du cerveau humain. Elle a la taille d'un timbre-poste, mais à l'intérieur se cache l'équivalent d'un million de neurones avec 256 millions de connexions synaptiques programmables. TrueNorth est un saut quantitatif impressionnant par rapport à la première version, d’un seul noyau neuro-synaptique, ce projet a été passé à 4.096 noyaux.

Malgré tout, les chiffres sont risibles comparés à ceux d'un cerveau humain. Seulement dans le cortex cérébral, nous avons entre 15.000 et 33.000 millions de neurones. Chaque millimètre cube de cortex cérébral contient environ 1 milliard de synapses.

Au début de 2014, IBM a testé sa puce sur un nouvel ordinateur appelé NS16e, qui suit le modèle du cerveau et permet de vérifier comment l'équipement pourrait être utilisé pour la reconnaissance de la parole et des modèles grâce au réseau neuronal d'unités de traitement. La puce pourrait identifier et reconnaître les motifs des images générées par près d’une centaine de caméras à 24 images par seconde à partir d’un téléphone portable sans avoir à recharger la batterie pendant plusieurs jours.

Le défi de l'informatique cognitive est encore loin, mais cela n'enlève rien au mérite de TrueNorth et démontre en fait la puissance de cette architecture pour l'avenir. Il sera particulièrement utile pour développer des dispositifs dans lesquels un fonctionnement similaire à celui du cerveau humain est important. TrueNorth peut être le cerveau de toute une future génération de dispositifs utilisables, d’appareils mobiles ou d’implants robotiques.


Intel parvient à intégrer un réseau neuronal sur une puce de silicium

La société a présenté une puce neuro-morphique, en janvier 2018, qui simule le fonctionnement du cerveau humain en utilisant une puissance de calcul inférieure à celle requise pour démarrer un ordinateur.

La puce est capable d'apprendre à reconnaître des objets dans des images capturées par une webcam. Ce fait n'a rien de spécial, sauf qu'il utilise environ un millième de la puissance nécessaire à un processeur conventionnel.

Le dispositif, appelé Loihi, mis à l'essai au Consumer Electronics Show (CES) de Las Vegas, simule de manière simplifiée le fonctionnement des neurones et des synapses du cerveau.

Les puces neuro-morphiques enregistrent le fonctionnement des réseaux de neurones dans le silicium. Ce sont des processeurs moins flexibles et puissants que ceux destinés à d’autres utilisations, mais étant spécialisés dans cette tâche, ils sont plus efficaces en énergie et conviennent parfaitement aux appareils mobiles, aux véhicules et aux équipements industriels.

L’idée des puces neuro-morphiques existe depuis des décennies, mais jusqu’à présent, elle n’était pas préparée à trouver son créneau commercial. Dans l’ensemble du secteur des technologies, les progrès de l’intelligence artificielle ont inspiré de nouvelles recherches sur le hardware visant à utiliser plus efficacement les algorithmes d’apprentissage automatique. Le plus grand défi des puces neuro-morphiques dans le passé était de les transformer à plus grande échelle.

Cette puce fait partie de la tentative d'Intel de se réinventer. La société ne peut plus compter sur des processeurs de plus en plus rapides alors que la Loi de Moore a heurté en plein avec la Loi de la physique.

Au cours du CES, la société a également annoncé la construction d’une nouvelle puce d’informatique quantique, qui exploite les règles étranges et merveilleuses de la physique quantique pour effectuer certains types de calculs avec une rapidité incroyable. Intel a seulement révélé qu'elle s'appelait Tangle Lake et qu'elle contient 49 qubits, sans toutefois indiquer sa fiabilité ou sa stabilité. Malgré ces avancées, on ne sait toujours pas comment ces processeurs quantiques pourraient être utilisés, au-delà de certaines applications telles que le déchiffrement des codes et la modélisation automatisée. Le qubit est l'analogue quantique du bit en informatique.


IBM annonce un ordinateur quantique de 50 qubits mais ne dit pas comment cela fonctionne

IBM a annoncé en novembre 2017 un ordinateur quantique capable de gérer 50 bits quantiques, ou qubits. La société travaille également sur un système de 20 qubits qu'elle proposera via sa plate-forme de cloud computing. Le système serait le plus avancé du genre, mais la société n’a publié aucun détail sur son fonctionnement.

Grâce à la capacité de ces machines à tirer parti de la nature et des propriétés exotiques de la physique quantique, elles sont en mesure de traiter les informations de manière totalement différente de celle des ordinateurs traditionnels.

Mais l'annonce ne signifie pas que l'informatique quantique est prête à être utilisée massivement. Le nouveau système IBM reste extrêmement délicat et son utilisation constitue un défi. Dans les ordinateurs quantiques de 50 et 20 qubits, l’état quantique n’est maintenu que pendant 90 microsecondes. Bien que ce chiffre soit un record pour l’industrie, c’est très peu de temps pour faire quelque chose d’utile.

Même dans ce cas, la combinaison des 50 qubits est une étape importante dans le chemin vers les ordinateurs quantiques pratiques. Une machine de 50 qubits peut faire des choses extrêmement difficiles à simuler sans technologie quantique.

Alors que les ordinateurs traditionnels stockent des informations sous forme de 1 et de zéro, les ordinateurs quantiques exploitent deux phénomènes quantiques pour traiter les informations différemment : l'intrication et le chevauchement.

Récemment, l’équipe IBM a suggéré que des astuces mathématiques ingénieuses permettent de simuler des systèmes quantiques dépassant 50 qubits. Cela voudrait dire que la suprématie quantique est une cible mouvante, du moins pour le moment. Mais cela ne change pas le fait que les ordinateurs quantiques se rapprochent chaque jour pour être prêts à atteindre le grand public.


Les qubits supraconducteurs de Google pourraient être sur le point d'atteindre la suprématie quantique

Des chercheurs de l'Université de Californie à Santa Barbara, Charles Neill et de Google, Pedram Roushan, affirment qu'ils savent comment atteindre la suprématie quantique et ont démontré avec succès pour la première fois une validation de principe de la machine. Leur travail soulève la possibilité qu'il ne reste que quelques mois pour la première démonstration de la suprématie quantique.

La nouvelle recherche de Google (octobre 2017) démontre un système stable de neuf qubits avec une superposition quantique supraconductrice dont les erreurs n'augmentent pas de manière exponentielle. S'ils parviennent à grimper à 49 qubits, ils auront atteint la suprématie de l'ordinateur quantique.

La grande promesse de l'informatique quantique réside dans la possibilité d'effectuer des calculs d'une complexité telle qu'elle ne peut être assumée par les ordinateurs classiques. Les physiciens savent depuis quelque temps qu'un ordinateur quantique de seulement 50 qubits pourrait vaincre même les plus puissants super ordinateurs du monde.

Mais dépasser les limites de l'informatique conventionnelle et atteindre la suprématie quantique, comme l'appellent les physiciens, est plus difficile que prévu. Les états quantiques sont très délicats : un éternuement et ils disparaissent. Pour cette raison, les physiciens sont embourbés par les difficultés pratiques d’isoler les ordinateurs quantiques et leurs machines de traitement du monde extérieur.

Mais il peut exister une autre façon de démontrer la suprématie quantique qui n'exige pas qu'un ordinateur quantique général exécute plusieurs algorithmes quantiques. Au lieu de cela, les physiciens ont commencé à jouer avec des systèmes quantiques centrés sur une tâche unique. S’ils peuvent prouver que cette tâche dépasse la capacité de n'importe quel ordinateur conventionnel, ils auront alors démontré la suprématie quantique pour la première fois. Ce qui n'est pas clair, c'est comment le faire.

Le grand avantage des qubits par rapport aux bits ordinaires est qu’ils peuvent exister dans une superposition d’états. Ainsi, alors qu'un bit ordinaire peut être un 1 ou un 0, un qubit peut être un 1 et un 0 en même temps. Cela signifie que deux qubits peuvent représenter quatre nombres en même temps, trois qubits peuvent représenter huit nombres et, neuf qubits, 512 nombres simultanément. En d'autres termes, leur capacité augmente de manière exponentielle.

C'est pourquoi on n’a pas besoin de beaucoup de qubits pour vaincre les ordinateurs classiques. Avec seulement 50 qubits, 10.000.000.000.000.000 nombres peuvent être représentés. Un ordinateur classique aurait besoin de l'ordre d'un péta-octet de mémoire pour stocker ce nombre.

Donc, un moyen d’atteindre la suprématie quantique est de créer un système pouvant supporter 49 qubits dans une superposition d’états. Ce système n'a pas besoin d'effectuer de calculs complexes, il doit seulement être capable d'explorer de manière fiable tout l'espace d'une superposition de 49 qubits.

Les qubits sont des objets quantiques pouvant exister dans deux états à la fois, et il y a plusieurs façons de les faire. Par exemple : les photons peuvent être polarisés à la fois verticalement et horizontalement ; les noyaux atomiques peuvent tourner avec leur axe en même temps ; les électrons peuvent voyager en même temps sur deux trajectoires. Les physiciens expérimentent tous ces systèmes pour l'informatique quantique.

Neill et Roushan ont choisi un autre itinéraire. Leur système quantique est basé sur un qubit supraconducteur. Il s’agit essentiellement d’une boucle métallique refroidie à basse température. Si un courant circulant dans cette boucle est établi, il circulera pour toujours ; un phénomène quantique appelé supra conductivité.

Cette nature quantique permet une petite astuce : le courant peut circuler dans une direction et dans l’autre en même temps. Et c’est ce qui lui permet d’agir comme un qubit pouvant à la fois représenter un 0 et un 1.

Le grand avantage des qubits supraconducteurs est qu'ils sont relativement faciles à contrôler et à mesurer. Ils peuvent également être liés si plusieurs boucles sont placées côte à côte sur une puce. Cette liaison entre voisins est plus difficile et nécessite une autre astuce. Le courant dans une direction ou une autre n’est qu’une configuration à faible consommation d’énergie. Mais il est possible d'ajouter plus d'énergie et d'autres états. Ce sont ces états d'énergie plus élevés qui peuvent interagir les uns avec les autres, créant ainsi des superpositions plus grandes. De cette manière, les boucles voisines peuvent partager un état beaucoup plus complexe.

L’expérience de validation de principe réalisée par Neill, Roushan et leurs collaborateurs consiste à fabriquer une puce à neuf boucles voisines et à montrer que les qubits supraconducteurs qu’ils supportent peuvent représenter 512 nombres simultanément. Ce n'est pas tout à fait le nombre de qubits nécessaires à la suprématie quantique, mais l'expérience semble suggérer que ce sera possible.

La grande peur des physiciens est que ce ne soient pas seulement les nombres mais aussi les erreurs qui augmentent de façon exponentielle dans ces systèmes quantiques. Si les erreurs augmentent trop rapidement, elles inonderont le système, rendant la suprématie quantique impossible. Le résultat clé de cette expérience est de montrer que les erreurs ne s’échelonnent pas rapidement dans ces puces supraconductrices. Les recherches montrent plutôt que les erreurs augmentent lentement, de manière à permettre un chevauchement important allant jusqu'à 60 qubits.

C'est un travail intéressant. Il est clairement suggéré que la suprématie quantique devrait être possible avec une puce comportant 50 boucles supraconductrices au lieu de neuf. Une puce de 50 qubits ne sera possible que si les erreurs continuent à augmenter comme le montre la recherche. Et cela soulève une question importante. L'équipe indique que les erreurs augmentent lorsque le nombre de qubits passe de cinq à neuf. Mais les erreurs seront-elles redimensionnées de la même manière si les qubits passent de neuf à 50 ?

S'ils ne le font pas, la suprématie quantique est encore loin. Mais s’ils y parviennent, cette équipe espère proclamer la suprématie quantique dans les mois à venir. Donc, Neill, Roushan et leur équipe vont travailler dur pour répondre à cette question.

*    *
*

L'intelligence artificielle doit expliquer son fonctionnement

Aussi bonnes que soient les prédictions d'un apprentissage en profondeur, personne ne sait comment il parvient à ses conclusions. Ce fait commence à générer un problème de confiance et les outils pour le résoudre n’aident pas beaucoup. Mais peut-être est-ce la nature de l'intelligence elle-même.

La technologie d'intelligence artificielle connue sous le nom d'apprentissage en profondeur a très bien réussi à résoudre les problèmes ces dernières années et elle est de plus en plus utilisée pour des tâches telles que la génération de sous-titres, la reconnaissance de la voix et la traduction de langues. Ces mêmes techniques pourraient devenir capables de diagnostiquer des maladies mortelles, de prendre des décisions boursières de plusieurs millions de dollars et de transformer des industries entières.

Mais cela ne se produira (ou ne devrait pas) à moins que des techniques telles que l'apprentissage en profondeur soient plus compréhensibles pour leurs créateurs et responsables vis-à-vis des utilisateurs. Sinon, il sera difficile de prédire quand des défaillances pourraient se produire, lesquelles sont inévitables.

Il existe déjà des arguments selon lesquels la capacité d'interroger un système d'intelligence artificielle sur la manière dont il est parvenu à ses conclusions constitue un droit juridique fondamental. À compter de l'été 2018, l'Union européenne pourrait obliger les entreprises à donner à leurs utilisateurs une réponse aux décisions prises par les systèmes automatisés. Cela peut s'avérer impossible, même pour des systèmes apparemment simples, tels que des applications et des pages Web qui utilisent l'apprentissage en profondeur pour afficher des annonces et recommander des chansons. Les ordinateurs qui exploitent ces services se sont auto programmés et nous ne savons même pas comment. Même les ingénieurs qui développent ces applications ne sont pas en mesure d’expliquer leur comportement.

L'intelligence artificielle n'a pas toujours été comme ça. Depuis le début, il y a eu deux courants de pensée sur ce qui devrait être compréhensible ou explicable. Beaucoup pensaient qu'il était logique de développer des machines qui raisonnent selon des règles et une logique, ce qui rendrait transparent son fonctionnement interne pour quiconque souhaitait examiner le code. D'autres ont estimé que l'intelligence progresserait davantage si les machines étaient inspirées de la biologie et apprises par l'observation et l'expérience. Cela impliquait d'inverser la programmation informatique. Au lieu d’un programmeur écrivant les commandes pour résoudre un problème, le programme génère son propre algorithme en fonction des données exemple et du résultat souhaité. Les techniques d’apprentissage automatique qui ont évolué pour devenir les systèmes d’intelligence artificielle les plus puissants aujourd’hui ont suivi la deuxième voie : la machine est en fait auto programmée.

Au début, cette approche n’avait pas beaucoup d’applications et, dans les années 60 et 70, elle occupait toujours la périphérie du terrain. Ensuite, l’informatisation de nombreuses industries et l’arrivée du big data ont suscité un regain d’intérêt. Cela a inspiré le développement de techniques d’apprentissage automatique plus puissantes, en particulier de nouvelles versions d’une technique appelée réseau neuronal artificiel. À la fin des années 90, les réseaux de neurones pouvaient numériser automatiquement les caractères manuscrits.

Mais ce n’est que jusqu’au début de cette décennie, après plusieurs ajustements et raffinements ingénieux, que de très grands réseaux neuronaux, ou "profonds", ont commencé à offrir des améliorations drastiques de la perception automatisée. L'apprentissage en profondeur est responsable de l'explosion actuelle de l'IA. Il a doté les ordinateurs de pouvoirs extraordinaires, tels que la capacité de reconnaître les mots parlés presque aussi bien que toute personne, quelque chose de trop complexe pour être codé à la main. L'apprentissage en profondeur a transformé la vision des machines et considérablement amélioré la traduction automatisée. Il contribue déjà à prendre toutes sortes de décisions clés dans les domaines de la médecine, des finances, de la fabrication et bien plus encore.

Le fonctionnement de toute technologie d’apprentissage automatique est intrinsèquement plus opaque qu’un système codé à la main, même pour les informaticiens. Cela ne signifie pas que toutes les futures techniques d'IA seront également impossibles à comprendre. Mais, par nature, l'apprentissage en profondeur est une boîte noire particulièrement sombre.

Il est tout simplement impossible d'entrer dans les profondeurs d'un réseau neuronal profond pour voir comment cela fonctionne. Son raisonnement est enraciné dans le comportement de milliers de neurones simulés, disposés en dizaines voire en centaines de couches interconnectées de manière complexe. Les neurones de la première couche reçoivent des informations, telles que l'intensité d'un pixel dans une image, puis effectuent un calcul avant d'émettre un nouveau signal. Ces signaux alimentent les neurones de la couche suivante d'un réseau complexe, et ainsi de suite jusqu'à ce qu'ils génèrent un résultat final. En outre, il existe un processus connu sous le nom de propagation en arrière qui ajuste les calculs de neurones individuels afin que le réseau apprenne à produire le résultat souhaité.

Les multiples couches d'un réseau profond lui permettent de reconnaître des choses à différents niveaux d'abstraction. Dans un système conçu pour reconnaître les chiens, par exemple, les premières couches reconnaissent des éléments très fondamentaux tels que les contours et les couleurs ; les couches suivantes reconnaissent des choses plus complexes comme les cheveux ou les yeux ; et les couches supérieures complètent les objets, comme un chien. La même approche peut s’appliquer à d’autres domaines qui permettent aux machines de s’enseigner elles-mêmes : les sons qui composent les mots dans la parole, les lettres et les mots qui génèrent des phrases dans un texte ou les mouvements du volant nécessaires à la conduite.

Mais nous ne pouvons pas nous contenter d'une vision approximative du fonctionnement de l'intelligence artificielle, et il semble qu'il n'y ait pas de solutions faciles. L'interaction des calculs au sein d'un réseau neuronal profond est essentielle pour reconnaître des modèles et prendre des décisions complexes au plus haut niveau. Mais ces calculs sont un marais de fonctions et de variables mathématiques. Nous sommes encore loin d'avoir une IA réellement interprétable.

Connaître le raisonnement de l'IA sera également essentiel si la technologie aspire à faire partie de la vie quotidienne des gens.

De même que de nombreux aspects du comportement humain sont impossibles à expliquer en détail, l'intelligence artificielle peut ne pas être en mesure d'expliquer tout ce qu'elle fait.

Dans un tel cas, il pourrait arriver un moment où nous devrions décider de faire aveuglément confiance à l'IA ou d'en abandonner l'utilisation. De même, cette même décision devra intégrer l’intelligence sociale. Tout comme la société est construite sur une base de comportements acceptables, nous devrons concevoir des systèmes d’IA pour respecter et adapter nos normes sociales.

Source : MIT Technology Review

Voir aussi…