Le cerveau humain contient
100.000 millions de neurones qui, à leur tour, sont connectés les uns aux
autres par plus d'un billion de connexions. Par ces connexions, les neurones
transmettent des impulsions électriques entre d’autres neurones connectés au
même réseau par des impulsions nerveuses.
Ce fonctionnement du
cerveau, basé sur les connexions entre différents neurones, a été transféré au
domaine de l'ingénierie à travers le paradigme des réseaux de neurones, un
paradigme de l'intelligence artificielle qui traite de l'auto-apprentissage
d'un système par l'application de certaines impulsions d’entrée.
Les meilleurs algorithmes
d'intelligence artificielle disposent déjà d'un programme simulant le cerveau,
appelé réseaux de neurones simulés, qui repose sur un traitement parallèle
permettant de reconnaître des modèles dans les données, notamment des objets
dans des images et des mots spécifiques dans des discours.
Loi de Moore
La loi de Moore stipule
que le nombre de transistors dans un microprocesseur est doublé tous les deux
ans environ. Il a été conçu par Gordon E. Moore, cofondateur d’Intel, en avril
1965.
Bien que la loi ait été
formulée à l’origine pour établir que la duplication serait faite chaque année,
Moore a ensuite redéfini sa loi et prolongé la période à deux ans.
Actuellement, cette loi
s'applique aux ordinateurs personnels et aux téléphones cellulaires. Cependant,
lors de sa formulation, il n’existait pas de microprocesseurs –inventés en 1971 – d’ordinateurs personnels popularisés dans les années 80 et la téléphonie
cellulaire ou mobile en était seulement au stade expérimental.
En plus de prévoir
l'augmentation de la complexité des puces (mesurée par les transistors contenus
dans une puce informatique), la loi de Moore suggère également une réduction
des coûts. Les microprocesseurs d'aujourd'hui sont partout, des jouets aux feux
de circulation.
Ce qui a rendu possible
cette explosion spectaculaire de la complexité du circuit, c’est la taille réduite des transistors pendant des
décennies. Les caractéristiques des transistors mesurant moins d’un micron ont
été atteintes au cours des années 1980, lorsque les puces DRAM (Dynamic Random
Access Memory) ont commencé à offrir des capacités de stockage en mégaoctets.
À l'aube du XXIe siècle,
ces caractéristiques avaient une largeur de 0,1 micron, ce qui permettait la
fabrication de puces de mémoire giga-octets et de microprocesseurs fonctionnant
à des fréquences de giga hertz. La loi de Moore s'est poursuivie au cours de la
deuxième décennie du 21e siècle avec l'introduction de transistors
tridimensionnels de plusieurs dizaines de nanomètres.
La loi de Moore n'est pas
une loi au sens scientifique, mais plutôt une observation et a jeté les bases
de grands progrès. Cette règle simple a guidé toutes les avancées de la
révolution technologique pendant plus d'un demi-siècle et continue de définir
les limites croissantes de la technologie actuelle, nous permettant de prendre
des concepts tels que l'intelligence
artificielle et les véhicules autonomes, et de les concrétiser.
Parce que la loi de Moore
suggère une croissance exponentielle, il est peu probable qu'elle continue
indéfiniment. Certaines études ont montré que des limitations physiques
pourraient être atteintes en 2018.
Apprentissage en profondeur
Ce type d'apprentissage
automatique est à l'origine de la technologie "intelligente" et va
des logiciels de reconnaissance vocale et d'image aux voitures autonomes. Les
avancées obtenues dans les domaines de l'apprentissage en profondeur et de la
robotique conduiront bientôt à la création d'une technologie de traitement des
images médicales capable de créer des diagnostics fiables, des drones pilotés
seuls ainsi que des machines et infrastructures de tous types soumis à une
maintenance automatique.
Les principes
mathématiques qui forment la base de l’apprentissage en profondeur sont
relativement simples, mais combinés à d’énormes quantités de données
d’apprentissage et de systèmes informatiques exécutant plusieurs opérations en
parallèle, cette technique a permis de
grandes avancées ces dernières années, notamment dans les domaines de la
reconnaissance vocale et des images.
*
* *
Les scientifiques
construisent un simulateur de cerveau avec des processeurs ARM
Une équipe de
scientifiques de l'Université de Manchester a commencé
à travailler, en juillet 2011, sur un
modèle de cerveau humain, basé
sur le paradigme des réseaux de neurones, qui permet aux experts
d'autres disciplines de mieux comprendre le fonctionnement du cerveau et servir
de banc d’essai pour les travaux liés à l’intelligence artificielle.
À cette fin, ils ont
construit un modèle à l'échelle (représentant 1% du cerveau) utilisant des processeurs ARM – qui
agiraient comme des neurones – et qui se connecteraient les uns aux autres en
imitant les connexions des neurones du cerveau et en formant ce qu'on appelle
le Spiking Neural Network architecture ou SpiNNaker.
Ce modèle réduit est constitué d’un million de processeurs
ARM, jouant le rôle de neurones, comme d’unités de traitement "simples",
mais, là où réside réellement la puissance de ce système informatique, c’est
précisément dans les connexions qui s’établissent entre ces neurones, où à chaque
connexion est attribué un poids qui sert à amplifier l'excitation reçue de
ladite connexion.
La plus grande complexité
des réseaux de neurones réside dans les connexions, par conséquent, augmenter la capacité de traitement du
neurone permet que ce modèle à échelle et réduit soit beaucoup plus
puissant et, en outre, simplifie
considérablement le nombre de connexions à mettre en place entre les millions
de processeurs.
SpiNNaker vise à créer un
modèle du système intelligent définitif, le cerveau humain. Ils ne savent pas
comment le cerveau fonctionne en tant que système de traitement de
l'information, quelque chose dont ils ont besoin de savoir. Ils espèrent que leur
machine permettra une avancée significative vers la réalisation de cet
objectif. En fin de compte, ce système pourrait être d'une grande aide pour les
personnes qui ont présenté des problèmes de lecture après un accident
vasculaire cérébral ou une lésion cérébrale. Dans le domaine de la psychologie,
les réseaux de neurones ont déjà été utilisés pour reproduire des pathologies
cliniques.
Il faut plus de 80.000
processeurs pour simuler 1 seconde d'activité du cerveau humain
L’Institut technologique
de l'Université d'Okinawa et l'équipe allemande du centre Forschungs Jülich
ont réalisé, en août 2013, un
test simulant le fonctionnement du
cerveau humain pendant une seconde. Ils avaient besoin d'un ordinateur
d'une puissance incroyable, autant pour faire fonctionner 82.944 processeurs pendant 40 minutes, y compris
l'ordinateur K, le quatrième super ordinateur
le plus puissant au monde situé à Kobe (Japon).
Cette simulation a été
rendue possible grâce au logiciel à code source ouvert NEST qui a permis la création d’un réseau de neurones
artificiels de 1.730 millions de cellules connectées par 10.400 millions de synapses.
Ces réseaux, bien qu’ils
puissent sembler impressionnants, ne représentent qu’une fraction des neurones
contenus dans un cerveau humain, où
l'on estime qu'il existe entre 80 et 100 milliards de cellules nerveuses,
soit autant que toutes les étoiles de la Voie Lactée.
Ceci explique
l'impossibilité de simuler le fonctionnement du cerveau humain en temps réel et
la nécessité de ces 40 minutes de traitement par 82.944 processeurs, qui
avaient besoin d'un péta-octet de mémoire pour modéliser chaque synapse
individuellement.
Un circuit basé sur le
cerveau est 9.000 fois plus rapide qu'un PC – Neurogrid
Des bio-ingénieurs de
l'Université de Stanford ont conçu un ensemble de processeurs en
avril 2014, dont l'architecture s'inspire de celle du cerveau humain. Neurogrid
est environ 9.000 fois plus rapide qu'un PC conventionnel et beaucoup plus
efficace du point de vue énergétique.
Ce n'est pas la première fois
que des scientifiques tentent de recréer le fonctionnement du cerveau humain au
moyen de composants électroniques. Même le cerveau d'une simple souris est doté
d'une capacité de traitement supérieure à celle des ordinateurs que nous gérons
au quotidien.
Dans le cas de cette
nouvelle puce, l’équipe de Stanford a conçu une carte mère dotée de 16
neuro-puces spécialement conçues, capable d’émuler un million de neurones et
des milliards de connexions synaptiques. Le système est 100.000 fois plus
efficace du point de vue de la consommation d'énergie qu'un ordinateur
exécutant une simulation d'un million de neurones basée sur un logiciel.
L'ensemble est très
difficile à programmer. Il est nécessaire de connaître le fonctionnement du
cerveau pour pouvoir programmer le dispositif. Le prochain objectif est
précisément de créer un neuro-compilateur qui permette au programmeur de
travailler avec un code plus conventionnel sans avoir à connaître les synapses
et les neurones.
L'architecture qui simule
le cerveau de Neurogrid n'est pas occasionnelle. Son premier objectif est de
devenir le contrôleur d'une nouvelle génération d'implants robotiques pour les
personnes souffrant de paralysie. À l'avenir, cependant, il pourrait être
utilisé pour des applications plus conventionnelles.
Chacun des 16 noyaux
simulant 65.536 neurones a été fabriqué de manière quasi artisanale et avec des
méthodes de production datant de 15 ans. L'application des techniques actuelles
de production de processeurs permettrait de réduire d'environ 100 fois les
coûts de production.
TrueNorth – Un processeur IBM simule un réseau
d'un million de neurones
La nouvelle puce IBM
créée en août 2014 va encore plus loin dans l'objectif de créer un processeur
capable de simuler le fonctionnement du cerveau humain. Elle a la taille d'un
timbre-poste, mais à l'intérieur se cache l'équivalent d'un million de neurones
avec 256 millions de connexions synaptiques programmables. TrueNorth est un
saut quantitatif impressionnant par rapport à la première version, d’un seul
noyau neuro-synaptique, ce projet a été passé à 4.096 noyaux.
Malgré tout, les chiffres
sont risibles comparés à ceux d'un cerveau humain. Seulement dans le cortex
cérébral, nous avons entre 15.000 et 33.000 millions de neurones. Chaque
millimètre cube de cortex cérébral contient environ 1 milliard de synapses.
Au début de 2014, IBM a
testé sa puce sur un nouvel ordinateur appelé NS16e, qui suit le modèle du
cerveau et permet de vérifier comment l'équipement pourrait être utilisé pour
la reconnaissance de la parole et des
modèles grâce au réseau neuronal d'unités de traitement. La puce
pourrait identifier et reconnaître les motifs des images générées par près
d’une centaine de caméras à 24 images par seconde à partir d’un téléphone
portable sans avoir à recharger la batterie pendant plusieurs jours.
Le défi de l'informatique
cognitive est encore loin, mais cela n'enlève rien au mérite de TrueNorth et
démontre en fait la puissance de cette architecture pour l'avenir. Il sera
particulièrement utile pour développer des dispositifs dans lesquels un
fonctionnement similaire à celui du cerveau humain est important. TrueNorth
peut être le cerveau de toute une future génération de dispositifs utilisables,
d’appareils mobiles ou d’implants robotiques.
Intel parvient à intégrer
un réseau neuronal sur une puce de silicium
La société a présenté une
puce neuro-morphique, en janvier 2018, qui simule le fonctionnement du cerveau
humain en utilisant une puissance de calcul inférieure à celle requise pour
démarrer un ordinateur.
La puce est capable
d'apprendre à reconnaître des objets dans des images capturées par une webcam. Ce
fait n'a rien de spécial, sauf qu'il utilise
environ un millième de la puissance nécessaire à un processeur conventionnel.
Le dispositif, appelé
Loihi, mis à l'essai au Consumer Electronics Show (CES) de Las Vegas, simule de manière simplifiée le
fonctionnement des neurones et des synapses du cerveau.
Les puces neuro-morphiques
enregistrent le fonctionnement des
réseaux de neurones dans le silicium. Ce sont des processeurs moins
flexibles et puissants que ceux destinés à d’autres utilisations, mais étant
spécialisés dans cette tâche, ils sont plus efficaces en énergie et conviennent
parfaitement aux appareils mobiles, aux véhicules et aux équipements
industriels.
L’idée des puces neuro-morphiques
existe depuis des décennies, mais jusqu’à présent, elle n’était pas préparée à
trouver son créneau commercial. Dans l’ensemble du secteur des technologies,
les progrès de l’intelligence artificielle ont inspiré de nouvelles recherches
sur le hardware visant à utiliser plus efficacement les algorithmes
d’apprentissage automatique. Le plus
grand défi des puces neuro-morphiques dans le passé était de les transformer à
plus grande échelle.
Cette puce fait partie de
la tentative d'Intel de se réinventer. La société ne peut plus compter sur des
processeurs de plus en plus rapides alors que la Loi de Moore a heurté en plein
avec la Loi de la physique.
Au cours du CES, la
société a également annoncé la construction d’une nouvelle puce d’informatique
quantique, qui exploite les règles étranges et merveilleuses de la physique quantique
pour effectuer certains types de calculs avec une rapidité incroyable. Intel a
seulement révélé qu'elle s'appelait
Tangle Lake et qu'elle contient 49 qubits, sans toutefois indiquer sa fiabilité
ou sa stabilité. Malgré ces avancées, on ne sait toujours pas comment
ces processeurs quantiques pourraient être utilisés, au-delà de certaines
applications telles que le déchiffrement des codes et la modélisation
automatisée. Le qubit est l'analogue quantique du bit en informatique.
IBM annonce un ordinateur
quantique de 50 qubits mais ne dit pas comment cela fonctionne
IBM a annoncé en novembre
2017 un ordinateur quantique capable de
gérer 50 bits quantiques, ou qubits. La société travaille également sur
un système de 20 qubits qu'elle proposera via sa plate-forme de cloud
computing. Le système serait le plus avancé du genre, mais la société n’a
publié aucun détail sur son fonctionnement.
Grâce à la capacité de ces
machines à tirer parti de la nature et des propriétés exotiques de la physique
quantique, elles sont en mesure de traiter les informations de manière
totalement différente de celle des ordinateurs traditionnels.
Mais l'annonce ne signifie
pas que l'informatique quantique est prête à être utilisée massivement. Le nouveau
système IBM reste extrêmement délicat et son utilisation constitue un défi.
Dans les ordinateurs quantiques de 50 et 20 qubits, l’état quantique n’est maintenu que pendant 90 microsecondes. Bien
que ce chiffre soit un record pour l’industrie, c’est très peu de temps pour
faire quelque chose d’utile.
Même dans ce cas, la
combinaison des 50 qubits est une étape importante dans le chemin vers les
ordinateurs quantiques pratiques. Une machine
de 50 qubits peut faire des choses extrêmement difficiles à simuler sans
technologie quantique.
Alors que les ordinateurs
traditionnels stockent des informations sous forme de 1 et de zéro, les ordinateurs quantiques exploitent deux
phénomènes quantiques pour traiter les informations différemment :
l'intrication et le chevauchement.
Récemment, l’équipe IBM a
suggéré que des astuces mathématiques ingénieuses permettent de simuler des
systèmes quantiques dépassant 50 qubits. Cela voudrait dire que la suprématie
quantique est une cible mouvante, du moins pour le moment. Mais cela ne change
pas le fait que les ordinateurs
quantiques se rapprochent chaque jour pour être prêts à atteindre le grand
public.
Les qubits
supraconducteurs de Google pourraient être sur le point d'atteindre la
suprématie quantique
Des chercheurs de
l'Université de Californie à Santa Barbara, Charles Neill et de Google, Pedram
Roushan, affirment qu'ils savent comment atteindre la
suprématie quantique et ont démontré
avec succès pour la première fois une validation de principe de la machine.
Leur travail soulève la possibilité qu'il ne reste que quelques mois pour la
première démonstration de la suprématie quantique.
La nouvelle recherche de
Google (octobre 2017) démontre un système stable de neuf qubits avec une
superposition quantique supraconductrice dont les erreurs n'augmentent pas de
manière exponentielle. S'ils parviennent à grimper à 49 qubits, ils auront
atteint la suprématie de l'ordinateur quantique.
La grande promesse de
l'informatique quantique réside dans la possibilité d'effectuer des calculs
d'une complexité telle qu'elle ne peut être assumée par les ordinateurs
classiques. Les physiciens savent depuis quelque temps qu'un ordinateur quantique de seulement 50 qubits
pourrait vaincre même les plus puissants super ordinateurs du monde.
Mais dépasser les limites
de l'informatique conventionnelle et atteindre la suprématie quantique, comme
l'appellent les physiciens, est plus
difficile que prévu. Les états
quantiques sont très délicats : un éternuement et ils disparaissent.
Pour cette raison, les physiciens sont embourbés par les difficultés pratiques
d’isoler les ordinateurs quantiques et leurs machines de traitement du monde
extérieur.
Mais il peut exister une
autre façon de démontrer la suprématie quantique qui n'exige pas qu'un
ordinateur quantique général exécute plusieurs algorithmes quantiques. Au lieu
de cela, les physiciens ont commencé à
jouer avec des systèmes quantiques centrés sur une tâche unique. S’ils peuvent
prouver que cette tâche dépasse la capacité de n'importe quel ordinateur
conventionnel, ils auront alors démontré la suprématie quantique pour la
première fois. Ce qui n'est pas clair, c'est comment le faire.
Le grand avantage des qubits
par rapport aux bits ordinaires est qu’ils peuvent exister dans une superposition
d’états. Ainsi, alors qu'un bit ordinaire peut être un 1 ou un 0, un qubit peut
être un 1 et un 0 en même temps. Cela signifie que deux qubits peuvent
représenter quatre nombres en même temps, trois qubits peuvent représenter huit
nombres et, neuf qubits, 512 nombres simultanément. En d'autres termes, leur capacité augmente de manière
exponentielle.
C'est pourquoi on n’a pas
besoin de beaucoup de qubits pour vaincre les ordinateurs classiques. Avec seulement 50 qubits, 10.000.000.000.000.000
nombres peuvent être représentés. Un ordinateur classique aurait besoin
de l'ordre d'un péta-octet de mémoire pour stocker ce nombre.
Donc, un moyen d’atteindre
la suprématie quantique est de créer un système pouvant supporter 49 qubits
dans une superposition d’états. Ce système n'a pas besoin d'effectuer de
calculs complexes, il doit seulement être capable d'explorer de manière fiable
tout l'espace d'une superposition de 49 qubits.
Les qubits sont des objets
quantiques pouvant exister dans deux états à la fois, et il y a plusieurs
façons de les faire. Par exemple : les photons peuvent être polarisés à la
fois verticalement et horizontalement ; les noyaux atomiques peuvent
tourner avec leur axe en même temps ; les électrons peuvent voyager en
même temps sur deux trajectoires. Les physiciens expérimentent tous ces
systèmes pour l'informatique quantique.
Neill et Roushan ont
choisi un autre itinéraire. Leur
système quantique est basé sur un qubit supraconducteur. Il s’agit
essentiellement d’une boucle métallique refroidie à basse température. Si un
courant circulant dans cette boucle est établi, il circulera pour toujours ;
un phénomène quantique appelé supra conductivité.
Cette nature quantique
permet une petite astuce : le
courant peut circuler dans une direction et dans l’autre en même temps.
Et c’est ce qui lui permet d’agir comme un qubit pouvant à la fois représenter
un 0 et un 1.
Le grand avantage des qubits supraconducteurs est qu'ils sont
relativement faciles à contrôler et à mesurer. Ils peuvent également
être liés si plusieurs boucles sont placées côte à côte sur une puce. Cette
liaison entre voisins est plus difficile et nécessite une autre astuce. Le
courant dans une direction ou une autre n’est qu’une configuration à faible consommation
d’énergie. Mais il est possible d'ajouter plus d'énergie et d'autres états. Ce
sont ces états d'énergie plus élevés qui peuvent interagir les uns avec les
autres, créant ainsi des superpositions plus grandes. De cette manière, les
boucles voisines peuvent partager un état beaucoup plus complexe.
L’expérience de validation
de principe réalisée par Neill, Roushan et leurs collaborateurs consiste à
fabriquer une puce à neuf boucles
voisines et à montrer que les qubits supraconducteurs qu’ils supportent peuvent
représenter 512 nombres simultanément. Ce n'est pas tout à fait le
nombre de qubits nécessaires à la suprématie quantique, mais l'expérience
semble suggérer que ce sera possible.
La grande peur des
physiciens est que ce ne soient pas seulement les nombres mais aussi les
erreurs qui augmentent de façon exponentielle dans ces systèmes
quantiques. Si les erreurs augmentent trop rapidement, elles inonderont le
système, rendant la suprématie quantique impossible. Le résultat clé de cette
expérience est de montrer que les erreurs ne s’échelonnent pas rapidement dans
ces puces supraconductrices. Les recherches
montrent plutôt que les erreurs
augmentent lentement, de manière à permettre un chevauchement important
allant jusqu'à 60 qubits.
C'est un travail
intéressant. Il est clairement suggéré que la suprématie quantique devrait être possible avec une puce comportant 50
boucles supraconductrices au lieu de neuf. Une puce de 50 qubits ne sera
possible que si les erreurs continuent à augmenter comme le montre la recherche.
Et cela soulève une question importante. L'équipe indique que les erreurs
augmentent lorsque le nombre de qubits passe de cinq à neuf. Mais les erreurs seront-elles redimensionnées de
la même manière si les qubits passent de neuf à 50 ?
S'ils ne le font pas, la
suprématie quantique est encore loin. Mais s’ils y parviennent, cette équipe espère proclamer la suprématie
quantique dans les mois à venir. Donc, Neill, Roushan et leur équipe
vont travailler dur pour répondre à cette question.
* *
*
L'intelligence
artificielle doit expliquer son fonctionnement
Aussi bonnes que soient
les prédictions d'un apprentissage en profondeur, personne ne sait comment il
parvient à ses conclusions. Ce fait commence à générer un problème de confiance
et les outils pour le résoudre n’aident pas beaucoup. Mais peut-être est-ce la
nature de l'intelligence elle-même.
La technologie
d'intelligence artificielle connue sous le nom d'apprentissage en profondeur a
très bien réussi à résoudre les problèmes ces dernières années et elle est de
plus en plus utilisée pour des tâches telles que la génération de sous-titres,
la reconnaissance de la voix et la traduction de langues. Ces mêmes techniques
pourraient devenir capables de diagnostiquer
des maladies mortelles, de prendre des décisions boursières de plusieurs
millions de dollars et de transformer des industries entières.
Mais cela ne se produira
(ou ne devrait pas) à moins que des techniques telles que l'apprentissage en
profondeur soient plus compréhensibles
pour leurs créateurs et responsables vis-à-vis des utilisateurs. Sinon,
il sera difficile de prédire quand des défaillances pourraient se produire,
lesquelles sont inévitables.
Il existe déjà des
arguments selon lesquels la capacité d'interroger un système d'intelligence
artificielle sur la manière dont il est parvenu à ses conclusions constitue un droit juridique fondamental. À
compter de l'été 2018, l'Union européenne pourrait obliger les entreprises à
donner à leurs utilisateurs une réponse aux décisions prises par les systèmes
automatisés. Cela peut s'avérer
impossible, même pour des systèmes apparemment simples, tels que des applications
et des pages Web qui utilisent l'apprentissage en profondeur pour afficher des annonces
et recommander des chansons. Les ordinateurs qui exploitent ces services se
sont auto programmés et nous ne savons même pas comment. Même les ingénieurs
qui développent ces applications ne sont pas en mesure d’expliquer leur
comportement.
L'intelligence
artificielle n'a pas toujours été comme ça. Depuis le début, il y a eu deux
courants de pensée sur ce qui devrait être compréhensible ou explicable.
Beaucoup pensaient qu'il était logique de développer des machines qui
raisonnent selon des règles et une logique, ce qui rendrait transparent son
fonctionnement interne pour quiconque souhaitait examiner le code. D'autres ont
estimé que l'intelligence progresserait davantage si les machines étaient
inspirées de la biologie et apprises par l'observation et l'expérience. Cela
impliquait d'inverser la programmation informatique. Au lieu d’un programmeur
écrivant les commandes pour résoudre un problème, le programme génère son
propre algorithme en fonction des données exemple et du résultat souhaité. Les
techniques d’apprentissage automatique qui ont évolué pour devenir les systèmes d’intelligence artificielle les
plus puissants aujourd’hui ont suivi la deuxième voie : la machine est en
fait auto programmée.
Au début, cette approche
n’avait pas beaucoup d’applications et, dans les années 60 et 70, elle occupait
toujours la périphérie du terrain. Ensuite, l’informatisation de nombreuses industries et l’arrivée du big data
ont suscité un regain d’intérêt. Cela a inspiré le développement de
techniques d’apprentissage automatique plus puissantes, en particulier de
nouvelles versions d’une technique appelée réseau neuronal artificiel. À la fin
des années 90, les réseaux de neurones pouvaient numériser automatiquement les
caractères manuscrits.
Mais ce n’est que jusqu’au
début de cette décennie, après plusieurs ajustements et raffinements ingénieux,
que de très grands réseaux neuronaux, ou "profonds", ont commencé à
offrir des améliorations drastiques de la perception automatisée. L'apprentissage en profondeur est responsable
de l'explosion actuelle de l'IA. Il a doté les ordinateurs de pouvoirs
extraordinaires, tels que la capacité de reconnaître les mots parlés presque
aussi bien que toute personne, quelque chose de trop complexe pour être codé à
la main. L'apprentissage en profondeur a transformé la vision des machines et
considérablement amélioré la traduction automatisée. Il contribue déjà à
prendre toutes sortes de décisions clés dans les domaines de la médecine, des
finances, de la fabrication et bien plus encore.
Le fonctionnement de toute
technologie d’apprentissage automatique est intrinsèquement plus opaque qu’un
système codé à la main, même pour les informaticiens. Cela ne signifie pas que
toutes les futures techniques d'IA seront également impossibles à comprendre.
Mais, par nature, l'apprentissage en profondeur est une boîte noire
particulièrement sombre.
Il est tout simplement
impossible d'entrer dans les profondeurs d'un réseau neuronal profond pour voir
comment cela fonctionne. Son
raisonnement est enraciné dans le comportement de milliers de neurones simulés,
disposés en dizaines voire en centaines de couches interconnectées de manière
complexe. Les neurones de la première couche reçoivent des informations, telles
que l'intensité d'un pixel dans une image, puis effectuent un calcul avant
d'émettre un nouveau signal. Ces signaux alimentent les neurones de la couche
suivante d'un réseau complexe, et ainsi de suite jusqu'à ce qu'ils génèrent un
résultat final. En outre, il existe un processus connu sous le nom de
propagation en arrière qui ajuste les calculs de neurones individuels afin que
le réseau apprenne à produire le résultat souhaité.
Les multiples couches d'un
réseau profond lui permettent de reconnaître
des choses à différents niveaux d'abstraction. Dans un système conçu
pour reconnaître les chiens, par exemple, les premières couches reconnaissent
des éléments très fondamentaux tels que les contours et les couleurs ; les
couches suivantes reconnaissent des choses plus complexes comme les cheveux ou
les yeux ; et les couches supérieures complètent les objets, comme un
chien. La même approche peut s’appliquer à d’autres domaines qui permettent aux
machines de s’enseigner elles-mêmes : les sons qui composent les mots dans
la parole, les lettres et les mots qui génèrent des phrases dans un texte ou
les mouvements du volant nécessaires à la conduite.
Mais nous ne pouvons pas nous contenter d'une
vision approximative du fonctionnement de l'intelligence artificielle,
et il semble qu'il n'y ait pas de solutions faciles. L'interaction des calculs
au sein d'un réseau neuronal profond est essentielle pour reconnaître des
modèles et prendre des décisions complexes au plus haut niveau. Mais ces
calculs sont un marais de fonctions et de variables mathématiques. Nous sommes encore loin d'avoir une IA
réellement interprétable.
Connaître le raisonnement
de l'IA sera également essentiel si la technologie aspire à faire partie de la
vie quotidienne des gens.
De même que de nombreux
aspects du comportement humain sont impossibles à expliquer en détail,
l'intelligence artificielle peut ne pas être en mesure d'expliquer tout ce
qu'elle fait.
Dans un tel cas, il
pourrait arriver un moment où nous devrions décider de faire aveuglément
confiance à l'IA ou d'en abandonner l'utilisation. De même, cette même décision
devra intégrer l’intelligence sociale. Tout comme la société est construite sur
une base de comportements acceptables, nous devrons concevoir des systèmes d’IA pour respecter et adapter nos normes sociales.
Source : MIT Technology Review
Voir aussi…
Aucun commentaire:
Enregistrer un commentaire