View
103
Download
0
Category
Preview:
Citation preview
Intelligence Artificielle Neuro-inspiréeProjet Br.A.In.
Nicolas Farrugia
Br.A.In.
2 mars 2017
Travail avec Vincent Gripon
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 1 / 20
Br.A.In.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 2 / 20
Br.A.In.
Brain-inspiredArtificialIntelligence
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 2 / 20
Br.A.In.
Imagerie cérébrale
Réseaux de Neu-rones Artificiels
Traitementdu Signal etdes Images
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 2 / 20
Plan
1 Intelligence ArtificielleDéfinitionLa révolution artificielleIntelligence artificielle vs. intelligence naturelleL’apprentissage profond et ses limites
2 Apprentissage versus StockageCalcul vs. informationCodage correcteur d’erreursMémoires associatives
3 Neuroimagerie et Intelligence artificielleRéseaux de neurones profonds et perception visuelleI.A. et encodage du langage
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 2 / 20
L’intelligence artificielle : définition
L’intelligence d’un algorithmeOn qualifie d’intelligent un algorithme qui, une fois programmé, estincapable de répondre au problème pour lequel il a été conçu. C’estpar l’observation et/ou la manipulation qu’il acquiert sa fonctionalité.
ExempleUn algorithme qui calcule l’hypoténuse à partir des deux autreslongueurs d’un triangle rectangle n’est pas “intelligent”,Un algorithme qui découvre par lui-même la relation et estcapable de généraliser à partir d’exemples données est qualifiéd’“intelligent”.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 3 / 20
L’intelligence artificielle : définition
L’intelligence d’un algorithmeOn qualifie d’intelligent un algorithme qui, une fois programmé, estincapable de répondre au problème pour lequel il a été conçu. C’estpar l’observation et/ou la manipulation qu’il acquiert sa fonctionalité.
ExempleUn algorithme qui calcule l’hypoténuse à partir des deux autreslongueurs d’un triangle rectangle n’est pas “intelligent”,Un algorithme qui découvre par lui-même la relation et estcapable de généraliser à partir d’exemples données est qualifiéd’“intelligent”.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 3 / 20
Apprentissage supervisé et non supervisé
L’apprentissageApprendre, c’est généraliser (6= mémoriser),
Apprentissage superviséRégression,Nécessite un expert,Débouche sur des tasd’applications :
Jouer à un jeu,Reconnaître des formes,Résoudre un exercice demaths...
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 4 / 20
Apprentissage supervisé et non supervisé
L’apprentissageApprendre, c’est généraliser (6= mémoriser),
Apprentissage superviséRégression,Nécessite un expert,Débouche sur des tasd’applications :
Jouer à un jeu,Reconnaître des formes,Résoudre un exercice demaths...
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 4 / 20
Apprentissage supervisé et non supervisé
L’apprentissageApprendre, c’est généraliser (6= mémoriser),
Apprentissage superviséRégression,Nécessite un expert,Débouche sur des tasd’applications :
Jouer à un jeu,Reconnaître des formes,Résoudre un exercice demaths...
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 4 / 20
Apprentissage supervisé et non supervisé
L’apprentissageApprendre, c’est généraliser (6= mémoriser),
Apprentissage non-superviséPartitionnement,Nécessite une échellespatiale,Pour beaucoup, c’est le “vrai”support de l’intelligence :
Représentation du monde,langage,Compression,Source d’hypothèses. . .
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 4 / 20
Apprentissage supervisé et non supervisé
L’apprentissageApprendre, c’est généraliser (6= mémoriser),
Apprentissage non-superviséPartitionnement,Nécessite une échellespatiale,Pour beaucoup, c’est le “vrai”support de l’intelligence :
Représentation du monde,langage,Compression,Source d’hypothèses. . .
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 4 / 20
Des algorithmes intelligents pour quoi faire ?
La révolution artificielleÉcho à la révolution industrielle,Automatisation du travail intellectuel pénible,Réduction des inégalités (médecine, confort, vieillissement...).
La singularitéNouveaux outils pour traiter/trier les informations,Écart immense biologique et électronique,Aller au delà des limites de l’homme biologique.
Les post-mathématiquesL’automatisation de preuves,Le multi-agents et la simulation informatique,La complémentarité mathématiques discrètes/continues.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 5 / 20
Des algorithmes intelligents pour quoi faire ?
La révolution artificielleÉcho à la révolution industrielle,Automatisation du travail intellectuel pénible,Réduction des inégalités (médecine, confort, vieillissement...).
La singularitéNouveaux outils pour traiter/trier les informations,Écart immense biologique et électronique,Aller au delà des limites de l’homme biologique.
Les post-mathématiquesL’automatisation de preuves,Le multi-agents et la simulation informatique,La complémentarité mathématiques discrètes/continues.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 5 / 20
Des algorithmes intelligents pour quoi faire ?
La révolution artificielleÉcho à la révolution industrielle,Automatisation du travail intellectuel pénible,Réduction des inégalités (médecine, confort, vieillissement...).
La singularitéNouveaux outils pour traiter/trier les informations,Écart immense biologique et électronique,Aller au delà des limites de l’homme biologique.
Les post-mathématiquesL’automatisation de preuves,Le multi-agents et la simulation informatique,La complémentarité mathématiques discrètes/continues.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 5 / 20
Intelligence artificielle et intelligence naturelle
Quelle est la couleur du chevalblanc d’Henri IV ?
∫ √3
0x3(1+ x2)dx
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 6 / 20
Intelligence artificielle et intelligence naturelle
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 6 / 20
Intelligence artificielle et intelligence naturelle
Il n’y a qu’un seul modèle duquel s’inspirer : le cerveau.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 6 / 20
Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Non linéarités
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
Paramètres
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
“How to grow a mind: statistics, structure, and abstraction”, Science, 2011.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
“How to grow a mind: statistics, structure, and abstraction”, Science, 2011.
“Intriguing properties of neural networks”, Arxiv research report, 2013.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
Les réseaux de neurones profonds
Entrée x Sortie y
y = f (W4 · f (W3 · f (W2 · f (W1 · x))))
“How to grow a mind: statistics, structure, and abstraction”, Science, 2011.
“Intriguing properties of neural networks”, Arxiv research report, 2013.Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
Plan
1 Intelligence ArtificielleDéfinitionLa révolution artificielleIntelligence artificielle vs. intelligence naturelleL’apprentissage profond et ses limites
2 Apprentissage versus StockageCalcul vs. informationCodage correcteur d’erreursMémoires associatives
3 Neuroimagerie et Intelligence artificielleRéseaux de neurones profonds et perception visuelleI.A. et encodage du langage
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20
Mémoire et calcul
Mémoire et calculs doivent-ils être. . .Séparés. . . ou inextricablement liés ?
Memory
Processing unit
Control unit
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 8 / 20
Le schéma de Shannon appliqué au cerveau
Perception Mémoire
Monde extérieurriche et exubérant
Codagede sourceSuppression dela redondancenaturelle
Addition deredondanceartificielle
Codagede canal
Information mentale,parcimonieuse etrobuste
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 9 / 20
Le mystère du stockage de l’information mentale
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20
Le mystère du stockage de l’information mentale
Le rêve est un jambon, lourd,qui pend au plafond
Victor Hugo
e i π + 1 = 0
8× 7 = 56
02 29 00 12 77
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20
Le mystère du stockage de l’information mentale
Le rêve est un jambon, lourd,qui pend au plafond
Victor Hugo
e i π + 1 = 0
8× 7 = 56
02 29 00 12 77
1 neurone perduchaque seconde
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20
Le mystère du stockage de l’information mentale
Le rêve est un jambon, lourd,qui pend au plafond
Victor Hugo
e i π + 1 = 0
8× 7 = 56
02 29 00 12 77
1 neurone perduchaque seconde
10% pendantune vie
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20
Le mystère du stockage de l’information mentale
1 neurone perduchaque seconde
10% pendantune vie
Le ? est un jambon, ?, qui pend au ?
?
e ?π + 1 =?
8× 7 =?
02 29 00 ?2 77
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20
Le mystère du stockage de l’information mentale
1 neurone perduchaque seconde
10% pendantune vie
Le ? est un jambon, ?, qui pend au ?
?
e ?π + 1 =?
8× 7 =?
02 29 00 ?2 77
La mémoire à long terme est robuste...et donc nécessairement redondante
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20
Un code neural distribué
Code distribué :1 Assemblage de règles simples,2 Chaque règle couvre plusieursmémoires,
3 Chaque mémoire est couverte parplusieurs règles,
4 Permet un décodage itératif.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
Un code neural distribué
Code distribué :1 Assemblage de règles simples,2 Chaque règle couvre plusieursmémoires,
3 Chaque mémoire est couverte parplusieurs règles,
4 Permet un décodage itératif.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
Un code neural distribué
Code distribué :1 Assemblage de règles simples,2 Chaque règle couvre plusieursmémoires,
3 Chaque mémoire est couverte parplusieurs règles,
4 Permet un décodage itératif.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
Un code neural distribué
Code distribué :1 Assemblage de règles simples,2 Chaque règle couvre plusieursmémoires,
3 Chaque mémoire est couverte parplusieurs règles,
4 Permet un décodage itératif.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
Un code neural distribué
Code distribué :1 Assemblage de règles simples,2 Chaque règle couvre plusieursmémoires,
3 Chaque mémoire est couverte parplusieurs règles,
4 Permet un décodage itératif.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
Un code neural distribué
Code distribué :1 Assemblage de règles simples,2 Chaque règle couvre plusieursmémoires,
3 Chaque mémoire est couverte parplusieurs règles,
4 Permet un décodage itératif.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
Un code neural distribué
Code distribué :1 Assemblage de règles simples,2 Chaque règle couvre plusieursmémoires,
3 Chaque mémoire est couverte parplusieurs règles,
4 Permet un décodage itératif.
e i π + 1 = 0
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
Un code neural distribué
Code distribué :1 Assemblage de règles simples,2 Chaque règle couvre plusieursmémoires,
3 Chaque mémoire est couverte parplusieurs règles,
4 Permet un décodage itératif.
e i π + 1 = 0e i π + 1 = 0
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
Un code neural distribué
Code distribué :1 Assemblage de règles simples,2 Chaque règle couvre plusieursmémoires,
3 Chaque mémoire est couverte parplusieurs règles,
4 Permet un décodage itératif.
e i π + 1 = 0
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
Un code neural distribué
Code distribué :1 Assemblage de règles simples,2 Chaque règle couvre plusieursmémoires,
3 Chaque mémoire est couverte parplusieurs règles,
4 Permet un décodage itératif.
e i π + 1 = 0
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
Un code neural distribué
Code distribué :1 Assemblage de règles simples,2 Chaque règle couvre plusieursmémoires,
3 Chaque mémoire est couverte parplusieurs règles,
4 Permet un décodage itératif.
e i π + 1 = 0
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
Un code neural distribué
Code distribué :1 Assemblage de règles simples,2 Chaque règle couvre plusieursmémoires,
3 Chaque mémoire est couverte parplusieurs règles,
4 Permet un décodage itératif.
e i π + 1 = 0En deux mots : parcimonie, compétition
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20
La redondance correctrice d’erreurs Hebbienne
` unités
c grappes
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
La redondance correctrice d’erreurs Hebbienne
` unités
c grappesLes cliques neurales pourstocker l’information men-tale :Nombre de combinaisonspossibles exponentiellementgrand,Redondance très forte,Utilisation optimale de lacapacité mémoire ,Robustesse compétitiveavec les meilleurs codescorrecteur d’erreurs.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
La redondance correctrice d’erreurs Hebbienne
` unités
c grappesLes cliques neurales pourstocker l’information men-tale :Nombre de combinaisonspossibles exponentiellementgrand,Redondance très forte,Utilisation optimale de lacapacité mémoire ,Robustesse compétitiveavec les meilleurs codescorrecteur d’erreurs.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
La redondance correctrice d’erreurs Hebbienne
` unités
c grappesLes cliques neurales pourstocker l’information men-tale :Nombre de combinaisonspossibles exponentiellementgrand,Redondance très forte,Utilisation optimale de lacapacité mémoire ,Robustesse compétitiveavec les meilleurs codescorrecteur d’erreurs.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
La redondance correctrice d’erreurs Hebbienne
` unités
c grappesLes cliques neurales pourstocker l’information men-tale :Nombre de combinaisonspossibles exponentiellementgrand,Redondance très forte,Utilisation optimale de lacapacité mémoire ,Robustesse compétitiveavec les meilleurs codescorrecteur d’erreurs.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
La redondance correctrice d’erreurs Hebbienne
` unités
c grappesLes cliques neurales pourstocker l’information men-tale :Nombre de combinaisonspossibles exponentiellementgrand,Redondance très forte,Utilisation optimale de lacapacité mémoire ,Robustesse compétitiveavec les meilleurs codescorrecteur d’erreurs.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
Plan
1 Intelligence ArtificielleDéfinitionLa révolution artificielleIntelligence artificielle vs. intelligence naturelleL’apprentissage profond et ses limites
2 Apprentissage versus StockageCalcul vs. informationCodage correcteur d’erreursMémoires associatives
3 Neuroimagerie et Intelligence artificielleRéseaux de neurones profonds et perception visuelleI.A. et encodage du langage
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20
Visualiser les réseaux de neurones profonds
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 13 / 20
Comprendre le codage neural
Prédire l’activité cérébraleIl s’agit de construire des modèles d’encodage permettant de prédirela réponse du cerveau.L’I.A. permet de construire de tels modèles,L’utilisation de Réseaux Profonds permet de valider leurplausibilité biologique.
ExemplesCorrespondance entre les premières couches d’un réseau profondde reconnaissance d’images,Encodage cérébral des catégories sémantiques.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 14 / 20
Comprendre le codage neural
Prédire l’activité cérébraleIl s’agit de construire des modèles d’encodage permettant de prédirela réponse du cerveau.L’I.A. permet de construire de tels modèles,L’utilisation de Réseaux Profonds permet de valider leurplausibilité biologique.
ExemplesCorrespondance entre les premières couches d’un réseau profondde reconnaissance d’images,Encodage cérébral des catégories sémantiques.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 14 / 20
Réseaux de neurones profonds et perception visuelle
“Seeing it all: Convolutional network layers map the function of the human visual system”, Neuroimage, 2016.Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 15 / 20
Réseaux de neurones profonds et perception visuelle
“Seeing it all: Convolutional network layers map the function of the human visual system”, Neuroimage, 2016.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 16 / 20
I.A. et encodage du langage
11
Nature, 2016
13/02/17
MCGILL BARBADOS WORKSHOP ON GRAPH
SIGNAL PROCESSING
LEARNING ENCODING MODELS USING
NEUROIMAGING
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 17 / 20
I.A. et encodage du langage
12
13/02/17
MCGILL BARBADOS WORKSHOP ON GRAPH
SIGNAL PROCESSING
LEARNING ENCODING MODELS USING
NEUROIMAGING
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 18 / 20
I.A. et encodage du langage
13
13/02/17
MCGILL BARBADOS WORKSHOP ON GRAPH
SIGNAL PROCESSING
LEARNING ENCODING MODELS USING
NEUROIMAGING
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 19 / 20
Conclusion
Inspirer l’I.A. grâce au cerveauDeux modèles importants pour l’I.A.Les réseaux de neurones profonds : extracteurs decaractéristiques d’images, mais comportent des limites,Les mémoires associatives comme un modèle de mémoire à longterme fiable.
Comprendre le cerveau grâce à l’I.A.Les réseaux de neurones profonds permettent de réinterpréter /confirmer la structure du cerveau,De nombreuses perspectives de découvertes neuroscientifiques.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 20 / 20
Conclusion
Inspirer l’I.A. grâce au cerveauDeux modèles importants pour l’I.A.Les réseaux de neurones profonds : extracteurs decaractéristiques d’images, mais comportent des limites,Les mémoires associatives comme un modèle de mémoire à longterme fiable.
Comprendre le cerveau grâce à l’I.A.Les réseaux de neurones profonds permettent de réinterpréter /confirmer la structure du cerveau,De nombreuses perspectives de découvertes neuroscientifiques.
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 20 / 20
Merci!
nicolas.farrugia@imt-atlantique.frvincent.gripon@imt-atlantique.frFacebook : Brain-Bzh
Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 21 / 20
Recommended