Intelligence artificielle Neuro-inspirée

Preview:

Citation preview

Intelligence Artificielle Neuro-inspiréeProjet Br.A.In.

Nicolas Farrugia

Br.A.In.

2 mars 2017

Travail avec Vincent Gripon

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 1 / 20

Br.A.In.

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 2 / 20

Br.A.In.

Brain-inspiredArtificialIntelligence

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 2 / 20

Br.A.In.

Imagerie cérébrale

Réseaux de Neu-rones Artificiels

Traitementdu Signal etdes Images

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 2 / 20

Plan

1 Intelligence ArtificielleDéfinitionLa révolution artificielleIntelligence artificielle vs. intelligence naturelleL’apprentissage profond et ses limites

2 Apprentissage versus StockageCalcul vs. informationCodage correcteur d’erreursMémoires associatives

3 Neuroimagerie et Intelligence artificielleRéseaux de neurones profonds et perception visuelleI.A. et encodage du langage

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 2 / 20

L’intelligence artificielle : définition

L’intelligence d’un algorithmeOn qualifie d’intelligent un algorithme qui, une fois programmé, estincapable de répondre au problème pour lequel il a été conçu. C’estpar l’observation et/ou la manipulation qu’il acquiert sa fonctionalité.

ExempleUn algorithme qui calcule l’hypoténuse à partir des deux autreslongueurs d’un triangle rectangle n’est pas “intelligent”,Un algorithme qui découvre par lui-même la relation et estcapable de généraliser à partir d’exemples données est qualifiéd’“intelligent”.

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 3 / 20

L’intelligence artificielle : définition

L’intelligence d’un algorithmeOn qualifie d’intelligent un algorithme qui, une fois programmé, estincapable de répondre au problème pour lequel il a été conçu. C’estpar l’observation et/ou la manipulation qu’il acquiert sa fonctionalité.

ExempleUn algorithme qui calcule l’hypoténuse à partir des deux autreslongueurs d’un triangle rectangle n’est pas “intelligent”,Un algorithme qui découvre par lui-même la relation et estcapable de généraliser à partir d’exemples données est qualifiéd’“intelligent”.

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 3 / 20

Apprentissage supervisé et non supervisé

L’apprentissageApprendre, c’est généraliser (6= mémoriser),

Apprentissage superviséRégression,Nécessite un expert,Débouche sur des tasd’applications :

Jouer à un jeu,Reconnaître des formes,Résoudre un exercice demaths...

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 4 / 20

Apprentissage supervisé et non supervisé

L’apprentissageApprendre, c’est généraliser (6= mémoriser),

Apprentissage superviséRégression,Nécessite un expert,Débouche sur des tasd’applications :

Jouer à un jeu,Reconnaître des formes,Résoudre un exercice demaths...

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 4 / 20

Apprentissage supervisé et non supervisé

L’apprentissageApprendre, c’est généraliser (6= mémoriser),

Apprentissage superviséRégression,Nécessite un expert,Débouche sur des tasd’applications :

Jouer à un jeu,Reconnaître des formes,Résoudre un exercice demaths...

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 4 / 20

Apprentissage supervisé et non supervisé

L’apprentissageApprendre, c’est généraliser (6= mémoriser),

Apprentissage non-superviséPartitionnement,Nécessite une échellespatiale,Pour beaucoup, c’est le “vrai”support de l’intelligence :

Représentation du monde,langage,Compression,Source d’hypothèses. . .

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 4 / 20

Apprentissage supervisé et non supervisé

L’apprentissageApprendre, c’est généraliser (6= mémoriser),

Apprentissage non-superviséPartitionnement,Nécessite une échellespatiale,Pour beaucoup, c’est le “vrai”support de l’intelligence :

Représentation du monde,langage,Compression,Source d’hypothèses. . .

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 4 / 20

Des algorithmes intelligents pour quoi faire ?

La révolution artificielleÉcho à la révolution industrielle,Automatisation du travail intellectuel pénible,Réduction des inégalités (médecine, confort, vieillissement...).

La singularitéNouveaux outils pour traiter/trier les informations,Écart immense biologique et électronique,Aller au delà des limites de l’homme biologique.

Les post-mathématiquesL’automatisation de preuves,Le multi-agents et la simulation informatique,La complémentarité mathématiques discrètes/continues.

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 5 / 20

Des algorithmes intelligents pour quoi faire ?

La révolution artificielleÉcho à la révolution industrielle,Automatisation du travail intellectuel pénible,Réduction des inégalités (médecine, confort, vieillissement...).

La singularitéNouveaux outils pour traiter/trier les informations,Écart immense biologique et électronique,Aller au delà des limites de l’homme biologique.

Les post-mathématiquesL’automatisation de preuves,Le multi-agents et la simulation informatique,La complémentarité mathématiques discrètes/continues.

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 5 / 20

Des algorithmes intelligents pour quoi faire ?

La révolution artificielleÉcho à la révolution industrielle,Automatisation du travail intellectuel pénible,Réduction des inégalités (médecine, confort, vieillissement...).

La singularitéNouveaux outils pour traiter/trier les informations,Écart immense biologique et électronique,Aller au delà des limites de l’homme biologique.

Les post-mathématiquesL’automatisation de preuves,Le multi-agents et la simulation informatique,La complémentarité mathématiques discrètes/continues.

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 5 / 20

Intelligence artificielle et intelligence naturelle

Quelle est la couleur du chevalblanc d’Henri IV ?

∫ √3

0x3(1+ x2)dx

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 6 / 20

Intelligence artificielle et intelligence naturelle

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 6 / 20

Intelligence artificielle et intelligence naturelle

Il n’y a qu’un seul modèle duquel s’inspirer : le cerveau.

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 6 / 20

Les réseaux de neurones profonds

Entrée x Sortie y

y = f (W4 · f (W3 · f (W2 · f (W1 · x))))

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20

Les réseaux de neurones profonds

Entrée x Sortie y

y = f (W4 · f (W3 · f (W2 · f (W1 · x))))

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20

Les réseaux de neurones profonds

Entrée x Sortie y

y = f (W4 · f (W3 · f (W2 · f (W1 · x))))

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20

Les réseaux de neurones profonds

Entrée x Sortie y

y = f (W4 · f (W3 · f (W2 · f (W1 · x))))

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20

Les réseaux de neurones profonds

Entrée x Sortie y

y = f (W4 · f (W3 · f (W2 · f (W1 · x))))

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20

Les réseaux de neurones profonds

Entrée x Sortie y

y = f (W4 · f (W3 · f (W2 · f (W1 · x))))

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20

Les réseaux de neurones profonds

Entrée x Sortie y

y = f (W4 · f (W3 · f (W2 · f (W1 · x))))

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20

Les réseaux de neurones profonds

Entrée x Sortie y

y = f (W4 · f (W3 · f (W2 · f (W1 · x))))

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20

Les réseaux de neurones profonds

Entrée x Sortie y

y = f (W4 · f (W3 · f (W2 · f (W1 · x))))

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20

Les réseaux de neurones profonds

Entrée x Sortie y

y = f (W4 · f (W3 · f (W2 · f (W1 · x))))

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20

Les réseaux de neurones profonds

Entrée x Sortie y

y = f (W4 · f (W3 · f (W2 · f (W1 · x))))

Non linéarités

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20

Les réseaux de neurones profonds

Entrée x Sortie y

y = f (W4 · f (W3 · f (W2 · f (W1 · x))))

Paramètres

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20

Les réseaux de neurones profonds

Entrée x Sortie y

y = f (W4 · f (W3 · f (W2 · f (W1 · x))))

“How to grow a mind: statistics, structure, and abstraction”, Science, 2011.

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20

Les réseaux de neurones profonds

Entrée x Sortie y

y = f (W4 · f (W3 · f (W2 · f (W1 · x))))

“How to grow a mind: statistics, structure, and abstraction”, Science, 2011.

“Intriguing properties of neural networks”, Arxiv research report, 2013.

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20

Les réseaux de neurones profonds

Entrée x Sortie y

y = f (W4 · f (W3 · f (W2 · f (W1 · x))))

“How to grow a mind: statistics, structure, and abstraction”, Science, 2011.

“Intriguing properties of neural networks”, Arxiv research report, 2013.Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20

Plan

1 Intelligence ArtificielleDéfinitionLa révolution artificielleIntelligence artificielle vs. intelligence naturelleL’apprentissage profond et ses limites

2 Apprentissage versus StockageCalcul vs. informationCodage correcteur d’erreursMémoires associatives

3 Neuroimagerie et Intelligence artificielleRéseaux de neurones profonds et perception visuelleI.A. et encodage du langage

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 7 / 20

Mémoire et calcul

Mémoire et calculs doivent-ils être. . .Séparés. . . ou inextricablement liés ?

Memory

Processing unit

Control unit

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 8 / 20

Le schéma de Shannon appliqué au cerveau

Perception Mémoire

Monde extérieurriche et exubérant

Codagede sourceSuppression dela redondancenaturelle

Addition deredondanceartificielle

Codagede canal

Information mentale,parcimonieuse etrobuste

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 9 / 20

Le mystère du stockage de l’information mentale

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20

Le mystère du stockage de l’information mentale

Le rêve est un jambon, lourd,qui pend au plafond

Victor Hugo

e i π + 1 = 0

8× 7 = 56

02 29 00 12 77

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20

Le mystère du stockage de l’information mentale

Le rêve est un jambon, lourd,qui pend au plafond

Victor Hugo

e i π + 1 = 0

8× 7 = 56

02 29 00 12 77

1 neurone perduchaque seconde

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20

Le mystère du stockage de l’information mentale

Le rêve est un jambon, lourd,qui pend au plafond

Victor Hugo

e i π + 1 = 0

8× 7 = 56

02 29 00 12 77

1 neurone perduchaque seconde

10% pendantune vie

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20

Le mystère du stockage de l’information mentale

1 neurone perduchaque seconde

10% pendantune vie

Le ? est un jambon, ?, qui pend au ?

?

e ?π + 1 =?

8× 7 =?

02 29 00 ?2 77

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20

Le mystère du stockage de l’information mentale

1 neurone perduchaque seconde

10% pendantune vie

Le ? est un jambon, ?, qui pend au ?

?

e ?π + 1 =?

8× 7 =?

02 29 00 ?2 77

La mémoire à long terme est robuste...et donc nécessairement redondante

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 10 / 20

Un code neural distribué

Code distribué :1 Assemblage de règles simples,2 Chaque règle couvre plusieursmémoires,

3 Chaque mémoire est couverte parplusieurs règles,

4 Permet un décodage itératif.

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20

Un code neural distribué

Code distribué :1 Assemblage de règles simples,2 Chaque règle couvre plusieursmémoires,

3 Chaque mémoire est couverte parplusieurs règles,

4 Permet un décodage itératif.

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20

Un code neural distribué

Code distribué :1 Assemblage de règles simples,2 Chaque règle couvre plusieursmémoires,

3 Chaque mémoire est couverte parplusieurs règles,

4 Permet un décodage itératif.

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20

Un code neural distribué

Code distribué :1 Assemblage de règles simples,2 Chaque règle couvre plusieursmémoires,

3 Chaque mémoire est couverte parplusieurs règles,

4 Permet un décodage itératif.

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20

Un code neural distribué

Code distribué :1 Assemblage de règles simples,2 Chaque règle couvre plusieursmémoires,

3 Chaque mémoire est couverte parplusieurs règles,

4 Permet un décodage itératif.

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20

Un code neural distribué

Code distribué :1 Assemblage de règles simples,2 Chaque règle couvre plusieursmémoires,

3 Chaque mémoire est couverte parplusieurs règles,

4 Permet un décodage itératif.

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20

Un code neural distribué

Code distribué :1 Assemblage de règles simples,2 Chaque règle couvre plusieursmémoires,

3 Chaque mémoire est couverte parplusieurs règles,

4 Permet un décodage itératif.

e i π + 1 = 0

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20

Un code neural distribué

Code distribué :1 Assemblage de règles simples,2 Chaque règle couvre plusieursmémoires,

3 Chaque mémoire est couverte parplusieurs règles,

4 Permet un décodage itératif.

e i π + 1 = 0e i π + 1 = 0

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20

Un code neural distribué

Code distribué :1 Assemblage de règles simples,2 Chaque règle couvre plusieursmémoires,

3 Chaque mémoire est couverte parplusieurs règles,

4 Permet un décodage itératif.

e i π + 1 = 0

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20

Un code neural distribué

Code distribué :1 Assemblage de règles simples,2 Chaque règle couvre plusieursmémoires,

3 Chaque mémoire est couverte parplusieurs règles,

4 Permet un décodage itératif.

e i π + 1 = 0

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20

Un code neural distribué

Code distribué :1 Assemblage de règles simples,2 Chaque règle couvre plusieursmémoires,

3 Chaque mémoire est couverte parplusieurs règles,

4 Permet un décodage itératif.

e i π + 1 = 0

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20

Un code neural distribué

Code distribué :1 Assemblage de règles simples,2 Chaque règle couvre plusieursmémoires,

3 Chaque mémoire est couverte parplusieurs règles,

4 Permet un décodage itératif.

e i π + 1 = 0En deux mots : parcimonie, compétition

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 11 / 20

La redondance correctrice d’erreurs Hebbienne

` unités

c grappes

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20

La redondance correctrice d’erreurs Hebbienne

` unités

c grappesLes cliques neurales pourstocker l’information men-tale :Nombre de combinaisonspossibles exponentiellementgrand,Redondance très forte,Utilisation optimale de lacapacité mémoire ,Robustesse compétitiveavec les meilleurs codescorrecteur d’erreurs.

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20

La redondance correctrice d’erreurs Hebbienne

` unités

c grappesLes cliques neurales pourstocker l’information men-tale :Nombre de combinaisonspossibles exponentiellementgrand,Redondance très forte,Utilisation optimale de lacapacité mémoire ,Robustesse compétitiveavec les meilleurs codescorrecteur d’erreurs.

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20

La redondance correctrice d’erreurs Hebbienne

` unités

c grappesLes cliques neurales pourstocker l’information men-tale :Nombre de combinaisonspossibles exponentiellementgrand,Redondance très forte,Utilisation optimale de lacapacité mémoire ,Robustesse compétitiveavec les meilleurs codescorrecteur d’erreurs.

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20

La redondance correctrice d’erreurs Hebbienne

` unités

c grappesLes cliques neurales pourstocker l’information men-tale :Nombre de combinaisonspossibles exponentiellementgrand,Redondance très forte,Utilisation optimale de lacapacité mémoire ,Robustesse compétitiveavec les meilleurs codescorrecteur d’erreurs.

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20

La redondance correctrice d’erreurs Hebbienne

` unités

c grappesLes cliques neurales pourstocker l’information men-tale :Nombre de combinaisonspossibles exponentiellementgrand,Redondance très forte,Utilisation optimale de lacapacité mémoire ,Robustesse compétitiveavec les meilleurs codescorrecteur d’erreurs.

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20

Plan

1 Intelligence ArtificielleDéfinitionLa révolution artificielleIntelligence artificielle vs. intelligence naturelleL’apprentissage profond et ses limites

2 Apprentissage versus StockageCalcul vs. informationCodage correcteur d’erreursMémoires associatives

3 Neuroimagerie et Intelligence artificielleRéseaux de neurones profonds et perception visuelleI.A. et encodage du langage

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 12 / 20

Visualiser les réseaux de neurones profonds

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 13 / 20

Comprendre le codage neural

Prédire l’activité cérébraleIl s’agit de construire des modèles d’encodage permettant de prédirela réponse du cerveau.L’I.A. permet de construire de tels modèles,L’utilisation de Réseaux Profonds permet de valider leurplausibilité biologique.

ExemplesCorrespondance entre les premières couches d’un réseau profondde reconnaissance d’images,Encodage cérébral des catégories sémantiques.

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 14 / 20

Comprendre le codage neural

Prédire l’activité cérébraleIl s’agit de construire des modèles d’encodage permettant de prédirela réponse du cerveau.L’I.A. permet de construire de tels modèles,L’utilisation de Réseaux Profonds permet de valider leurplausibilité biologique.

ExemplesCorrespondance entre les premières couches d’un réseau profondde reconnaissance d’images,Encodage cérébral des catégories sémantiques.

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 14 / 20

Réseaux de neurones profonds et perception visuelle

“Seeing it all: Convolutional network layers map the function of the human visual system”, Neuroimage, 2016.Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 15 / 20

Réseaux de neurones profonds et perception visuelle

“Seeing it all: Convolutional network layers map the function of the human visual system”, Neuroimage, 2016.

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 16 / 20

I.A. et encodage du langage

11

Nature, 2016

13/02/17

MCGILL BARBADOS WORKSHOP ON GRAPH

SIGNAL PROCESSING

LEARNING ENCODING MODELS USING

NEUROIMAGING

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 17 / 20

I.A. et encodage du langage

12

13/02/17

MCGILL BARBADOS WORKSHOP ON GRAPH

SIGNAL PROCESSING

LEARNING ENCODING MODELS USING

NEUROIMAGING

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 18 / 20

I.A. et encodage du langage

13

13/02/17

MCGILL BARBADOS WORKSHOP ON GRAPH

SIGNAL PROCESSING

LEARNING ENCODING MODELS USING

NEUROIMAGING

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 19 / 20

Conclusion

Inspirer l’I.A. grâce au cerveauDeux modèles importants pour l’I.A.Les réseaux de neurones profonds : extracteurs decaractéristiques d’images, mais comportent des limites,Les mémoires associatives comme un modèle de mémoire à longterme fiable.

Comprendre le cerveau grâce à l’I.A.Les réseaux de neurones profonds permettent de réinterpréter /confirmer la structure du cerveau,De nombreuses perspectives de découvertes neuroscientifiques.

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 20 / 20

Conclusion

Inspirer l’I.A. grâce au cerveauDeux modèles importants pour l’I.A.Les réseaux de neurones profonds : extracteurs decaractéristiques d’images, mais comportent des limites,Les mémoires associatives comme un modèle de mémoire à longterme fiable.

Comprendre le cerveau grâce à l’I.A.Les réseaux de neurones profonds permettent de réinterpréter /confirmer la structure du cerveau,De nombreuses perspectives de découvertes neuroscientifiques.

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 20 / 20

Merci!

nicolas.farrugia@imt-atlantique.frvincent.gripon@imt-atlantique.frFacebook : Brain-Bzh

Nicolas Farrugia (IMT-Atlantique) IA NeuroInspirée 2 mars 2017 21 / 20

Recommended