67
Введение в архитектуры нейронных сетей Григорий Сапунов / CTO, Intento [email protected]

Введение в архитектуры нейронных сетей / HighLoad++ 2016

Embed Size (px)

Citation preview

Page 1: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Введение в архитектуры нейронных сетейГригорий Сапунов / CTO, [email protected]

Page 2: Введение в архитектуры нейронных сетей / HighLoad++ 2016

План доклада

1. Recap: a. Нейрон, нейросеть, глубокая нейросеть.b. Важные тренды.

2. Архитектуры нейросетейa. Нейросети прямого распространения.b. Свёрточные нейросети.c. Рекуррентные нейросети.

3. Мультимодальное обучение.4. Sequence Learning и парадигма seq2seq.5. Фреймворки и библиотеки для работы с нейросетями.

Page 3: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Recap: Нейрон, нейросеть, глубокая нейросетьКраткое напоминание

Page 4: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Искусственный нейрон

Искусственный нейрон — отдалённое подобие биологического. Базовый элемент искусственной нейронной сети

Page 5: Введение в архитектуры нейронных сетей / HighLoad++ 2016

В реальности всё посложнее...

Page 6: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Искусственная нейросеть

Page 7: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Существует многообразие архитектур

http://www.asimovinstitute.org/neural-network-zoo/

Page 8: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Обучение нейросети: backpropagation

Page 9: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Recap: Важные трендыЧто сейчас происходит с качеством и сложностью моделей

Page 10: Введение в архитектуры нейронных сетей / HighLoad++ 2016

#1. Точность сетей растёт

● Blue: Traditional CV● Purple: Deep Learning● Red: Human

Page 11: Введение в архитектуры нейронных сетей / HighLoad++ 2016

#2. Сложность сетей растёт

Page 12: Введение в архитектуры нейронных сетей / HighLoad++ 2016

#2. Сложность сетей растёт

Реальная нейросеть: GoogLeNet (2014)http://cs.unc.edu/~wliu/papers/GoogLeNet.pdf

Page 13: Введение в архитектуры нейронных сетей / HighLoad++ 2016

#2. Сложность сетей растёт

https://culurciello.github.io/tech/2016/06/04/nets.html

Page 14: Введение в архитектуры нейронных сетей / HighLoad++ 2016

#3. Объёмы данных растут

Page 15: Введение в архитектуры нейронных сетей / HighLoad++ 2016

#4. Вычислительные мощности растут● NVIDIA DGX-1 ($129,000)

○ 170 TFLOPS (FP16)○ 85 TFLOPS (FP32)

● NVIDIA GTX Titan X Pascal ($1000)

○ 11 TFLOPS (FP32)● NVIDIA GTX 1080

○ 8 TFLOPS (FP32)● NVIDIA GTX Titan X Old

○ 6.1 TFLOPS (FP32)

● NVIDIA Drive PX-2 ○ 8.0 TFLOPS

● NVIDIA Drive PX○ 2.3 TFLOPS

● Intel Core i7-6700K○ ~0.1-0.2 TFLOPS

Page 16: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Нейросети прямого распространенияFully Connected Feed-Forward Neural Networks, FNN

Page 17: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Multilayer Perceptron (MLP)

Классика FNN. Хорошо работают для классификации, но есть трудности:

• Много параметров• Для сети, у которой на входе картинка 100x100, три скрытых слоя

по 100 нейронов каждый, и выходом на 10 классов, число параметров будет примерно 1M(10000*100 + 100*100 + 100*100 + 100*10)

• Затухающие градиенты (если слоёв много)

Как следствие — трудно обучать.

Page 18: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Вариации FNN: Автоэнкодер (AE)

Учится создавать компактное описание входных данных.

Используется для уменьшения размерности и получения новых высокоуровневых признаков.

Может быть глубоким (многослойным).

Page 19: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Вариации FNN: RBM

Restricted Boltzmann Machine (RBM)

Неглубокая генеративная модель, которая учится генерировать данные с заданными характеристиками. По факту очень похожа на автоэнкодер, но в отличие от автоэнкодера стохастическая.

Page 20: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Вариации FNN: DBN

Deep Belief Networks (DBN) — фактически способ обучения глубоких сетей, при котором каждый уровень сети учится как отдельная RBM.

Page 21: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Свёрточные нейросетиConvolutional Neural Networks, CNN

Page 22: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Классические задачи для CNN

https://research.facebook.com/blog/learning-to-segment/

Page 23: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Свёрточная нейросеть: общий видСвёрточная нейросеть (CNN) — это Feed-Forward сеть специального вида:

Page 24: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Состав CNN

• Свёрточные слои: каждая плоскость в свёрточном слое — это один нейрон, реализующий операцию свёртки (convolution) и являющийся матричным фильтром небольшого размера (например, 5x5).

• Слои субдискретизации (subsampling, spatial pooling): уменьшают размер изображения (например, в 2 раза).

• Полносвязные слои (MLP) на выходе модели (используются для классификации).

Page 25: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Визуализация операции свёртки

input kernel outputhttp://intellabs.github.io/RiverTrail/tutorial/

Знакомые по фотошопу фильтры blur, emboss, sharpen и другие — это именно матричные фильтры.

Page 26: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Визуализация операции свёртки

http://intellabs.github.io/RiverTrail/tutorial/

Page 27: Введение в архитектуры нейронных сетей / HighLoad++ 2016

CNN: Свёрточный слой (5 нейронов)

http://cs231n.github.io/convolutional-networks/

Веса нейронов — это коэффициенты ядра свёртки. Каждая “обучаемая” свёртка выделяет одинаковые локальные признаки во всех частях изображения.

Page 28: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Операция pooling (max pool, avg pool)

http://vaaaaaanquish.hatenablog.com/entry/2015/01/26/060622

Page 29: Введение в архитектуры нейронных сетей / HighLoad++ 2016

CNN: Pooling слой (downsampling)

http://cs231n.github.io/convolutional-networks/

Page 30: Введение в архитектуры нейронных сетей / HighLoad++ 2016

У CNN меньше параметров, чем у FNN

• вход картинка 100x100

• два свёрточных слоя по 100 плоскостей каждый (conv 5x5 и subsampling 2)

• полносвязный слой на 100 нейронов

• выход: 10 классов• число параметров примерно

70K (25*100 + 25*100 + 25*25*100 + 100*10)

FNN

• вход: картинка 100x100

• три скрытых слоя по 100 нейронов каждый

• выход: 10 классов• число параметров примерно

1M (10000*100 + 100*100 + 100*100 + 100*10)

CNN

Page 31: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Свёрточные слои учат иерархические признаки для изображений, а spatial pooling даёт некоторую инвариантность к перемещениям.

Свёрточная нейросеть

Page 32: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Современные архитектурыInception, ResNet и другие современные архитектуры содержат специальные блоки слоёв.

Page 33: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Обычная свёрточная сеть, но без MLP сверху (нет полносвязных слоёв).Позволяет работать с изображениями произвольного размера и выдавать на выходе тепловую карту классификации.

Fully-convolutional networks (FCN)

https://arxiv.org/abs/1411.4038

Page 34: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Правильнее называть это Transposed convolution, а не Deconvolution (это слово уже занято в цифровой обработке сигналов для обратной операции).По сути, реализован обучаемый upsampling.

Deconvolution networks

http://cvlab.postech.ac.kr/research/deconvnet/

Page 35: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Генерация изображений

https://arxiv.org/abs/1411.5928

Page 36: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Неклассические задачи: перенос стиля

https://arxiv.org/abs/1508.06576

Page 37: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Перенос стиля: оригинальный алгоритм

https://arxiv.org/abs/1508.06576

Page 38: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Перенос стиля: быстрый алгоритм

https://arxiv.org/abs/1603.03417

Page 39: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Рекуррентные нейросетиRecurrent Neural Networks, RNN

Page 40: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Главное отличие RNN от FNN в наличии циклических связей (W

hh на рисунке)

RNN

Page 41: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Свойства нейросетейFeedforward NN (FNN):

● FFN — это универсальный аппроксиматор: однослойная нейросеть с конечным числом нейронов может аппроксимировать непрерывную функцию на компактных подмножествах Rn (Теорема Цыбенко, универсальная теорема аппроксимации).

● FFN не имеют естественной возможности учесть порядок во времени.● FFN не обладают памятью, кроме полученной во время обучения.

Recurrent NN (RNN):

● RNN Тьюринг-полны: можно реализовать любую вычислимую функцию. ● RNN обладают определённым видом памяти и гораздо лучше подходят для

работы с последовательностями, моделированием контекста и временными зависимостями.

Page 42: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Для обучения RNN используется специальный вариант backpropagation: (backpropagation through time, BPTT) и “разворачивание” нейросети.

Из-за этого есть проблема с затуханием градиентов при большой глубине. Для её решения вместо простых нейронов используют более сложные ячейки памяти — LSTM или GRU.

Backpropagation through time (BPTT)

http://colah.github.io/posts/2015-08-Understanding-LSTMs/

Page 43: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Ячейка LSTM (Long Short-Term Memory)

https://deeplearning4j.org/lstm

Page 44: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Ячейки LSTM и GRU

http://kvitajakub.github.io/2016/04/14/rnn-diagrams

Page 45: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Bidirectional RNN(BRNN/BLSTM)

Часто последовательность доступна сразу целиком, так что её можно сканировать в обоих направлениях.

Page 46: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Multidimensional and Multidirectional RNNs

RNN могут также быть многомерными и многонаправленными.

Это более естественно для многомерных данных, например, изображений.

Page 47: Введение в архитектуры нейронных сетей / HighLoad++ 2016

ReNet (2015)

PyraMiD-LSTM (2015)

Page 48: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Grid LSTM (2016)Интересное многомерное обобщение LSTM: Grid LSTM

https://arxiv.org/abs/1507.01526

Page 49: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Мультимодальное обучение (Multimodal Learning)Смешивание различных модальностей в одной нейросети, например, изображения и текст

Page 50: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Генерация описаний картинок

http://arxiv.org/abs/1411.4555 “Show and Tell: A Neural Image Caption Generator”

Page 51: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Мультимодальное обучение

https://www.cs.utexas.edu/~vsub/

Page 52: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Мультимодальное обучение

http://arxiv.org/abs/1411.2539 Unifying Visual-Semantic Embeddings with Multimodal Neural Language Models

Page 53: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Sequence Learning и парадигма seq2seqКогда надо работать с последовательностями произвольной длины на входе и/или выходе

Page 54: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Sequence to Sequence Learning (seq2seq)

http://karpathy.github.io/2015/05/21/rnn-effectiveness/

Page 55: Введение в архитектуры нейронных сетей / HighLoad++ 2016

CTC (Connectionist Temporal Classification)Есть много задач, где точное расположение меток неважно, а важна только их последовательность. Например, в распознавании речи, рукописного текста, автомобильных номеров.

Специальный выходной слой CTC (Graves, Fernández, Gomez, Schmidhuber, 2006) был создан для временной классификации, когда выравнивание входных данных и выходных меток неизвестно и не требуется.

Page 56: Введение в архитектуры нейронных сетей / HighLoad++ 2016

CTC (Connectionist Temporal Classification)

https://github.com/baidu-research/warp-ctc

Page 57: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Encoder-Decoder architecture

https://github.com/farizrahman4u/seq2seq

Page 58: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Encoder-Decoder with Attention

https://research.googleblog.com/2016/09/a-neural-network-for-machine.html

Page 59: Введение в архитектуры нейронных сетей / HighLoad++ 2016

CNN+RNN with Attention

http://kelvinxu.github.io/projects/capgen.html

Page 60: Введение в архитектуры нейронных сетей / HighLoad++ 2016

CNN+RNN with Attention

http://kelvinxu.github.io/projects/capgen.html

Page 61: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Фреймворки и библиотеки для работы с нейросетямиОчень краткий обзор

Page 62: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Библиотеки и фреймворки

Подробный список: http://deeplearning.net/software_links/

Page 63: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Универсальные библиотеки и сервисы● Torch7 (http://torch.ch/) [Lua]● TensorFlow (https://www.tensorflow.org/) [Python, C++]● Theano (http://deeplearning.net/software/theano/) [Python]

○ Keras (http://keras.io/) ○ Lasagne (https://github.com/Lasagne/Lasagne)○ blocks (https://github.com/mila-udem/blocks)○ pylearn2 (https://github.com/lisa-lab/pylearn2)

● Microsoft Cognitive Toolkit (CNTK) (http://www.cntk.ai/) [Python, C++, C#, BrainScript]

● Neon (http://neon.nervanasys.com/) [Python]● Deeplearning4j (http://deeplearning4j.org/) [Java]● MXNet (http://mxnet.io/) [C++, Python, R, Scala, Julia, Matlab, Javascript]● …

Page 64: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Обработка изображений и видео

● OpenCV (http://opencv.org/) [C, C++, Python]● Caffe (http://caffe.berkeleyvision.org/) [C++, Python, Matlab]● Torch7 (http://torch.ch/) [Lua]● clarifai (https://www.clarifai.com/)● Google Vision API (https://cloud.google.com/vision/) ● …

Page 65: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Распознавание речи

● Microsoft Cognitive Toolkit (CNTK) (http://www.cntk.ai/) [Python, C++, C#, BrainScript]

● KALDI (http://kaldi-asr.org/) [C++]● Google Speech API (https://cloud.google.com/) ● Yandex SpeechKit (https://tech.yandex.ru/speechkit/) ● Baidu Speech API (http://www.baidu.com/) ● wit.ai (https://wit.ai/) ● …

Page 66: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Обработка текстов

● Torch7 (http://torch.ch/) [Lua]● Theano/Keras/… [Python]● TensorFlow (https://www.tensorflow.org/) [C++, Python]● Google Translate API (https://cloud.google.com/translate/) ● …

Page 67: Введение в архитектуры нейронных сетей / HighLoad++ 2016

Спасибо!