⇐ Назад

Оглавление

Часть I. Как обучать нейронные сети

Глава 1. От биологии к информатике, или We need to go deeper . . . . . . . . . 6
1.1. Революция обучения глубоких сетей . . . . . . . . . . . . . . . . . . . . . . . 7
1.2. Искусственный интеллект и машинное обучение . . . . . . . . . . . . . . 11
1.3. Немного о словах: каким бывает машинное обучение . . . . . . . . . . . 17
1.4. Особенности человеческого мозга. . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.5. Пределы нейробиологии: что мы на самом деле знаем? . . . . . . . . . . 26
1.6. Блеск и нищета современных нейронных сетей . . . . . . . . . . . . . . . . 30
Глава 2. Предварительные сведения, или Курс молодого бойца . . . . . . . . . 38
2.1. Теорема Байеса . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.2. Функции ошибки и регуляризация . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.3. Расстояние Кульбака — Лейблера и перекрестная энтропия. . . . . . . 63
2.4. Градиентный спуск: основы . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
2.5. Граф вычислений и дифференцирование на нем . . . . . . . . . . . . . . . 75
2.6. И о практике: введение в TensorFlow и Keras. . . . . . . . . . . . . . . . . . 81
Глава 3. Перцептрон, или Эмбрион мудрого компьютера . . . . . . . . . . . . . . 93
3.1. Когда появились искусственные нейронные сети . . . . . . . . . . . . . . 94
3.2. Как работает перцептрон . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
3.3. Современные перцептроны: функции активации. . . . . . . . . . . . . . .105
3.4. Как же обучаются настоящие нейроны . . . . . . . . . . . . . . . . . . . . . .113
3.5. Глубокие сети: в чем прелесть и в чем сложность? . . . . . . . . . . . . . .117
3.6. Пример: распознавание рукописных цифр на TensorFlow . . . . . . . .123
Часть II. Основные архитектуры
Глава 4. Быстрее, глубже, сильнее, или Об оврагах, долинах и трамплинах .137
4.1. Регуляризация в нейронных сетях . . . . . . . . . . . . . . . . . . . . . . . . .138
4.2. Как инициализировать веса . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .142
4.3. Нормализация по мини-батчам. . . . . . . . . . . . . . . . . . . . . . . . . . . .153
4.4. Метод моментов: Ньютон, Нестеров и Гессе . . . . . . . . . . . . . . . . . .164
4.5. Адаптивные варианты градиентного спуска . . . . . . . . . . . . . . . . . .169
Глава 5. Сверточные нейронные сети и автокодировщики,
или Не верь глазам своим . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .176
5.1. Зрительная кора головного мозга . . . . . . . . . . . . . . . . . . . . . . . . . .177
5.2. Свертки и сверточные сети . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .182
5.3. Свертки для распознавания цифр . . . . . . . . . . . . . . . . . . . . . . . . . .199
5.4. Современные сверточные архитектуры . . . . . . . . . . . . . . . . . . . . . .206
5.5. Автокодировщики . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .214
5.6. Пример: кодируем рукописные цифры . . . . . . . . . . . . . . . . . . . . . .219
Глава 6. Рекуррентные нейронные сети,
или Как правильно кусать себя за хвост . . . . . . . . . . . . . . . . . . . .231
6.1. Мотивация: обработка последовательностей . . . . . . . . . . . . . . . . . .232
6.2. Распространение ошибки и архитектуры RNN . . . . . . . . . . . . . . . .236
6.3. LSTM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .242
6.4. GRU и другие варианты . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .249
6.5. SCRN и другие: долгая память в обычных RNN . . . . . . . . . . . . . . . .253
6.6. Пример: порождаем текст символ за символом . . . . . . . . . . . . . . . .259
Часть III. Новые архитектуры и применения
Глава 7. Как научить компьютер читать,
или Математик

Наверх