- Level Foundation
- Course by DeepLearning.AI
-
Offered by
About
Этот курс научит вас «магии» повышения эффективности глубокого обучения. Вы изучите сложный механизм работы глубокого обучения, узнаете, какие параметры влияют на его эффективность и сможете систематически получать хорошие результаты. Также вы изучите TensorFlow. По прошествии трех недель вы: — освоите передовые методы создания приложений для глубокого обучения; — научитесь эффективно использовать распространенные «хитрости» работы с нейросетями, включая инициализацию, L2-регуляризацию и регуляризацию методом исключения, пакетную нормализацию и проверку градиента; — научитесь выполнять и применять различные алгоритмы оптимизации, такие как мини-пакетный градиентный спуск, моменты, RMSprop и Adam, а также проверять их сходимость; — освоите передовые методы составления наборов данных для обучения, разработки и тестирования, а также анализа предвзятости и отклонений; — сможете реализовывать нейронную сеть в TensorFlow. Это второй курс специализации «Глубокое обучение».Modules
Настройка приложения для машинного обучения
3
Videos
- Наборы данных для тренировки, разработки и тестирования
- Смещение/дисперсия
- Базовый рецепт машинного обучения
Регуляризация нейронной сети
5
Videos
- Регуляризация
- Почему регуляризация снижает уровень переобучения?
- Регуляризация методом исключения
- Общие сведения об исключении
- Другие методы регуляризации
2
Readings
- Уточнения о предстоящем видео по теме «Регуляризация»
- Разъяснения о предстоящем видео «Общие сведения об исключении»
Постановка задачи по оптимизации
6
Videos
- Нормализация входных данных
- Исчезновение и взрыв градиента
- Инициализация веса для глубоких сетей
- Численное приближение градиентов
- Проверка градиентов
- Замечания по реализации проверки градиентов
1
Readings
- Разъяснение о предстоящем видео «Нормализация входных данных»
Практические вопросы
1
Assignment
- Практические аспекты глубокого обучения
Задания по программированию
- Инициализация
- Регуляризация
- Проверка градиентов
3
Labs
- Инициализация
- Регуляризация
- Проверка градиентов
Мастера глубокого обучения (факультативно)
1
Videos
- Интервью с Йошуа Бенжио
Алгоритмы оптимизации
10
Videos
- Мини-пакетный градиентный спуск
- Общие сведения о мини-пакетном градиентном спуске
- Экспоненциально взвешенное среднее
- Определение экспоненциально взвешенного среднего
- Корректировка смещения в экспоненциально взвешенных средних
- Градиентный спуск с моментами
- RMSprop
- Алгоритм оптимизации Адама
- Снижение интенсивности обучения
- Задача локального оптимума
2
Readings
- Уточнения о предстоящем видео «Оптимизация Adam»
- Уточнения о предстоящем видео «Снижение интенсивности обучения»
Практические вопросы
1
Assignment
- Алгоритмы оптимизации
Задание по программированию
- Оптимизация
1
Labs
- Оптимизация
Мастера глубокого обучения (факультативно)
1
Videos
- Интервью с Юаньцин Линь
Оптимизация гиперпараметров
3
Videos
- Процесс настройки
- Использование подходящего масштаба для выбора гиперпараметров
- Оптимизация гиперпараметров на практике: панды или икра?
Пакетная нормализация
4
Videos
- Нормализация активаций в сети
- Подгонка пакетной нормализации под нейросеть
- Почему пакетная нормализация работает?
- Пакетная нормализация на этапе тестирования
Многоклассовая классификация
2
Videos
- Регрессия Softmax
- Тренировка классификатора Softmax
1
Readings
- Уточнения о предстоящем видео по Softmax
Введение в программные фреймворки
2
Videos
- Фреймворки глубокого обучения
- TensorFlow
Практические вопросы
1
Assignment
- Настройка гиперпараметров, пакетная нормализация...
Задание по программированию
- Tensorflow
1
Labs
- Tensorflow
1
Readings
- Примечание о версиях TensorFlow
Auto Summary
Unlock the secrets to enhancing the efficiency of deep neural networks with this comprehensive course in Data Science & AI. Under the expert guidance of Coursera, delve into the intricacies of deep learning mechanisms and discover the key parameters that drive performance. In just three weeks, you'll master advanced techniques for developing deep learning applications and learn to leverage popular neural network tricks like initialization, L2 regularization, dropout regularization, batch normalization, and gradient checking. You'll gain proficiency in implementing and applying optimization algorithms such as mini-batch gradient descent, momentum, RMSprop, and Adam, ensuring their convergence. Additionally, the course covers advanced methods for preparing datasets for training, development, and testing, as well as analyzing biases and variances. By the end of the course, you'll be equipped to implement neural networks using TensorFlow. This is the second installment in the "Deep Learning" specialization series, designed for those at the foundational level. With flexible subscription options, including Starter and Professional plans, this course is ideal for aspiring data scientists and AI enthusiasts eager to elevate their deep learning expertise.

Andrew Ng

Kian Katanforoosh

Younes Bensouda Mourri