ШПАРГАЛКА

NumPy

Переобучение

  • Что такое переобучение
  • Из-за чего оно появляется
  • Основные способы борьбы с переобучением
  • Привести пример графика переобучения

Свёрточные сети

  • Принципы работы
  • Плюсы и минусы
  • Где применяются
  • Параметры слоя в keras
  • Пример, как поменяется размер изображения по данной свёрточной сети
  • Что такое MaxPooling
  • Что такое Flatten, GlobalMaxPooling и GlobalAveragePooling
  • Какой будет размер слоя после свёрточного блока и одного из слоёв уменьшения размерности (Flatten, GlobalMaxPooling или GlobalAveragePooling)
  • Как обработать слоем Conv2D одноканальное изображение
  • Где еще, помимо изображений, можно использовать сверточные сети

Рекуррентные сети

  • Принципы работы
  • Плюсы и минусы
  • Где применяются
  • Примеры слоя в keras
  • Какая размерность сигнала на выходе из рекуррентного слоя
  • Как соединять несколько реккурентных слоёв подряд
  • Как соединить реккурентные слои с одномерной свёрткой и полносвязными слоями

Автокодировщики

  • Принципы работы
  • Принципы подготовки выборки
  • Как на автокодировщиках делается поиск выбросов
  • Как на автокодировщиках делается шумоподавление
  • Как на автокодировщиках делается раскрашивание чёрно-белой фотографии в цветную
  • В чём проблема генеративных моделей на автокодировщиках

Вариационные автокодировщики

  • Принцип работы, отличия от автокодировщиках
  • Как реализуется обучение (учитывая, добавление вероятностного слоя)
  • Генеративные модели на вариационных автокодировщиках

Генеративные сети

  • Принцип работы генеративных сетей
  • Особенности обучения GAN
  • Сходимость GAN
  • Как оценить результат GAN
  • Какие архитектуры могут быть в генераторе и дискриминаторе
  • Пример генерации рукописных цифр

Кластеризация

  • В чём заключается задача кластеризации
  • Алгоритм K-mean
  • Как оценить качество разбиения
  • Как определить оптимальное количество классов

Генетические алгоритмы

  • Принцип генетических алгоритмов
  • Области применения ГА
  • Плюсы и минусы ГА
  • Примеры формирования ботов 
  • Примеры различных функций скрещивания и мутации
  • Что влияет на сходимость ГА
  • Особенности подбора архитектуры нейронной сети с помощью ГА

Классификация и регрессия

  • Чем отличается задача классификации и регрессии
  • Чем отличаются архитектуры сетей
  • Чем отличается подготовка данных
  • Чем отличаются loss функции и метрики
  • Нормализация данных

Сегментация

  • В чём заключается задача сегментации
  • Как подготавливается y_train для сегментации
  • Какие архитектуры применяются для сегментации

Object detection

  • В чём заключается задача object detection
  • Как подготавливается база для object detection
  • Сети FastRCNN и FasterRCNN
  • Сеть RetinaNet
  • Сеть Yolo
  • В чем заключается идея использования анкоров в моделях YOLO и Retina

Обработка текстов

  • Как параметризуются тексты
  • Как формируется словарь
  • Параметризация с помощью bag of words
  • Параметризация с помощью embedding
  • Какие сети используются для обработки текста
  • Принцип работы keras’овского токенайзера
  • Пример на разбор с изменением размерности

Временные ряды

  • Как формируются x_train и y_train для временных рядов
  • В чём особенности формирования обучающей и проверочной выборок
  • Какие архитектуры используются для прогнозирования временных рядов
  • Что такое проблема автокорреляции? Как она решается?
  • Решение проблемы разбалансировки

Аудио

  • Как параметризуется аудиосигнал
  • Что такое спектр
  • Что такое MEL-коэффициенты
  • Какие есть другие полезные параметризации аудио сигнала
  • Как проводится нарезка аудио для обработки
  • Какие сети используются для обработки аудио

Обучение с подкреплением

  • Принципы обучения с подкреплением
  • Чем обучение с подкреплением отличается от других задач – классификация, регрессия и т.п.
  • Принцип алгоритма Policy gradient – что подаётся на вход сети, а что прогнозируется?
  • Принцип алгоритма DQN – что подаётся на вход сети, а что прогнозируется?
  • Policy gradient: принцип распространения подкрепления в обратную сторону
  • Policy gradient: принцип формирования loss в зависимости от подкрепления
  • Примеры задач для обучения с подкреплением

Tensorflow

  • Отличия от Keras
  • Плюсы и минусы
  • В чём заключается принцип создания графа
  • Основные функции tensorflow
  • Инициализация
  • Графы и сессии
  • Как реализуется полносвязная сеть
  • Как реализуется свёрточная сеть
  • Как реализуется генеративная сеть

PyTorch

  • Отличия от Keras
  • Как реализуется полносвязная сеть
  • Как реализуется свёрточная сеть
  • Как реализуется генеративная сеть

Активационные функции

  • Какие есть основные активационные функции
  • Где какие активационные функции применяются

Функции ошибки, loss

  • Какие существуют виды loss
  • Где какие loss используются

Callbacks

  • Для чего нужны callback-и
  • Типовые callback-и
  • Как написать свой callback

Аугментация

  • Для чего нужна аугментация
  • Аугментация изображений
  • Аугментация текстовых данных
  • Аугментация временных рядов
  • Аугментация аудио

Полезные ссылки

тест по курсу https://colab.research.google.com/drive/1h7um3h9Yls9nW-E_AKWke9v-MjYlYddp

Ответы на данные вопросы я пишу по возможности сам и в основном для себя. Поэтому в ответах могут и будут содержаться неточности, ошибки, а также ответы могут быть неполными. Прошу отнестись с пониманием. 

0

Добавить комментарий