Skip to content

myupeshkov/Deep_Learning_HSE

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

72 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

Deep Learning (Основы глубинного обучения)

Курс посвящён изучению современных методов машинного обучения, широко используемых в практических задачах. В первой части изучаются методы глубинного обучения: основы оптимизации, принципы обучения нейронных сетей, сети прямого распространения, архитектуры для работы с изображениями и текстовыми данными. Во второй части изучаются практические вопросы машинного обучения: подготовка данных, подбор гипепараметров, оптимизация модели под конкретную метрику, разработка признаков.

Исходный репозиторий

Страница курса

Основные библотеки

  • torch
  • torch.nn
  • torchvision
  • numpy
  • pandas
  • matplotlib
  • sklearn

План семинаров

  1. Знакомство с pytorch
  • numpy, pytorch
  • Первая нейросеть (предсказание на датасете MNIST)
  1. Сверточные сети и их параметры
  • Параметры сверточных сетей
    • kernel_size
    • stride
    • padding
    • dilation
  • MaxPooling
  • ReLU
  • Простая архитектура CNN на датасете CIFAR-10
  • Визуализация параметров сети
  1. Классификация изображений
  • VGG сеть
  • использование Dropout
  • Аугментация
  1. Методы оптимизации
  • SGD
  • SGD with momentum
  • Adagrad (в том числе своими руками)
  • RMSprop
  • Adam
  • Сравнение методов оптимизации
  1. Fine-tuning
  • ResNet своими руками
  • предобученный ResNet-18
  • Сравнение сетей
  • Adversarial attacks
  1. Semantic segmentation
  • IoU
  • U-Net
  • Интерпретация
  1. Детекция изображений на датасете Penn-Fudan
  • R-CNN
  • Fast R-CNN
  1. Автоэнкодеры (на примере MNIST)
  • Автоэнкодер своими руками
  • Структура и интерпретация латентного пространства
  • Semi-supervised learning (with Random Forest Classifier)
  1. Skip-gram Word2vec
  • word2vec
    • Pre-processing
    • Subsampling
    • Making batches
    • validation
  • SkipGram model
  • visualizing word vectors
  1. RNN, LSTM
  • LSTM своими руками, включая токенизацию и создание мини-батчей
  • Подбор оптимальных гиперпараметров
  1. Transformers
  • Transformer своими руками
  • MultiHead Self-Attention
  • LabelEncoder
  • LSTMEncoder, LSTMDecoder
  • Сравнение моделей для задачи NMT
  • BERT
  • BPE
  • GPT