СКАЧАТЬ [Udemy] Машинное обучение без учителя на Python - полный курс [Центр digital-профессий ITtensive] БЕСПЛАТНО через торрент (слив складчины), отзывы о курсе и авторе

Udemy [Udemy] Машинное обучение без учителя на Python - полный курс [Центр digital-профессий ITtensive]

  • Автор темы Друг семьи
  • Дата начала
Д

Друг семьи

Название: Машинное обучение без учителя на Python: полный курс


Машинное обучение без учителя на Python: полный курс
Выигрываем хакатоны по выделению факторов (PCA, ICA, NMF, MDS, t-SNE) и кластеризации (К-средних, DBSCAN, OPTICS, SOM)

Описание
Мы разберем 2 задачи с хакатонов 2020 года:

1. По выделению факторов, в наибольшей степени влияющих на продолжительность жизни в России, с точки зрения фундаментальных и прикладных подходов к понижению размерности данных. В заключении построим ансамбль моделей для предсказания продолжительности жизни, базируясь на выделенных факторах.

2. По прогнозу срока экспозиции объявлений с хакатона Яндекс.Недвижимости - решим ее с помощью методов кластеризации и поиска аномалий.

Курс разбит на 7 частей. В первой части мы последовательно пройдем все этапы работы с данными: от видов задач и их постановки до работы с моделями машинного обучения для минимизации предсказательной ошибки. Дополнительно рассмотрим фундаментальные основы построения моделей машинного обучения, базовые метрики и наиболее простые модели - линейную регрессии, решающие деревья и случайный лес. А также ансамбли машинного обучения.

Во второй части на практике разберем:
  • Очистку и предобработку данных - ETL

  • Линейную регрессию для экстраполяции данных

  • Линейную регрессию с регуляризацией для выделения факторов

  • Информационные критерии понижения размерности
В заключении создадим ансамбль стекинга из простых моделей понижения размерности.

Третья часть посвящена матричным методам:
  • Метод главных компонент (PCA)

  • Сингулярное разложение (SVD)

  • Анализ независимых компонент (ICA)

  • Положительно-определенные матрицы (NMF)
Уточним решение задачи обучения без учителя через матричные методы.

В четвертой части рассмотрим нелинейные подходы:
  • Многомерное шкалирование (MDS).

  • t-SNE

  • UMAP

  • LargeVis
Стабилизируем ансамбль понижения размерности и используем его для предсказания продолжительности жизни в России, основываясь на наиболее важных макроэкономических показателях.

Пятая часть посвящена базовым моделям кластеризации:
  • Изучите внешние и внутренние метрики кластеризации.

  • Разберете модели К-средних и FOREL и потренируетесь в их применении.

  • Рассмотрите принципы работы агломеративной кластеризации и используете ее на практике.

  • Узнаете про расстояние Махаланобиса и работу GMM.
В качестве задания соберем простую модель кластеризации исходных данных.

В шестой части перейдем к продвинутой кластеризации:
  • Погрузитесь в различия моделей DBSCAN, HDBSCAN и OPTICS.

  • Разберете особенности модели распространения близости.

  • Посмотрите на расширяющийся нейронный газ.

  • Запустите и обучите самоорганизующиеся карты Кохонена (SOM).

  • Столкнетесь с матрицей Кирхгофа и спектральной кластеризацией.
И соберем ансамбль из несколько моделей кластеризации.

В завершении:
  • Изучите поиск аномалий и метрику pAUC.

  • Используете тест Смирнова-Граббса на практике.

  • Потренируетесь в эллипсоидальной аппроксимации.

  • Разберете разницу между LOF и ABOD.

  • Обучите и используете модель COPOD.

  • Вырастите как iForest, как и расширенный лес изоляции.
В финале соберем свое решение задачи Хакатона 2020 года.

Для кого этот курс:
  • Аналитики Python, изучающие машинное обучение
  • Программисты больших данных
  • Исследователи больших данных

Подробнее:

Скачать: a
 

Похожие темы