[Udemy] Машинное обучение: кластеризация и классификация на Python (2020)

Администратор
Команда форума
Администратор
Модератор
VIP Разбойник
Регистрация
22 Фев 2018
Сообщения
22.889
Реакции
608.440
Монетки
306032
    Голосов: 0
    0.0 5 0 0 https://tor10.sharewood.me/threads/udemy-%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5-%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5-%D0%BA%D0%BB%D0%B0%D1%81%D1%82%D0%B5%D1%80%D0%B8%D0%B7%D0%B0%D1%86%D0%B8%D1%8F-%D0%B8-%D0%BA%D0%BB%D0%B0%D1%81%D1%81%D0%B8%D1%84%D0%B8%D0%BA%D0%B0%D1%86%D0%B8%D1%8F-%D0%BD%D0%B0-python-2020.53725/
  • #1
Автор: Udemy
Название: Машинное обучение: кластеризация и классификация на Python (2020)

1585488956211.png


Чему вы научитесь
  • EDA: исследовательский анализ данных
  • Точность, полнота, F1 и каппа метрики
  • Простая кластеризация данных
  • Логистическая регрессия: простая и многоуровневая
  • Метод ближайших соседей: kNN
  • Наивный Байес
  • Метод опорных векторов: SVM
  • Решающие деревья м случайный лес
  • XGBoost и градиентный бустинг
  • CatBoost и LightGBM
  • Ансамбль голосования и стекинга
Требования
  • Продвинутый Python
  • Основы математической статистики
  • Основы машинного обучения
Описание
Мы разберем прикладные подходы к кластеризации и классификации данных с помощью машинного обучения для страхового скоринга Prudential в соревновании на Kaggle вплоть до формирования конечного результата.

В этом курсе:
  • Проведение исследовательского анализа данных для поиска зависимостей: EDA.
  • Метрики классификации: точность, полнота, F1, квадратичная каппа и матрица неточностей.
  • Очистка данных и оптимизация потребления памяти.
  • Кластеризация данных и метод ближайших соседей.
  • Простая и иерархическая логистическая регрессия.
  • Метод ближайших соседей и поиск оптимальной модели.
  • Метод опорных векторов: SVM.
  • Дерево принятия решения и случайный лес (бэггинг).
  • XGBosot и градиентный бустинг.
  • LightGBM и CatBoost
  • Ансамбль стекинга для голосования и выбора лучшего результата.
  • Выгрузка результата для соревнования на Kaggle.
Для кого этот курс:
  • Аналитики Python, изучающие машинное обучение
  • Программисты больших данных
  • Исследователи больших данных

Подробнее:
Для просмотра содержимого вам необходимо авторизоваться.

Скачать:
Для просмотра содержимого вам необходимо авторизоваться
 
11
Сверху Снизу