Курс предлагает углублённое и персонализированное освоение ключевых этапов машинного обучения: от предобработки данных и выбора признаков до построения, оценки и интерпретации моделей. Слушатель работает с библиотеками scikit-learn, Pandas, NumPy, знакомится с методами классификации, регрессии и кластеризации, а также изучает инструменты оптимизации гиперпараметров и визуализации значимости признаков (SHAP).
Программа строится вокруг практики — преподаватель помогает не только освоить инструменты, но и применить их к реальным задачам слушателя, адаптируя темы под его цели и опыт.
Документ по окончании
📜 Удостоверение о повышении квалификации – для слушателей с высшим или средним профессиональным образованием.
📜 Сертификат о прохождении обучения – для всех остальных участников.
Содержание
- 5 модуля
- 40 уроков
- 40 часов
- Блок 1. Введение в машинное обучение6
- 1.1Основные концепции машинного обучения
- 1.2Практическая работа №1. Настройка окружения и работа с датасетом
- 1.3Основные библиотеки и инструменты для машинного обучения
- 1.4Практическая работа №2. Загрузка и исследование датасета (EDA)
- 1.5Разделение данных на обучающую и тестовую выборки
- 1.6Практическая работа №3. Разделение данных и проверка их качества
- Блок 2. Предобработка данных (scikit-learn)8
- 2.1Работа с пропущенными значениями
- 2.2Практическая работа №4. Обработка пропущенных значений в датасете
- 2.3Кодирование категориальных признаков
- 2.4Практическая работа №5. Кодирование категориальных признаков
- 2.5Масштабирование данных
- 2.6Практическая работа №6. Масштабирование признаков для машинного обучения
- 2.7Выбор важных признаков (Feature Selection)
- 2.8Практическая работа №7. Автоматический отбор признаков
- Блок 3. Классификация и регрессия10
- 3.1Введение в методы классификации
- 3.2Практическая работа №8. Реализация простого классификатора
- 3.3Линейные модели: Логистическая регрессия
- 3.4Практическая работа №9. Обучение логистической регрессии на реальных данных
- 3.5Деревья решений в классификации
- 3.6Практическая работа №10. Классификация с использованием деревьев решений
- 3.7Ансамбли моделей: Random Forest и градиентный бустинг
- 3.8Практическая работа №11. Использование ансамблевых методов для улучшения классификации
- 3.9Методы регрессии: Линейная и полиномиальная регрессия
- 3.10Практическая работа №12. Моделирование зависимости с помощью линейной регрессии
- Блок 4. Кластеризация и снижение размерности6
- 4.1Введение в кластеризацию данных
- 4.2Практическая работа №13. Кластеризация данных с использованием KMeans
- 4.3Снижение размерности с PCA (Principal Component Analysis)
- 4.4Практическая работа №14. Применение PCA для снижения размерности данных
- 4.5DBSCAN и агломеративная кластеризация
- 4.6Практическая работа №15. Кластеризация данных с DBSCAN
- Блок 5. Оценка моделей и гиперпараметры10
- 5.1Оценка качества модели: метрики и кросс-валидация
- 5.2Практическая работа №16. Оценка модели классификации
- 5.3Балансировка классов в данных
- 5.4Практическая работа №17. Балансировка данных перед обучением модели
- 5.5Подбор гиперпараметров моделей
- 5.6Практическая работа №18. Автоматический подбор параметров для улучшения модели
- 5.7Интерпретируемость моделей и SHAP
- 5.8Практическая работа №19. Анализ важности признаков с SHAP
- 5.9Итоговый проект по машинному обучению
- 5.10Практическая работа №20. Финальный проект по машинному обучению
Требования
- Знание Python на уровне уверенного пользователя
- Установленная среда разработки (рекомендации даются в начале курса)
Особенности
- Персональное обучение — занятия проходят в удобное время и подстраиваются под ваш уровень
- Проектный подход — освоенные техники применяются в собственном проекте
- Современные библиотеки и инструменты — scikit-learn, SHAP, Pandas, GridSearchCV
- Практическое понимание метрик, переобучения и интерпретируемости моделей
Целевая аудитория
- Начинающие специалисты в области Data Science
- Аналитики, желающие автоматизировать прогнозные модели
- Разработчики, осваивающие инструменты машинного обучения

