Программа повышения квалификации «Визуализация данных на Python» охватывает создание статических, интерактивных и публикуемых визуализаций: от базовых графиков Matplotlib и Seaborn до анимированных дашбордов на Plotly и Streamlit.
Курс включает 18 лекционных уроков (36 академических часов) и 18 практических работ для самостоятельного выполнения. Обучение проходит в индивидуальном формате по согласованному расписанию.
Вы освоите профессиональную визуализацию данных: построение графиков для аналитики, создание интерактивных дашбордов, анимацию временных рядов, экспорт отчётов в HTML/PDF и разработку веб-интерфейсов с помощью Streamlit — всё необходимое для презентации данных в бизнесе и науке.
Технологический стек
Python
Matplotlib
Seaborn
Plotly
Jupyter Notebook
Streamlit
Pandas
nbconvert
Git
Matplotlib
Seaborn
Plotly
Jupyter Notebook
Streamlit
Pandas
nbconvert
Git
Программа реализуется Центром индивидуального обучения Центра 25-12.
Обучение проходит в формате 1-на-1 с преподавателем по согласованному расписанию.
Обучение проходит в формате 1-на-1 с преподавателем по согласованному расписанию.
Документ об окончании
📜 Удостоверение о повышении квалификации — для слушателей с высшим или средним профессиональным образованием.
📜 Сертификат о прохождении обучения — для всех остальных участников.
📜 Сертификат о прохождении обучения — для всех остальных участников.
Стоимость и оплата
Оплата производится единым платежом. Все платежи осуществляются напрямую в адрес образовательной организации — без процентов и скрытых комиссий.
Стоимость программы — 72 000 ₽
Содержание
- 1 модуль
- 36 уроков
- 60 часов
- Программа курса36
- 1.1Принципы эффективной визуализации данных
- 1.2Практическая работа №1. Создание первого графика с Matplotlib
- 1.3Настройка стиля и оформления графиков
- 1.4Практическая работа №2. Кастомизация цветов, меток и легенд
- 1.5Линейные графики и аннотации
- 1.6Практическая работа №3. Визуализация динамики показателей во времени
- 1.7Гистограммы и столбчатые диаграммы
- 1.8Практическая работа №4. Анализ распределений и категориальных данных
- 1.9Круговые диаграммы и тепловые карты
- 1.10Практическая работа №5. Визуализация пропорций и матриц корреляции
- 1.11Визуализация временных рядов: тренды и волатильность
- 1.12Практическая работа №6. Построение графиков с подвижным средним
- 1.13Использование Seaborn для статистической визуализации
- 1.14Практическая работа №7. Построение графиков с автоматической стилизацией
- 1.15Сравнение нескольких временных рядов
- 1.16Практическая работа №8. Наложение и синхронизация нескольких временных рядов
- 1.17Введение в Plotly: интерактивные графики
- 1.18Практическая работа №9. Создание интерактивного линейного графика в Jupyter
- 1.19Элементы управления в интерактивных графиках
- 1.20Практическая работа №10. Добавление слайдеров и выпадающих меню в Plotly
- 1.21Визуализация временных рядов с анимацией
- 1.22Практическая работа №11. Анимированные временные ряды в Plotly
- 1.23Интерактивные тепловые карты и картограммы
- 1.24Практическая работа №12. Построение интерактивной карты с геоданными
- 1.25Диаграммы рассеяния и регрессионные линии
- 1.26Практическая работа №13. Визуализация зависимостей между переменными
- 1.27Ящиковые и скрипичные диаграммы
- 1.28Практическая работа №14. Сравнение распределений по группам
- 1.29Корреляционные матрицы и heatmap
- 1.30Практическая работа №15. Визуализация взаимосвязей признаков
- 1.31Отчёты в Jupyter Notebook
- 1.32Практическая работа №16. Оформление аналитического отчёта в Jupyter
- 1.33Публикация отчётов: HTML и PDF
- 1.34Практическая работа №17. Экспорт Jupyter Notebook в статический отчёт
- 1.35Разработка веб-интерфейса с Streamlit
- 1.36Практическая работа №18. Создание интерактивного дашборда для анализа данных
Проекты связаны с построением ETL‑цепочек, потоковой аналитикой и автоматизацией обработки для ML‑моделей. Всё — на практике и в коде.
Нет, всё изучается с нуля. Преподаватель поможет освоить интерфейсы и конфигурации.
Да, индивидуальный формат позволяет адаптировать темп и расширить темы под конкретные цели.
Используются API, базы данных, файлы форматов CSV, JSON и потоки сообщений через Kafka.
Требования
- Знание Python на базовом уровне
- Понимание структуры данных (JSON, CSV, SQL)
- Установленная среда разработки (рекомендации даются в начале курса)
Особенности
- Практика на реальных задачах — каждое занятие включает пошаговую работу с данными
- Инструменты индустриального уровня — Kafka, Spark, Airflow, Dask, MLflow
- Поддержка преподавателя на каждом этапе обучения
- Особый акцент на автоматизацию и масштабируемость решений
Целевая аудитория
- Аналитики и инженеры данных
- Python-разработчики, автоматизирующие обработку данных
- Специалисты, переходящие в сферу ML Ops и Data Engineering

