СТАРТ ПРОГРАММЫ
5 ОКТЯБРЯ
ФОРМАТ ОБУЧЕНИЯ
ОНЛАЙН
КОМУ ПОДОЙДЁТ
ДЛЯ JUNIOR/MIDDLE

ПОЭТАПНАЯ ОПЛАТА
НА 5 МЕСЯЦЕВ

ЕВГЕНИЙ ЕРМАКОВ
Инженерия данных от проектирования до нетривиальной обработки.
DATA ENGINEER.
ОБУЧЕНИЕ У НАС |
НАУЧИСЬ ПРАВИЛЬНО ГОТОВИТЬ ДАННЫЕ ЛЮБЫХ РАЗМЕРОВ И СЛОЖНОСТИ
Обучающие выборки для машинного обучения и красивые графики для отчётов не появляются сами собой: данные нужно собирать, хранить, валидировать и комбинировать между собой, быстро реагируя на изменения в их структуре.
Стандартный путь:
НАЧИНАЕШЬ РАБОТАТЬ С ДАННЫМИ
ПЫТАЕШЬСЯ СДЕЛАТЬ СИСТЕМНО И РАСШИРЯЕМО
ПОНИМАЕШЬ, ЧТО НЕ ХВАТАЕТ ЗНАНИЙ, ЧТОБЫ ОХВАТИТЬ ВСЮ АРХИТЕКТУРУ DWH ЦЕЛИКОМ
×
Для работы с данными недостаточно знать один инструмент — необходимо учитывать весь спектр взаимосвязей большого хранилища, понимать потребности заказчика и воспринимать данные как конечный продукт.
Сильный инженер данных за счёт широты знаний может выбрать правильный инструмент под любые задачи, охватить всю архитектуру DWH целиком и донести результат до потребителей данных.
Для работы с данными недостаточно знать один инструмент — необходимо учитывать весь спектр взаимосвязей большого хранилища, понимать потребности заказчика и воспринимать данные как конечный продукт.
Сильный инженер данных за счёт широты знаний может выбрать правильный инструмент под любые задачи, охватить всю архитектуру DWH целиком и донести результат до потребителей данных.
КАК ПРОХОДИТ ОБУЧЕНИЕ
О курсе
Системы для работы
Инфраструктура
Поддержка студентов
Поиск работы
УЗНАВАЙТЕ ПОДРОБНЕЕ О КУРСЕ
Преподаватели расскажут о курсе, обсудят каждый модуль, его ценность и особенности использования полученных знаний в дальнейшей работе.
РАБОТАЙТЕ С ДАННЫМИ В ЛЮБЫХ СИСТЕМАХ
— Изучайте архитектуру DWH и подходы к их проектированию

— Сравнивайте на практике BigData-решения на базе Hadoop и реляционные MPP СУБД

— Учитесь работать в облаках и запускать задачи на Airflow
ИСПОЛЬЗУЙТЕ НАШУ ИНФРАСТРУКТУРУ
— Работайте во всех необходимых инструментах на нашей инфраструктуре. Вам не придется устанавливать ПО на свой компьютер, мы предоставляем доступ ко всем технологиям

— Используйте наши сервера и платформу, чтобы работать на таких инструментах как Hadoop, Greenplum, PostgreSQL, Airflow, Spark, Hive, Kubernetes
ЗАДАВАЙТЕ ЛЮБЫЕ ВОПРОСЫ В ПОДДЕРЖКУ
— Обсуждайте задачи и проекты с преподавателями и менторами
— Вашими наставниками будут Data-инженеры из ведущих компаний России
По окончании курса мы помогаем нашим студентам устроиться на работу: объясняем, как правильно составить резюме и сопроводительное письмо, отрабатываем навыки самопрезентации, а затем отправляем ваше резюме с рекомендациями компаниям-партнёрам. В течение всего процесса трудоустройства мы поддерживаем и сопровождаем наших студентов — вплоть до получения желаемого оффера.
УСТРАИВАЙТЕСЬ НА РАБОТУ ПОСЛЕ КУРСА
РАБОТАЙТЕ С ДАННЫМИ В ЛЮБЫХ СИСТЕМАХ
— Изучайте архитектуру DWH и подходы к их проектированию
— Сравнивайте на практике BigData-решения на базе Hadoop и реляционные MPP СУБД
— Учитесь работать в облаках и запускать задачи на Airflow
79
ИСПОЛЬЗУЙТЕ НАШУ ИНФРАСТРУКТУРУ
— Работайте во всех необходимых инструментах на нашей инфраструктуре. Вам не придется устанавливать ПО на свой компьютер, мы предоставляем доступ ко всем технологиям

— Используйте наши сервера и платформу, чтобы работать на таких инструментах как Hadoop, Greenplum, PostgreSQL, Airflow, Spark, Hive, Kubernetes
90
ЗАДАВАЙТЕ ЛЮБЫЕ ВОПРОСЫ В ПОДДЕРЖКУ
— Обсуждайте задачи и проекты с преподавателями и менторами
— Вашими наставниками будут Data-инженеры из ведущих компаний России
108
Программа поможет понять проблематику построения хранилища данных и покажет, как применить свой опыт разработки для решения задач в области инженерии данных.
ДЛЯ РАЗРАБОТЧИКОВ
Понимание инженерии данных даст представление о том, что происходит за пределами очистки и анализа датасетов, и позволит выйти на качественно новый уровень в аналитике.
ДЛЯ АНАЛИТИКОВ И ДАТА-САЙЕНТИСТОВ
ДЛЯ КОГО ЭТА ПРОГРАММА:
ЧТО НЕОБХОДИМО ДЛЯ КУРСА?
SQL
PYTHON
Базовый синтаскис

Понимание базовых структур данных (список, словарь, кортеж)

Основы объектно-ориентированного программирования (class, object)

Базовый синтаксис (select, group by, having)

Понимание подзапросов и всех видов join, умение их комбинировать

Оконные функции
ЕСЛИ ЭТОТ КУРС КАЖЕТСЯ ВАМ СЛОЖНЫМ
ТЕХНОЛОГИИ, ИСПОЛЬЗУЕМЫЕ НА КУРСЕ:
ПРОГРАММА КУРСА ://
|
В этом модуле мы познакомимся с верхнеуровневой логической архитектурой DWH, разберём её основные компоненты, которые будут освещены далее в курсе, а также рассмотрим в теории и разберём на практике разные подходы к проектированию детального слоя.
Открыть программу
1. Архитектура DWH
Начнём с простого: что такое хранилище данных, зачем в нём столько слоев, кто такие Инмон и Кимбалл и в чём различие их подходов к построению DWH.
2. Нормальные формы
Вспомним важные аспекты теории о нормальных формах, нормализации и денормализации.
3. Методология Dimensional modeling
Многомерное моделирование является классическим подходом к созданию витрин данных. Рассмотрим популярные схемы: "звезда", "снежинка", "созвездие". Обсудим таблицы фактов и измерений и поговорим о вариантах хранения медленно меняющихся измерений.
4. Методология Data Vault
Data Vault является одним из современных подходов к проектированию хранилищ данных. На занятии мы рассмотрим его особенности и предпосылки возникновения новой методологии. Также поговорим про основные сущности Data Vault: Hub, Link, Sattelite.
5. Методология Anchor modeling
Что будет, если довести нормализацию до предельной формы? Получится Anchor modeling, особенности которого мы рассмотрим на занятии. Также обсудим основные сущности Anchor modeling: Anchor, Link, Knot, Attribute.
6. Сравнение методологий проектирования
Сравним все рассмотренные подходы между собой и дадим ответ на самый главный вопрос: "Как выбрать оптимальный в каждом отдельном случае?"
|
В этом модуле познакомимся с реляционными и MPP базами данных, рассмотрим, как они работают изнутри, и узнаем, что и в каком случае лучше выбрать. Изучим архитектуру разнообразных решений на рынке. Попрактикуемся готовить PostgreSQL и MPP на примере GreenPlum.
Открыть программу
1. Реляционные и MPP Базы данных. Что и как в них хранить.
Разберёмся, как работают реляционные базы данных, как хранятся данные и какое назначение у реляционных баз данных.
2. Объекты баз данных. Зачем и что используется.
Поговорим про таблицы и индексы, обсудим последовательности и возможные триггеры, и разберемся в процедурах и функциях.
3. Обработка запросов в обычной СУБД и в MPP СУБД.
Поговорим про особенности построения запросов и изучение плана запроса. Обсудим эффективное получение данных из GreenPlum. Разберемся, в чем отличия от обычных реляционных баз данных. Посмотрим варианты решений на рынке и их особенности.
4. Применение R, Python, GeoSpatial в расчетах на GreenPlum
Поговорим о том, как использовать R и Python прямо внутри GreenPlum.
|
В этом модуле познакомимся с механизмами распределённого хранения и обработки данных на базе Hadoop стека. Разберём основные паттерны реализации распределённой обработки. Рассмотрим вопросы отказоустойчивости и восстановления после сбоев. Коснёмся потоковой обработки данных и уделим внимание методам и средствам мониторинга и профилирования spark заданий.
Открыть программу
1. HDFS
Подробно рассмотрим реализацию идеи распределённого отказоустойчивого хранения в Hadoop экосистеме.
2. YARN, MapReduce
Поговорим про универсальный менеджер ресурсов, обсудим реализацию MapReduce парадигмы и обсудим её сильные и слабые стороны.
3. Apache Hive. SQL для Big Data
Рассмотрим SQL поверх больших данных, пройдём путь от запросов до уровня хранения.
4. Apache HBase. Масштабируемая колоночная база данных
Обсудим NoSQL базы данных и рассмотрим колоночную базу данных в мире Hadoop.
5. Apache Spark
Познакомимся с основными идеями Apache Spark. Обсудим, чем он отличается от MapReduce. Поговорим про модель вычисления и RDD.
6. Spark SQL. Dataframes
Обсудим Spark Dataframe и научимся использовать SQL в Spark.
7. Apache Kafkа. Spark streaming
Познакомимся с масштабируемым брокером сообщений. Научимся обрабатывать данные "на лету".
8. Отладка, профилирование и мониторинг Spark job
Поговорим про инструментальные средства отладки и мониторинга. Обсудим, как правильно читать статистику и логи.
|
В этом модуле познакомимся с Apache Airflow, научимся его настраивать и строить с его помощью пайплайны.
Открыть программу
1. ETL
ETL — основной инструмент для управления хранилищами данных, у которого есть свои принципы построения. Пройдёмся по основным из них и познакомимся с шедулерами.
2. Airflow
Airflow состоит из DAG'ов (Directed Acyclic Graph), DAG — из тасков. Таск может быть оператором или сенсором. Посмотрим, как всё это выглядит на практике. Расскажем о таких компонентах Airflow, как воркер, шедулер, веб-сервер, база данных. На примере рассмотрим простой DAG.
3. Сложные пайплайны
В Airflow для более сложных пайплайнов есть дополнительные инструменты: сабдаги и группы тасков для группировки задач, trigger rule и BranchPythonOperator для настраивания правил, jinja для параметризации и xcom для передачи данных между тасками. Научимся ими пользоваться.
4. Разработка своих плагинов
В Airflow есть много готовых операторов. Но иногда нужно автоматизировать работу с каким-нибудь API или реализовать хитрый обработчик для стандартного источника. На этом уроке мы напишем собственный хук, оператор и сенсор.
5. Установка и настройка Airflow
Есть несколько способов развернуть Airflow: просто запустить pip3 install apache-airflow, развернуть готовый докер-образ или устроить хайлоад с кластеризацией. Немного поговорим о плюсах и минусах каждого подхода. Посмотрим, какие ручки даёт нам Airflow для настройки. Научимся управлять Airflow через Command Line Interface.
|
В этом модуле познакомимся с облаками и инструментами для построения DWH и Data Lake, рассмотрим основы Kubernetes и получим практические навыки применения Kubernetes для работы с данными.
Открыть программу
1. Введение в облака
Рассмотрим основные модели облачных услуг: IaaS, PaaS, SaaS. Обсудим основы создания и использования VM и сервисов.
2. DWH и Data Lake в облаках
Обсудим BigQuery, Snowflake, AWS Athena и разные другие инструменты. Рассмотрим архитектуру хранилищ данных в облаках, обсудим традиционный и облачный подходы, а также поговорим про разнесение на слои данных.
3. DE и Kubernetes
Рассмотрим основы Kubernetes, поговорим про его архитектуру и базовые абстракции. Обсудим инструменты DE в Kubernetes, такие как Spark, Airflow, Presto и др.
|
В этом модуле познакомимся с Tableau — одним из самых мощных BI-инструментов. Рассмотрим основные принципы работы с данными с точки зрения их визуализации.
Открыть программу
1. Зачем нужна визуализация. Основы Tableau
Разберёмся, зачем инженеру данных нужно изучать визуализацию данных. Поймем, какие бизнес-задачи она решает, как выбрать основные виды графиков и как построить их в Tableau.
2. Как сделать дашборд
Рассмотрим, какие бывают дашборды, чем они отличаются и как сверстать свой дашборд в Tableau.
3. Расчёты и интерактивность
Поговорим о том, как делать расчёты на стороне Tableau и какую интерактивность можно сделать на дашборде.
4. Сбор требований: Dashboard Canvas
Разберёмся с тем, как Tableau работает с данными: какие есть способы подключения и модели данных, что лучше подходит в разных бизнес-кейсах. Рассмотрим запросы Tableau при подключении к базам данных в различных случаях.
5. Разбор дашбордов по мониторингу
Рассмотрим дашборд по мониторингу ETL процесса.
6. Разработка дашборда Meta DWH
Обсудим, с помощью каких KPI можно оценивать работу DWH платформы, и рассмотрим дашборды для мониторинга этих KPI.
|
В этом блоке познакомимся с модулем Spark ML. Изучим подходы по обучению и применению моделей машинного обучения на больших данных.
Открыть программу
1. Введение в теорию распределенного МО
Обсудим подходы к распределенному МО (Model Distributed vs Data Distributed).
2. Spark ML и распределенное машинное обучение
Разберемся в теории того, как работает распределенное МО. Изучим и разберемся как применять Spark ML, Transformers, Estimators, Pipeline, HT и так далее.
3. Использование готовых моделей через Pandas UDF
Разберемся, как применять готовые обученные не распределенные модели на больших данных.
|
В этом модуле рассмотрим применяемые инструменты для помощи в построении ML пайпланов, версионирования датасетов и организации учета и трекинга ML моделей.
Открыть программу
1. Общие пайплаины обучения моделей МО
Поговорим про общий пайплаин и этапы в обучении любой модели. Разберемся, зачем готовить датасеты и как этим управлять. Обсудим проблемы, с которыми сталкиваются при обучении моделей, например, воспроизводимость экспериментов, трекинг, протухание.
2. Методы и подходы к версионированию датасетов (DVC)
Обсудим методы и подходы к версионированию датасетов на примере DVC. Научимся вести версионирование датасетов и пользоваться ими.
3. Учет и трекинг моделей с MLFlow
Разберемся, как применять MLFlow для сохранения и выгрузки моделей.
|
В этом блоке познакомимся с подходами, применяемыми компаниями для управления данными. Разберем подходы для управления данными, происхождения данных и контроля качества данных.
Открыть программу
1. Data Governance vs Data management
Поговорим про Data Governance vs Data management и обсудим существующие инструменты.
2. Data Lineage (Data Provenance)
Разберемся, что такое Data Lineage, зачем он нужен, а также поговорим о существующих инструментах.
3. Data Quality
Поговрим про Data Quality, разберемся, что такое качественные данные и как это можно оценивать.
Руководитель DWH в Yandex.Go, куратор курса
ЕВГЕНИЙ ЕРМАКОВ
Залог успешной работы — данные, которые нужно собирать, хранить, валидировать и комбинировать между собой, быстро реагируя на изменения в их структуре.
Наш курс даст универсальные знания в области инженерии данных, которые применяются для проектирования систем хранения и обработки данных, их автоматизации и экономии ресурсов кластера.
Все лекции доступны в записи
ОБУЧЕНИЕ ПРОХОДИТ В ИНТЕНСИВНОМ ФОРМАТЕ ПО 3 ЗАНЯТИЯ В НЕДЕЛЮ
На учёбу наши студенты тратят в среднем 10 часов в неделю
ДОМАШНИЕ ЗАДАНИЯ ВЫ РЕШАЕТЕ НА НАШЕЙ ИНФРАСТРУКТУРЕ
ПРОГРАММА ТРУДОУСТРОЙСТВА>>>
ТРУДОУСТРОЙСТВО
Устраиваем не только на junior позиции, но и более опытных специалистов
ПОДГОТОВКА
Помощь с резюме и сопроводительным письмом, отработка самопрезентации
РЕКОМЕНДАЦИИ
Рекомендации компаниям-партнёрам, среди которых Озон, Яндекс, Авито и др.
СОПРОВОЖДЕНИЕ
Сопровождение наших выпускников в трудоустройстве до момента оффера
84,4%
Процент успешно трудоустроенных студентов
Процент посчитан по числу устроенных на работу студентов, обратившихся за помощью в поиске работы
Поможем с поиском работы, усилим ваше резюме и научим правильно презентовать свои навыки. Наша цель — довести вас до оффера.
Процент посчитан по числу устроенных на работу студентов, обратившихся за помощью в поиске работы
ПОДРОБНЕЕ
САМОПРЕЗЕНТАЦИЯ
Чтобы получить сильное резюме и навыки самопрезентации вы пройдете:
- Лекции и вебинары по составлению резюме от HR-эксперта Яндекс
- Тест-драйв собеседования
- Консультацию, на которой определите стратегию поиска работы и пропишете карьерные цели
79
ОТСЛЕЖИВАНИЕ ПРОГРЕССА
Свой прогресс в трудоустройстве вы будете отслеживать с помощью специальных дневников. Работать над ошибками мы будем вместе с вами: мы подскажем, что нужно подтянуть и в каком направлении лучше мыслить, чтобы эффективнее справляться с задачами на собеседованиях.
90
РАБОТА МЕЧТЫ
Наша цель — довести вас до оффера. Среднее время трудоустройства с сопровождением составляет 1-1,5 месяца.
108
Самопрезентация
Выбор вакансий
Отслеживание прогресса
Работа мечты
САМОПРЕЗЕНТАЦИЯ
Чтобы получить сильное резюме и навыки самопрезентации вы пройдете:
- Лекции и вебинары по составлению резюме от HR-эксперта Яндекс
- Тест-драйв собеседования
- Консультацию, на которой определите стратегию поиска работы и пропишете карьерные цели
ВЫБОР ВАКАНСИЙ
После подготовки всех необходимых материалов вы получите доступ к Telegram-каналам с вакансиями от наших партнеров, где ежедневно обновляются вакансии. На заинтересовавшие вас вакансии HR отправят ваше резюме с рекомендациями и организуют вам собеседование.
ОТСЛЕЖИВАНИЕ ПРОГРЕССА
Свой прогресс в трудоустройстве вы будете отслеживать с помощью специальных дневников. Работать над ошибками мы будем вместе с вами: мы подскажем, что нужно подтянуть и в каком направлении лучше мыслить, чтобы эффективнее справляться с задачами на собеседованиях.
РАБОТА МЕЧТЫ
Наша цель — довести вас до оффера. Среднее время трудоустройства с сопровождением составляет 1-1,5 месяца.
НАШИ ВЫПУСКНИКИ РАБОТАЮТ ЗДЕСЬ >>>
У НАС ПРЕПОДАЮТ:
УЧИТЕСЬ У >ЛУЧШИХ>
ЕВГЕНИЙ ЕРМАКОВ
Более 10 лет опыта работы с данными. Архитектор хранилищ данных и систем анализа в Mail.ru Group и Яндекс.Такси. Кандидат технических наук, автор более 10 работ в области анализа данных, соавтор монографии по теории и практике анализа параллельных баз данных.
Руководитель DWH в Yandex.Go
Модули >>>
ДИНА САФИНА
Соосновательница русскоязычного сообщества Airflow. С 2016 года собирает игровые данные в Data Lake на Hadoop с помощью Apache Airflow.
Ведущий разработчик игрового хранилища Mail.ru
Модули >>>
ETL
ПОДРОБНЕЕ
АНТОН ПИЛИПЕНКО
Последние 8 лет создаёт и развивает системы, связанные с большими данными. На протяжении 5 лет занимается консалтингом и помогает разным продуктам решать задачи в области ML, анализа данных и проведения экспериментов.
Руководитель Big Data Sbermarket
Модули >>>
ВАЛЕРИЙ СОКОЛОВ
Аналитик с опытом работы 17 лет. На протяжении 3 лет развивает инфраструктуру DWH в Яндекс.Такси. Ранее работал с базами данных в Sberbank и BSGV.
Старший аналитик платформы в MARS
Модули >>>
АЛЕКСАНДР ВОЛЫНСКИЙ
Специалист Big Data и AI, занимается внедрением сложных кастомных проектов. Участвовал в создании хранилищ данных в Платформа ОФД, X5 и Mail.ru.
Архитектор PaaS в Cloud Solutions Mail.ru
Модули >>>
РОМАН БУНИН
Руководитель команды визуализации в Яндекс.Go
Более 6 лет профессионально занимается визуализацией данных, сертифицированный Tableau специалист, кандидат технических наук, руководил проектами разработки аналитических инструментов, управлял разработкой SaaS BI сервиса в качестве операционного директора. Автор блога и канала Reveal the Data о визуализации данных и Tableau.
Модули >>>
АЛЕКСАНДР САВЧЕНКО
Руководитель R&D в Сбер
Специалист с опытом более 8 лет в реализации распределенных систем для обработки большого объема данных, облачных решений и внедрения алгоритмов машинного обучения. Участвовал в реализации платформ для работы с данными в компаниях Дом.РФ, Novartis, Kohl's, Amazon, Sber.
Модули >>>
СТОИМОСТЬ
> Проектирование DWH
> MPP реляционные СУБД
> Big Data
> ETL
> Хранилище в облаках
> Визуализация
Все модули курса. Доступ к поддержке от наших преподавателей, готовых ответить на любые вопросы. Возможность работы на удалённом сервере.
> Big ML
> Управление моделями
> Управление данными
> Поддержка от преподавателей
> Работа на удалённом сервере
Оплата в течение
5 месяцев
ПОМЕСЯЧНО:
20 000 ₽
100 000₽
Скидка 20 000 ₽
при полной оплате
ПОЛНАЯ ОПЛАТА:
80 000 ₽
УЗНАТЬ БОЛЬШЕ
Мы свяжемся с вами и ответим на все ваши вопросы по курсу. Если вы хотите оплатить курс, перейдите по этой ссылке

НАЧАЛО КУРСА 5 ОКТЯБРЯ
СТАРТ КАЖДЫЙ МЕСЯЦ 5 ЧИСЛА
Удобный способ связи
ОТВЕТЫ НА ЧАСТЫЕ ВОПРОСЫ
Вопрос:
Почему в качестве основной базы данных в рамках курса выбрана Greenplum, а не Clickhouse, HP Vertica или другая колоночная база данных?
Ответ:
Все MPP РСУБД основаны на одних и тех же базовых принципах распределения данных по узлам и генерации параллельного плана запроса на основе последовательного. Освоив эти базовые принципы на  примере Greenplum, вы сможете уверенно пользоваться такими базами данных, как HP Vertica и Teradata.
Clickhouse — специализированная база данных с рядом известных ограничений (например, отсутствие  возможности объединять более чем две таблицы в рамках одного запроса). У Greenplum таких недостатков нет, поэтому мы выбрали именно её.
Показать ещё
Вопрос:
Будет ли мне полезен этот курс, если в моей компании используется не Greenplum, а другая база данных?
Ответ:
Базовые принципы работы любой MPP РСУБД такие же, как и у Greenplum. Поэтому если в вашей компании используется любая MPP РСУБД (Vertica, Teradata и т. п.), то для работы с ней вы сможете без каких-либо ограничений применить все знания, которые получите в рамках курса. Если же ни одна из MPP РСУБД не используется в вашей компании, то после прохождения курса вы либо сможете выйти с предложением по внедрению MPP РСУБД, либо однозначно поймёте, что необходимости в ней нет.
Вопрос:
Будет ли в модуле визуализации раскрыто, как Tableau работает под капотом, как настраивать коннекторы к разным источникам, как Tableau шлёт запросы к базам данных и как кэширует результаты?
Ответ:
Безусловно, мы расскажем вам о том, как Tableau работает внутри и какие генерирует запросы к БД. Также мы поговорим про экстракты и разные архитектуры работы Tableau с БД, рассмотрим модели данных и расскажем, как можно объединять данные на стороне Tableau, а также когда это стоит делать, а когда нет. Также из модуля вы узнаете, когда в Tableau следует использовать длинные источники, а когда широкие, и почему.
Вопрос:
У меня есть много разрозненных источников данных: Hadoop, MySQL, PostgreSQL. Научат ли меня на курсе из всего этого собирать витрины для онлайн аналитики?
Ответ:
Конечно, мы не сможем дать вам универсальное руководство или “серебряную пулю”, но тем не менее осветим каждый блок этого сложного процесса: и проектирование, и работу с аналитическими СУБД, и code-driven ETL платформы, и Hadoop стек. Освоив каждый из этих элементов в отдельности, можно решить описанную задачу.
FAQ
Какой уровень требуется для прохождения курса?
Никаких специализированных знаний в области DWH не требуется — вы всё узнаете из курса. Однако важно уметь писать код на Python и легко составлять SQL запросы.
Можно ли посмотреть отзывы уже прошедших курс студентов?
Это первый запуск курса. Как студенты первого потока вы получите доступ ко всем обновлениям в течение года, если курс будет обновляться.
Как оформить поэтапную оплату?
Поэтапная оплата происходит равными платежами раз в месяц. Для оплаты поэтапно просто перейдите по ссылке на странице оплаты.
Как проходит обучение?
Теорию вы будете осваивать в формате видеолекций и конспектов-шпаргалок к ним, а оттачивать практику на удаленном сервере. Если у вас появляются вопросы, вам ответят на них менторы или преподаватели в Slack.

Для удобства студентов и преподавателей мы записали все лекции заранее. Они будут вам доступны в личном кабинете даже после окончания обучения.
Какой язык программирования мы будем использовать?
Нам потребуются Python для работы с Airflow и SQL для доступа к реляционным СУБД.
Какие технологии будут использоваться на курсе?
Мы будем применять много разных технологий. Основными будут Greenplum, Kubernetes, Spark, Airflow, Presto, HDFS, Yarn, Spark, Hive.
Могу ли я получить помощь в перерывах между занятиями?
Конечно. Все студенты курса общаются с преподавателями и между собой в Slack. В чате можно задать любые вопросы по обучению, наши преподаватели обязательно ответят вам.
Я начал курс, но мне не понравилось. Вы вернёте деньги?
Да. В течение двух недель после начала курса вы можете вернуть оплату за весь курс. Также в течение месяца мы готовы вернуть вам сумму за вычетом уже пройденного материала.
Получу ли я сертификат?

Конечно! После успешного завершения курса вы получите электронный сертификат, подтверждающий его прохождение.


Для этого необходимо выполнить два условия:

1. Сделать не менее половины домашних заданий курса.

2. Выполнить финальные проекты каждого блока и получить на них рецензию.


Однако важно помнить, что как при приёме на работу, так и непосредственно в работе главное — это полученные Hard и Soft Skills.

Есть ли у вас образовательная лицензия?
Нет. Мы оказываем информационно-консультационные услуги.
У меня есть свои задачи по работе с данными, которые я хочу научиться решать. Поможет ли мне ваш курс?
Уверены, что поможет. Вы всегда можете посоветоваться в чате с кураторами или другими студентами.
Мы свяжемся с вами, ответим на все ваши вопросы и подробнее расскажем о курсе.
ОСТАВЬТЕ ЗАЯВКУ ИЛИ ЗАДАЙТЕ ВОПРОС
СТАРТ КАЖДЫЙ МЕСЯЦ 5 ЧИСЛА
НАЧАЛО КУРСА
5 ОКТЯБРЯ
УЗНАТЬ БОЛЬШЕ
Мы свяжемся с вами и ответим на все ваши вопросы по найму учеников.