👋 Чего вы сегодня ждете от работодателей? Проводим опрос, чтобы помочь компаниям увидеть рынок глазами кандидатов → участвовать

Data инженер DWH

Требования

Инженер по даннымSQLPythonGreenplum

Местоположение и тип занятости

Москва, Санкт-ПетербургПолный рабочий день

Компания

Компания, которая развивает самую популярную в России поисковую систему и десятки других сервисов

Описание вакансии

Общее

Мы обрабатываем большие объёмы данных, и нам нужно делать это быстро и точно. Для этого мы создаём масштабную, безопасную и удобную аналитическую платформу. Нам требуются дата-инженеры для разработки DWH.

Какие задачи вас ждут

Доработка внутренней платформы
Вы будете развивать внутреннюю платформу управления данными: автоматизировать рутинные задачи, такие как деплой простых решений и мониторинг, а также улучшать инструменты самообслуживания для аналитиков. Вам предстоит работать с Kafka, ClickHouse, Spark Streaming и внутренними инструментами разработки.

Разработка и поддержка витрин данных
Вы будете разрабатывать, оптимизировать и поддерживать витрины данных, исходя из требований бизнеса и аналитиков. Это включает проектирование структуры данных, реализацию ETL-пайплайнов с использованием Python, Spark, Greenplum и Airflow, а также обеспечение их эффективной работы. Вам предстоит решать задачи разного уровня сложности — от простых трансформаций до обработки больших объёмов данных с нетривиальной бизнес-логикой.

Оптимизация ETL-процессов
Вам предстоит оптимизировать ETL-процессы, чтобы повысить производительность и снизить затраты. Нужно проанализировать и устранить проблемы, такие как перекос данных в Greenplum, долгие джобы и неэффективные партиции, а также настроить распределение ресурсов в кластере.

Мониторинг качества данных
Вы будете разрабатывать и поддерживать систему мониторинга качества данных, включая DQ-проверки и алерты на аномалии. Также вам предстоит анализировать и устранять сбои в поставке данных, такие как пробелы, дубли и некорректные значения. Кроме того, вы будете взаимодействовать с аналитиками и бизнес-пользователями, чтобы повысить прозрачность поставки данных.

Мы ждем, что вы

  • Пишете код на Python
  • Работали с базами данных SQL и NoSQL
  • Знакомы с брокерами сообщений (Kafka, RabbitMQ или чем-то подобным)
  • Работали с инструментами Hadoop

Будет плюсом, если вы

  • Работали со Spark или Spark SQL
  • Работали с Greenplum
  • Умеете разрабатывать DAG для Airflow