logo

DevOps (Data team)

Удаленная работа · Dodo Engineering
Откликнуться

Про команду/продукт:

Мы разрабатываем платформу данных для it команд в Dodo. Хотим сделать Dodo Brands data-driven компанией. Сейчас мы ищем DevOps, который вместе с нами будет развивать и масштабировать платформу.

В нашей команде шесть крутых дата инженеров. Вместе мы работаем над созданием Data Platform. С помощью неё любой в компании может легко пользоваться данными для принятия решений. Data Platform решает задачи от построения простых дашбордов до создания и выкатки в продакшн Deep Learning моделей.

Наша главная цель — сделать так, чтобы платформа помогала командам постоянно внедрять инновации, развивать и создавать прорывные продукты.


Нам нужен DevOps, который возьмёт поддержку и развитие инфраструктуры систем по работе с данными.

Про стэк: У нас современная платформа, которая базируется на облачных сервисах Azure Databricks. Данные загружаем с помощью debezium или принимаем события в Event Hub (Kafka). Храним в Delta Lake, всё раскладываем по слоям и Data Vault. Витрины храним в Kusto, а визуализация в Superset. Основной язык — python.

Обязанности

Вот некоторые из наших текущих фокусов и ближайших проектов. Будет круто, если у тебя уже есть опыт по одному из этих направлений.

  • Infrastructure as Code. Наша облачная инфраструктура Azure полностью описана в коде, мы придерживаемся базовой единицы — сервис и это качественно описанная инфраструктура per service (terraform+jsonnet)
  • DataOps. Развёртывание и поддержка data-сервисов: Databricks, Superset, Kusto, Debezium.
  • Self-serve data platform. Настройка CI/CD для пайплайнов, автоматизация lineage, data quality.
  • Шаринг экспертизы по работе с данными. Мы помогаем другим командам в работе с данными, интеграциями, нашими инструментами и оптимизациями
  • MLOps. CI/CD для ML проектов, создание тулинга для вывода ML-моделей в production.

Требования

  • Опыт работы с аналитическими системами и понимание принципов работы — Data Lake, DWH
  • Имеешь опыт работы с публичными облаками, понимаешь их преимущества и недостатки, а также основные концепции и применяемые практики;
  • Имеешь опыт работы с системами оркестрации контейнеров в production-окружениях;
  • Умеешь работать в команде, можешь общаться с разработчиками на одном языке и находить баланс между идеальным решением в вакууме и текущими нуждами;
  • Понимаешь принципы DevOps-культуры и SRE-практики и готов активно развиваться в этом направлении;

Будет плюсом:

  • Apache Kafka
  • MPP/Cloud data warehouse решения (Snowflake, Redshift, BigQuery, Vertica, Teradata, Greenplum, Azure DWH, ClickHouse и т.д.);
  • Опыт MLOps;
  • Опыт работы с Hudi или Iceberg или Delta Lake.;
  • Умеете балансировать между MVP и собственным перфекционизмом 🙂

Условия

  • Гибкость — строим гипотезы, спорим, договариваемся, адаптируемся;
  • Нет бюрократии и KPI. Только цель;
  • Международный продукт и развитие на новых рынках;
  • Удаленная работа из любой точки мира с командировками в страны присутствия;
  • Оплачиваем профильное обучение, купим билет на конференцию и необходимые книги;
  • Помогаем публично выступить, прокачать тебя как автора статей, раскрутить в комьюнити;
  • Частичная компенсация английского языка в Skyeng и сессий психолога в Alter;
  • ДМС со стоматологией, первого рабочего дня.
Расскажите об этой вакансии в соцсетях

Отклик на вакансию:

Откликаясь на вакансию, вы даете согласие на обработку ваших персональных данных и соглашаетесь с политикой конфиденциальности Dodo Brands