
DevOps (Data team)
Про команду/продукт:
Мы разрабатываем платформу данных для it команд в Dodo. Хотим сделать Dodo Brands data-driven компанией. Сейчас мы ищем DevOps, который вместе с нами будет развивать и масштабировать платформу.
В нашей команде шесть крутых дата инженеров. Вместе мы работаем над созданием Data Platform. С помощью неё любой в компании может легко пользоваться данными для принятия решений. Data Platform решает задачи от построения простых дашбордов до создания и выкатки в продакшн Deep Learning моделей.
Наша главная цель — сделать так, чтобы платформа помогала командам постоянно внедрять инновации, развивать и создавать прорывные продукты.
Нам нужен DevOps, который возьмёт поддержку и развитие инфраструктуры систем по работе с данными.
Про стэк: У нас современная платформа, которая базируется на облачных сервисах Azure Databricks. Данные загружаем с помощью debezium или принимаем события в Event Hub (Kafka). Храним в Delta Lake, всё раскладываем по слоям и Data Vault. Витрины храним в Kusto, а визуализация в Superset. Основной язык — python.
Обязанности
Вот некоторые из наших текущих фокусов и ближайших проектов. Будет круто, если у тебя уже есть опыт по одному из этих направлений.
- Infrastructure as Code. Наша облачная инфраструктура Azure полностью описана в коде, мы придерживаемся базовой единицы — сервис и это качественно описанная инфраструктура per service (terraform+jsonnet)
- DataOps. Развёртывание и поддержка data-сервисов: Databricks, Superset, Kusto, Debezium.
- Self-serve data platform. Настройка CI/CD для пайплайнов, автоматизация lineage, data quality.
- Шаринг экспертизы по работе с данными. Мы помогаем другим командам в работе с данными, интеграциями, нашими инструментами и оптимизациями
- MLOps. CI/CD для ML проектов, создание тулинга для вывода ML-моделей в production.
Требования
- Опыт работы с аналитическими системами и понимание принципов работы — Data Lake, DWH
- Имеешь опыт работы с публичными облаками, понимаешь их преимущества и недостатки, а также основные концепции и применяемые практики;
- Имеешь опыт работы с системами оркестрации контейнеров в production-окружениях;
- Умеешь работать в команде, можешь общаться с разработчиками на одном языке и находить баланс между идеальным решением в вакууме и текущими нуждами;
- Понимаешь принципы DevOps-культуры и SRE-практики и готов активно развиваться в этом направлении;
Будет плюсом:
- Apache Kafka
- MPP/Cloud data warehouse решения (Snowflake, Redshift, BigQuery, Vertica, Teradata, Greenplum, Azure DWH, ClickHouse и т.д.);
- Опыт MLOps;
- Опыт работы с Hudi или Iceberg или Delta Lake.;
- Умеете балансировать между MVP и собственным перфекционизмом 🙂
Условия
- Гибкость — строим гипотезы, спорим, договариваемся, адаптируемся;
- Нет бюрократии и KPI. Только цель;
- Международный продукт и развитие на новых рынках;
- Удаленная работа из любой точки мира с командировками в страны присутствия;
- Оплачиваем профильное обучение, купим билет на конференцию и необходимые книги;
- Помогаем публично выступить, прокачать тебя как автора статей, раскрутить в комьюнити;
- Частичная компенсация английского языка в Skyeng и сессий психолога в Alter;
- ДМС со стоматологией, первого рабочего дня.