← Вернуться к списку вакансий
Главный дата-инженер
по договоренности
Описание вакансии
Обязанности:
- Проектирование и развитие масштабируемой data-инфраструктуры (batch и streaming пайплайны);
- ClickHouse (MergeTree), S3 Data Lake, Kafka, Airflow (ETL/ELT);
- Архитектура и реализация витрин данных для аналитики, ML и AI-агентов;
- Поддержка и написание пайплайнов ETL/ELT (dbt / Airflow / Spark / Kafka / etc.);
- Оптимизация производительности, стоимость хранения и потребления данных;
- Внедрение и поддержка стандартов CI/CD и мониторинга пайплайнов;
- Работа в связке с аналитиками, ML-инженерами, разработчиками и продуктами;
- Участие в построении feature store, ML-инфраструктуры и поддержке GenAI систем.
Требования:
- 3+ лет опыта работы с данными в роли Data Engineer;
- Опыт проектирования data-платформ в продакшене (от ingestion до витрин);
- Отличное знание SQL, Python (или Scala), опыт работы с Apache Airflow, Spark, Kafka;
- Опыт построения CI/CD процессов и мониторинга data pipeline’ов;
- Понимание принципов data governance, data quality и data contracts.
Будет плюсом:
- Знакомство с практиками MLOps и GenAI pipeline’ами (например, RAG, LangChain);
- Опыт взаимодействия с ML-инженерами: подготовка фич, поддержка feature store;
- Опыт руководства командой или отдельных проектов как технический лидер.
Условия:
- Стабильную работу в одном из крупнейших банков страны;
- Конкурентную заработную плату, соцпакет;
- Условия для роста и развития (в т.ч. конференции, тренинги, внутренние программы развития);
- Дружный коллектив единомышленников;
- Передовой стек технологий, высокопроизводительное оборудование;
- Возможность решать разнообразные прикладные задачи с выводом в промышленную эксплуатацию, возможность существенно влиять на результат;
- Квартальный бонус по результатам работы;
- ДМС, страхование жизни;
- Корпоративное обучение.
- Проектирование и развитие масштабируемой data-инфраструктуры (batch и streaming пайплайны);
- ClickHouse (MergeTree), S3 Data Lake, Kafka, Airflow (ETL/ELT);
- Архитектура и реализация витрин данных для аналитики, ML и AI-агентов;
- Поддержка и написание пайплайнов ETL/ELT (dbt / Airflow / Spark / Kafka / etc.);
- Оптимизация производительности, стоимость хранения и потребления данных;
- Внедрение и поддержка стандартов CI/CD и мониторинга пайплайнов;
- Работа в связке с аналитиками, ML-инженерами, разработчиками и продуктами;
- Участие в построении feature store, ML-инфраструктуры и поддержке GenAI систем.
Требования:
- 3+ лет опыта работы с данными в роли Data Engineer;
- Опыт проектирования data-платформ в продакшене (от ingestion до витрин);
- Отличное знание SQL, Python (или Scala), опыт работы с Apache Airflow, Spark, Kafka;
- Опыт построения CI/CD процессов и мониторинга data pipeline’ов;
- Понимание принципов data governance, data quality и data contracts.
Будет плюсом:
- Знакомство с практиками MLOps и GenAI pipeline’ами (например, RAG, LangChain);
- Опыт взаимодействия с ML-инженерами: подготовка фич, поддержка feature store;
- Опыт руководства командой или отдельных проектов как технический лидер.
Условия:
- Стабильную работу в одном из крупнейших банков страны;
- Конкурентную заработную плату, соцпакет;
- Условия для роста и развития (в т.ч. конференции, тренинги, внутренние программы развития);
- Дружный коллектив единомышленников;
- Передовой стек технологий, высокопроизводительное оборудование;
- Возможность решать разнообразные прикладные задачи с выводом в промышленную эксплуатацию, возможность существенно влиять на результат;
- Квартальный бонус по результатам работы;
- ДМС, страхование жизни;
- Корпоративное обучение.
Откликнитесь на вакансию:
Посмотреть контакты
Рекомендуем вакансии
BI-аналитик
по договоренности
Аналитик качества данных/ Data Quality Analyst
по договоренности
Главный инженер проекта (ГИП)
до 250 000
Менеджер продукта Naumen Contact Center
по договоренности
Главный маркшейдер (открытые горные работы)
по договоренности
Lead of Marketing (майнинг)
по договоренности