description
Описание вакансии
#РФ #вакансия #удаленно #remote #DataEngineer
Вакансия: Data Engineer/Специалист по миграции и аналитике данных (ClickHouse, Trino, S3)
Грейд: Middle+/Senior
Компания: JETLYN
Формат: удаленно
Локация: Россия
Гражданство: РФ
Вилка ЗП: от 220 000 до 310 000 рублей на руки в месяц
Условия оформления, формат: ТК/ИП
📌 О проекте
Ключевая задача подразделения — миграция архитектуры хранения и обработки данных с Apache Hive и Greenplum на современный стек: S3 + Trino + ClickHouse. Вам предстоит участвовать в проектировании, реализации и оптимизации нового корпоративного хранилища данных (EDW), обеспечивая бесшовный перенос бизнес-логики и аналитических процессов.
🔍 Ключевые задачи
Проектирование и реализация миграции данных и ETL/ELT-процессов на новый стек (S3 → Trino/ClickHouse).
Разработка, оптимизация и рефакторинг сложных SQL-запросов для аналитики, отчетности и витрин данных.
Интеграция данных из SAP-систем (HCM, ERP) и других корпоративных источников.
Обеспечение качества, согласованности и валидация данных после перехода на новую архитектуру.
Участие в развитии и поддержке архитектуры корпоративного хранилища данных (EDW).
✅ Обязательные требования
Продвинутый уровень SQL 🔥 (это критически важное требование: умение писать сложные запросы, оконные функции, оптимизация планов выполнения, работа с терабайтами данных).
Уверенный опыт работы с экосистемой Hadoop: Hive, Spark.
Опыт коммерческой эксплуатации или миграции Greenplum (или иных MPP-СУБД).
Знание современных аналитических стеков: ClickHouse, Trino, работа с хранилищами S3.
Опыт проектирования и разработки EDW (Corporate Data Warehouse).
Понимание методологий анализа данных, построения витрин и метрик.
Знание архитектуры данных и бизнес-процессов в SAP (модули HCM, ERP).
💡 Будет преимуществом
Владение Python для автоматизации, написания UDF и интеграционных скриптов.
Опыт оркестрации пайплайнов в Apache Airflow.
Опыт работы с ETL-инструментами (в т.ч. SAS DI).
Знание Apache NiFi для потоковой передачи и маршрутизации данных.
Опыт использования Power Designer для DDL-моделирования и проектирования схем.
Технологический стек
SQL (основной), ClickHouse, Trino, Greenplum, S3, Hadoop/Hive, Spark, Apache Airflow, Python, Apache NiFi, SAS DI, Power Designer, SAP (HCM/ERP), EDW.
Резюме и вопросы направляйте, пожалуйста, в телеграмм в ЛС %contact_placeholder% 📲
Вакансия: Data Engineer/Специалист по миграции и аналитике данных (ClickHouse, Trino, S3)
Грейд: Middle+/Senior
Компания: JETLYN
Формат: удаленно
Локация: Россия
Гражданство: РФ
Вилка ЗП: от 220 000 до 310 000 рублей на руки в месяц
Условия оформления, формат: ТК/ИП
📌 О проекте
Ключевая задача подразделения — миграция архитектуры хранения и обработки данных с Apache Hive и Greenplum на современный стек: S3 + Trino + ClickHouse. Вам предстоит участвовать в проектировании, реализации и оптимизации нового корпоративного хранилища данных (EDW), обеспечивая бесшовный перенос бизнес-логики и аналитических процессов.
🔍 Ключевые задачи
Проектирование и реализация миграции данных и ETL/ELT-процессов на новый стек (S3 → Trino/ClickHouse).
Разработка, оптимизация и рефакторинг сложных SQL-запросов для аналитики, отчетности и витрин данных.
Интеграция данных из SAP-систем (HCM, ERP) и других корпоративных источников.
Обеспечение качества, согласованности и валидация данных после перехода на новую архитектуру.
Участие в развитии и поддержке архитектуры корпоративного хранилища данных (EDW).
✅ Обязательные требования
Продвинутый уровень SQL 🔥 (это критически важное требование: умение писать сложные запросы, оконные функции, оптимизация планов выполнения, работа с терабайтами данных).
Уверенный опыт работы с экосистемой Hadoop: Hive, Spark.
Опыт коммерческой эксплуатации или миграции Greenplum (или иных MPP-СУБД).
Знание современных аналитических стеков: ClickHouse, Trino, работа с хранилищами S3.
Опыт проектирования и разработки EDW (Corporate Data Warehouse).
Понимание методологий анализа данных, построения витрин и метрик.
Знание архитектуры данных и бизнес-процессов в SAP (модули HCM, ERP).
💡 Будет преимуществом
Владение Python для автоматизации, написания UDF и интеграционных скриптов.
Опыт оркестрации пайплайнов в Apache Airflow.
Опыт работы с ETL-инструментами (в т.ч. SAS DI).
Знание Apache NiFi для потоковой передачи и маршрутизации данных.
Опыт использования Power Designer для DDL-моделирования и проектирования схем.
Технологический стек
SQL (основной), ClickHouse, Trino, Greenplum, S3, Hadoop/Hive, Spark, Apache Airflow, Python, Apache NiFi, SAS DI, Power Designer, SAP (HCM/ERP), EDW.
Резюме и вопросы направляйте, пожалуйста, в телеграмм в ЛС %contact_placeholder% 📲
tips_and_updates
Как откликнуться эффективно
- arrow_right1–2 релевантных кейса (ссылки/скриншоты)
- arrow_rightСроки и формат работы (когда на связи)
- arrow_right2–3 уточняющих вопроса по задаче
handshake
Рекомендации работодателю
- arrow_rightОпишите результат и критерии приёмки
- arrow_rightУкажите бюджет/вилку — это повышает качество откликов
- arrow_rightСразу обозначьте сроки и доступность по коммуникациям
lists
Ещё вакансии
SEO Specialist (Adult)
Lucky Hunter
4 000 ₽ — 6 000 ₽
Array
Полная занятость
Графический дизайнер (Middle)
АртМедиа
Не указан
Array
Полная занятость
SMM-менеджер
Anke Gallery
Не указан
Array
Полная занятость
Sales Development Representative (SDR)
Stape
Не указан
Array
Полная занятость
Senior/Lead Product Manager (Fintech)
XPlace
Не указан
Array
Полная занятость
Frontend Developer (TypeScript)
Территория Тотал
Не указан
Array
Полная занятость