Перейти к содержимому
search
work Вакансия на FreelanceSpace опубликовано 2 ч назад

Middle+/Senior Data Engineer (ClickHouse, Trino, S3)

apartmentJETLYN scheduleПолная занятость publicArray badge2–4 года badge5+ лет
send Откликнуться

Публичная страница вакансии: прозрачные условия, быстрый отклик, понятный следующий шаг. Для работодателя — качественный воронко-трафик, для исполнителя — ясные требования без “воды”.

description

Описание вакансии

#РФ #вакансия #удаленно #remote #DataEngineer

Вакансия: Data Engineer/Специалист по миграции и аналитике данных (ClickHouse, Trino, S3)
Грейд: Middle+/Senior
Компания: JETLYN
Формат: удаленно
Локация: Россия
Гражданство: РФ
Вилка ЗП: от 220 000 до 310 000 рублей на руки в месяц
Условия оформления, формат: ТК/ИП

📌 О проекте
Ключевая задача подразделения — миграция архитектуры хранения и обработки данных с Apache Hive и Greenplum на современный стек: S3 + Trino + ClickHouse. Вам предстоит участвовать в проектировании, реализации и оптимизации нового корпоративного хранилища данных (EDW), обеспечивая бесшовный перенос бизнес-логики и аналитических процессов.

🔍 Ключевые задачи
Проектирование и реализация миграции данных и ETL/ELT-процессов на новый стек (S3 → Trino/ClickHouse).
Разработка, оптимизация и рефакторинг сложных SQL-запросов для аналитики, отчетности и витрин данных.
Интеграция данных из SAP-систем (HCM, ERP) и других корпоративных источников.
Обеспечение качества, согласованности и валидация данных после перехода на новую архитектуру.
Участие в развитии и поддержке архитектуры корпоративного хранилища данных (EDW).
✅ Обязательные требования
Продвинутый уровень SQL 🔥 (это критически важное требование: умение писать сложные запросы, оконные функции, оптимизация планов выполнения, работа с терабайтами данных).
Уверенный опыт работы с экосистемой Hadoop: Hive, Spark.
Опыт коммерческой эксплуатации или миграции Greenplum (или иных MPP-СУБД).
Знание современных аналитических стеков: ClickHouse, Trino, работа с хранилищами S3.
Опыт проектирования и разработки EDW (Corporate Data Warehouse).
Понимание методологий анализа данных, построения витрин и метрик.
Знание архитектуры данных и бизнес-процессов в SAP (модули HCM, ERP).

💡 Будет преимуществом
Владение Python для автоматизации, написания UDF и интеграционных скриптов.
Опыт оркестрации пайплайнов в Apache Airflow.
Опыт работы с ETL-инструментами (в т.ч. SAS DI).
Знание Apache NiFi для потоковой передачи и маршрутизации данных.
Опыт использования Power Designer для DDL-моделирования и проектирования схем.

Технологический стек
SQL (основной), ClickHouse, Trino, Greenplum, S3, Hadoop/Hive, Spark, Apache Airflow, Python, Apache NiFi, SAS DI, Power Designer, SAP (HCM/ERP), EDW.

Резюме и вопросы направляйте, пожалуйста, в телеграмм в ЛС %contact_placeholder% 📲
tips_and_updates
Как откликнуться эффективно
  • arrow_right1–2 релевантных кейса (ссылки/скриншоты)
  • arrow_rightСроки и формат работы (когда на связи)
  • arrow_right2–3 уточняющих вопроса по задаче
handshake
Рекомендации работодателю
  • arrow_rightОпишите результат и критерии приёмки
  • arrow_rightУкажите бюджет/вилку — это повышает качество откликов
  • arrow_rightСразу обозначьте сроки и доступность по коммуникациям