Перейти к содержимому
search
work Вакансия на FreelanceSpace опубликовано 22 ч назад

Middle Data Engineer

apartmentPtolemay scheduleПолная занятость publicУдалённо badge2–4 года badge5+ лет
send Откликнуться

Публичная страница вакансии: прозрачные условия, быстрый отклик, понятный следующий шаг. Для работодателя — качественный воронко-трафик, для исполнителя — ясные требования без “воды”.

description

Описание вакансии

#вакансия #vacancy #data_engineer #DE #middle #senior #remote #fulltime

Вакансия: Middle+ Data Engineer
Формат: Удалённый (аутстафф)
Занятость: Полная
Локация и гражданство: РФ, РБ
Оформление: ИП, СМЗ, либо оплата криптовалютой USDT
Длительность проекта: от года
Оплата: 3000 - 3500$ net.

Ptolemay - аутсорсинговая IT-компания полного цикла по разработке мобильных и веб-приложений для бизнеса и стартапов. Ищем Middle+ Data Engineer для долгосрочного аутстафф-проекта в банковской сфере.

Проект по разработке решения для xbrl отчетности по форме 577-п от ЦБ.
Стек на проекте:
Python, Trino, dbt, Airflow, Spark, Hadoop, Hive, Postgres, Greenplum, Kubernetes, Gitlab.

Задачи:
• Мигрировать процессы для отчетности и аналитики и настраивать их регламентную загрузку;
• Работать с общебанковской data-платформой (data lake, dwh);
• Разрабатывать end-to-end пайплайны по сбору и обработке данных: выбирать оптимальный формат, структуру хранения и архитектуру интеграционных решений;
• Анализировать и оптимизировать производительность пайплайнов, инструментов и дата-сервисов;
• Развивать архитектуру данных и внедрять новые технологические решения и сервисы;
• Управлять обновлениями, настройками, устранять выявленные уязвимости, восстанавливать сервисы после сбоев, обрабатывать инциденты.

Обязательные требования:
• От 3-х лет коммерческого опыта на аналогичной должности.
• Знание и опыт в банковской предметной области.
• Знание SQL на уровне оптимизации сложных запросов.
• Знание принципов работы классических и MPP-СУБД.
• Опыт разработки на Python и/или Java, Scala.
• Опыт оркестрации ETL-пайплайнов с помощью Airflow.
• Опыт работы с dbt.
• Опыт работы с продуктами экосистемы Hadoop (HDFS, YARN, HIVE, Sqoop).
• Опыт Apache Spark (Spark DataFrames, Spark SQL).
Будет плюсом:
• Опыт работы с Kafka, Trino.
• Опыт работы с контейнерными технологиями и оркестрацией: kubernetes, helm.
• Знания и опыт CI/CD-практик и инструментов.

Условия:
• Удалённый формат работы.
• Полная занятость.
• Оформление по ИП, СМЗ, либо оплата криптовалютой USDT.
• Оплата 3000 - 3500$ net.

Буду рад ответить на вопросы и ознакомиться с резюме: %contact_placeholder%
tips_and_updates
Как откликнуться эффективно
  • arrow_right1–2 релевантных кейса (ссылки/скриншоты)
  • arrow_rightСроки и формат работы (когда на связи)
  • arrow_right2–3 уточняющих вопроса по задаче
handshake
Рекомендации работодателю
  • arrow_rightОпишите результат и критерии приёмки
  • arrow_rightУкажите бюджет/вилку — это повышает качество откликов
  • arrow_rightСразу обозначьте сроки и доступность по коммуникациям