Data Engineer (Snowflake + Cloud DWH) — Nature-based Solutions to $5000

Про місію та клієнта

Ми будуємо хмарну платформу даних для одного з найбільших у світі environmental nonprofit, який інвестує в лісовідновлення та Nature-based Solutions. Це не “черговий DWH заради DWH” — дані тут напряму впливають на рішення, прозорість, звітність і масштабування програм.

 

Про ініціативу

Проект DWH — це сучасна cloud data platform, де Snowflake — ключова аналітична база, а інженерна команда створює single source of truth з різних систем клієнта. 

Працюємо короткими релізами 1–3 місяці, з чіткими SLA, пріоритизацією та реальним ownership. 

Зазвичай у роботі паралельно 1–2 потоки задач — важливі комунікація та прогнозованість.

 

Важливо: ми шукаємо сильного data engineer з реальним досвідом Snowflake + DWH/ETL. Досвід Azure бажаний, але не обов’язковий, якщо є сильна база й готовність швидко добрати Azure-частину.

 

Технології (core)

  • DWH / ELT: Snowflake (SQL, modeling, performance basics)
  • Orchestration / ingestion: Azure Data Factory + Azure Functions (Python) (або аналоги — якщо вмієш переносити підхід)
  • CI/CD: Azure DevOps pipelines + автоматизація деплою Snowflake-об’єктів (DL Sync/аналог)
  • Джерела: CRM/ERP (D365/Salesforce), MS SQL, API-інтеграції, CDC-концепти
  • Формати: JSON, Parquet
  • Команда: Lead Data Engineering / Tech Lead, PM, DevOps, QA. BI team на стороні партнера.

     

Чим ти будеш займатись

  • Проєктувати та будувати інкрементальні та full-refresh ELT пайплайни (ADF + Functions → Snowflake).
  • Розробляти та оптимізувати Snowflake SQL для DWH і вітрин (Star schema, incremental patterns, базовий SCD2).
  • Писати production-ready Python для ingestion/обробки/API (pagination, retries, error handling, логування, конфіги, secrets).
  • Вбудовувати data quality: freshness, completeness, duplicates, late-arriving data, контроль інкрементів.
  • Підтримувати CI/CD та промоут змін між dev/test/prod.
  • Працювати прозоро й передбачувано: status → risk → options → next step.
  • По готовності (з часом), переймеш на себе всю відповідальність за успіх проекту та комунікації з партнером.

     

Кого шукаємо (Must-have)

  • 5+ років у Data Engineering / DWH / ETL.
  • Snowflake SQL у продакшені: CTE, window functions, COPY INTO, MERGE.
  • Incremental load (watermarks / merge pattern) + базовий SCD2 (effective dating, current flag).
  • Python production level: API-інтеграції (pagination/retries/errors), логування, конфіги, секрети, підготовка даних до ELT (validation/normalization).
  • Розуміння DWH modeling (fact/dimension, star schema, joins і їх performance implications).
  • Досвід з міграціями/великими даними/складними джерелами — плюс.
  • Бажано: базове розуміння OpenMetadata (або аналогів catalog/lineage) та data governance.

Azure-досвід (ADF/Functions) — бажаний, але якщо ти сильний у Snowflake + DWH/ETL і маєш cloud-бекграунд, ми готові розглянути та “дотягнути” Azure-частину в онбордингу.

 

Nice-to-have

  • PySpark (DataFrame API, joins, aggregations; розуміння distributed processing).
  • Досвід з D365/Salesforce, MS SQL, API ingestion, CDC-патернами.
  • Data governance/security basics, досвід з observability.

     

Як у нас проходить відбір (чесно і практично)

*Етап 1 — Intro + короткий тех-скрин (40–60 хв, Zoom):
контекст проєкту, очікування, короткий сценарій по SQL/Python + питання по комунікації та підходу до задач.

*Етап 2 — Technical deep-dive (75–90 хв, з Tech Lead + інженером):
live-SQL (CTE/window + incremental/SCD2), кейс по пайплайну/інтеграції, підхід до якості та деплою.
Без test task — симулюємо реальну роботу під час інтерв’ю.

 

Що пропонуємо

  • Компенсація від $4500 (обговорюємо під рівень і очікування).
  • Місійний проєкт, де дані мають реальний вплив.
  • Сильне середовище: Tech Lead/архітектурні практики, “дорослий” delivery.
  • Гнучкий формат: віддалено / за кордоном / офіс (опційно).
  • Бронювання за потреби (за наявності квот і відповідності процесам).
  • Техніка та підтримка home-office (за домовленістю).
  • 36 paid days off/рік: 20 vacation + UA holidays (та суміжні дні, де застосовно).
  • Monthly benefit cafeteria $25 (навчання/ментальне здоров’я тощо).
  • Performance review: ongoing feedback, перегляд компенсації після 12 міс, далі щорічно.
  • Paid sabbatical після 5 років (ми за здорові та довгострокові відносини)

 

Готовий/готова?

Надсилай CV або LinkedIn — і в повідомленні коротко:

  1. які проєкти зі Snowflake робив(ла) у продакшені,
  2. чи був досвід ETL/DWH modeling + incremental loads,
  3. з чим працював(ла) для orchestration/ingestion (ADF/Airflow/інші).

Слава Україні і незламності нашої нації!

Required skills experience

Snowflake 1.5 years
DWH 3.5 years
ETL/ELT pipelines 4 years
Advanced SQL 4 years

Required languages

English B2 - Upper Intermediate
Ukrainian C2 - Proficient
Python, API Integration, Metabase, AzureDevOps
Published 22 January
18 views
·
1 application
To apply for this and other jobs on Djinni login or signup.
Loading...