Data Engineer (Snowflake + Cloud DWH) — Nature-based Solutions to $5000
Про місію та клієнта
Ми будуємо хмарну платформу даних для одного з найбільших у світі environmental nonprofit, який інвестує в лісовідновлення та Nature-based Solutions. Це не “черговий DWH заради DWH” — дані тут напряму впливають на рішення, прозорість, звітність і масштабування програм.
Про ініціативу
Проект DWH — це сучасна cloud data platform, де Snowflake — ключова аналітична база, а інженерна команда створює single source of truth з різних систем клієнта.
Працюємо короткими релізами 1–3 місяці, з чіткими SLA, пріоритизацією та реальним ownership.
Зазвичай у роботі паралельно 1–2 потоки задач — важливі комунікація та прогнозованість.
Важливо: ми шукаємо сильного data engineer з реальним досвідом Snowflake + DWH/ETL. Досвід Azure бажаний, але не обов’язковий, якщо є сильна база й готовність швидко добрати Azure-частину.
Технології (core)
- DWH / ELT: Snowflake (SQL, modeling, performance basics)
- Orchestration / ingestion: Azure Data Factory + Azure Functions (Python) (або аналоги — якщо вмієш переносити підхід)
- CI/CD: Azure DevOps pipelines + автоматизація деплою Snowflake-об’єктів (DL Sync/аналог)
- Джерела: CRM/ERP (D365/Salesforce), MS SQL, API-інтеграції, CDC-концепти
- Формати: JSON, Parquet
Команда: Lead Data Engineering / Tech Lead, PM, DevOps, QA. BI team на стороні партнера.
Чим ти будеш займатись
- Проєктувати та будувати інкрементальні та full-refresh ELT пайплайни (ADF + Functions → Snowflake).
- Розробляти та оптимізувати Snowflake SQL для DWH і вітрин (Star schema, incremental patterns, базовий SCD2).
- Писати production-ready Python для ingestion/обробки/API (pagination, retries, error handling, логування, конфіги, secrets).
- Вбудовувати data quality: freshness, completeness, duplicates, late-arriving data, контроль інкрементів.
- Підтримувати CI/CD та промоут змін між dev/test/prod.
- Працювати прозоро й передбачувано: status → risk → options → next step.
По готовності (з часом), переймеш на себе всю відповідальність за успіх проекту та комунікації з партнером.
Кого шукаємо (Must-have)
- 5+ років у Data Engineering / DWH / ETL.
- Snowflake SQL у продакшені: CTE, window functions, COPY INTO, MERGE.
- Incremental load (watermarks / merge pattern) + базовий SCD2 (effective dating, current flag).
- Python production level: API-інтеграції (pagination/retries/errors), логування, конфіги, секрети, підготовка даних до ELT (validation/normalization).
- Розуміння DWH modeling (fact/dimension, star schema, joins і їх performance implications).
- Досвід з міграціями/великими даними/складними джерелами — плюс.
- Бажано: базове розуміння OpenMetadata (або аналогів catalog/lineage) та data governance.
Azure-досвід (ADF/Functions) — бажаний, але якщо ти сильний у Snowflake + DWH/ETL і маєш cloud-бекграунд, ми готові розглянути та “дотягнути” Azure-частину в онбордингу.
Nice-to-have
- PySpark (DataFrame API, joins, aggregations; розуміння distributed processing).
- Досвід з D365/Salesforce, MS SQL, API ingestion, CDC-патернами.
Data governance/security basics, досвід з observability.
Як у нас проходить відбір (чесно і практично)
*Етап 1 — Intro + короткий тех-скрин (40–60 хв, Zoom):
контекст проєкту, очікування, короткий сценарій по SQL/Python + питання по комунікації та підходу до задач.
*Етап 2 — Technical deep-dive (75–90 хв, з Tech Lead + інженером):
live-SQL (CTE/window + incremental/SCD2), кейс по пайплайну/інтеграції, підхід до якості та деплою.
Без test task — симулюємо реальну роботу під час інтерв’ю.
Що пропонуємо
- Компенсація від $4500 (обговорюємо під рівень і очікування).
- Місійний проєкт, де дані мають реальний вплив.
- Сильне середовище: Tech Lead/архітектурні практики, “дорослий” delivery.
- Гнучкий формат: віддалено / за кордоном / офіс (опційно).
- Бронювання за потреби (за наявності квот і відповідності процесам).
- Техніка та підтримка home-office (за домовленістю).
- 36 paid days off/рік: 20 vacation + UA holidays (та суміжні дні, де застосовно).
- Monthly benefit cafeteria $25 (навчання/ментальне здоров’я тощо).
- Performance review: ongoing feedback, перегляд компенсації після 12 міс, далі щорічно.
- Paid sabbatical після 5 років (ми за здорові та довгострокові відносини)
Готовий/готова?
Надсилай CV або LinkedIn — і в повідомленні коротко:
- які проєкти зі Snowflake робив(ла) у продакшені,
- чи був досвід ETL/DWH modeling + incremental loads,
- з чим працював(ла) для orchestration/ingestion (ADF/Airflow/інші).
Слава Україні і незламності нашої нації!
Required skills experience
| Snowflake | 1.5 years |
| DWH | 3.5 years |
| ETL/ELT pipelines | 4 years |
| Advanced SQL | 4 years |
Required languages
| English | B2 - Upper Intermediate |
| Ukrainian | C2 - Proficient |