GreenM

Joined in 2021

GreenM — це команда новаторів у сфері штучного інтелекту, експертів з даних та технологічних ентузіастів, яка прагне трансформувати охорону здоров’я за допомогою безпечних рішень, заснованих на ШІ.

Компанія спеціалізується на прототипуванні ШІ, аналітиці даних та хмарних технологіях, що дозволяє невеликим та середнім організаціям охорони здоров’я в США та Сполученому Королівстві оптимізувати прийняття рішень та використовувати можливості ШІ — допомагаючи підвищити ефективність, зменшити адміністративне навантаження та залишатися конкурентоспроможними в епоху ШІ.

Заснована понад десять років тому невеликою командою друзів з єдиним баченням, GreenM виросла в провідну компанію, де інновації поєднуються з культурою, орієнтованою на людей. 

Компанія вірить, що наділені повноваженнями команди призводять до виняткових результатів, і прагне створити робоче середовище, де кожен голос почутий, а кожен внесок оцінений.

  • · 86 views · 7 applications · 13d

    Data Engineer — Azure Data Factory, Functions, Snowflake (Nature-based Solutions) to $5500

    Full Remote · Countries of Europe or Ukraine · 4 years of experience · English - B2
    About the Client & Mission Our client is the world’s largest environmental nonprofit focused on reforestation and sustainable development (Nature-based Solutions). We are building a modern cloud data platform on Azure and Snowflake that will serve as a...

    About the Client & Mission

    Our client is the world’s largest environmental nonprofit focused on reforestation and sustainable development (Nature-based Solutions). We are building a modern cloud data platform on Azure and Snowflake that will serve as a single source of truth and enable faster, data-driven decision-making.

     

    About the Initiative

    This role supports a Data Warehouse initiative focused on tangible delivery impact: trusted data, clear and scalable models, and fast release cycles (1–3 months) with well-defined SLAs. You’ll work in a collaborative setup across Data Engineering ↔ BI ↔ Product, often handling 1–2 parallel workstreams with proactive risk and dependency management.

     

    Core Stack

    • ELT/DWH: Azure Data Factory + Azure Functions (Python) → Snowflake
    • CI/CD: Azure DevOps pipelines + DL Sync (Snowflake objects and pipeline deployments)
    • Primary data sources: CRM/ERP (Dynamics 365, Salesforce), MS SQL, API-based ingestion, CDC concepts
    • Data formats: JSON, Parquet.

       

    Team (our side)

    Lead Data Engineering, PM, DevOps, QA.

     

    Your Responsibilities

    • Design, build, and maintain incremental and full-refresh ELT pipelines (ADF + Azure Functions → Snowflake).
    • Develop and optimize Snowflake SQL for the DWH and data marts (Star Schema, incremental patterns, basic SCD2).
    • Build production-grade Python code in Azure Functions for ingestion, orchestration, and lightweight pre-processing.
    • Implement and maintain data quality controls (freshness, completeness, duplicates, late-arriving data).
    • Support CI/CD delivery for Snowflake objects and pipelines across dev/test/prod (Azure DevOps + DL Sync).
    • Contribute to documentation, best practices, and operational standards for the platform.
    • Communicate clearly and proactively: status → risk → options → next step, ensuring predictable delivery.

       

    Requirements (Must-have)

    • 4+ years in Data Engineering or related roles.
    • Strong Snowflake SQL (CTEs, window functions, COPY INTO, MERGE).
    • Hands-on experience with incremental loading (watermarks, merge patterns) and basic SCD2 (effective dating / current flag).
    • Strong Python (production-ready code), including API integration (pagination, retries, error handling), logging, configuration, and secrets handling.
    • Solid experience with Azure Data Factory (pipelines, parameters, triggers) and Azure Functions (HTTP/Timer triggers, idempotency, retries).
    • Understanding of ELT/DWH modeling (Star Schema, fact/dimension design, performance implications of joins).
    • CI/CD familiarity: Azure DevOps and automated deployment practices for data platforms (DL Sync for Snowflake is a strong plus).
    • Strong communication skills and a proactive, accountable approach to teamwork.

       

    Nice to Have

    • PySpark (DataFrame API, joins, aggregations; general distributed processing understanding).
    • Experience with D365 / Salesforce, MS SQL sources, API-based ingestion, and CDC patterns.
    • Data governance/security basics, Agile/Scrum, and broader analytics tooling exposure.

       

    Selection Process (Transparent & Practical)

    Stage 1 — Intro + TA + Short Tech Screen (40–60 min, Zoom):

    • project context (multi-project setup, 1–3 month delivery cycles), must-haves for Azure/ELT, a short SQL/Python scenario;
    • soft skills & culture match discussion covering: Proactive communication & stakeholders, Critical thinking & judgment, Problem solving & systems thinking, Ownership & maturity.

       

    Stage 2 — Deep-Dive Technical Interview (75–90 min, with 2 engineers):
    Live SQL (CTE/window + incremental load/SCD2 approach), PySpark mini-exercises, Azure lakehouse architecture discussion, plus a mini-case based on a real delivery situation.
    No take-home task — we simulate day-to-day work during the session.

     

    What We Offer

    • Competitive compensation.
    • Learning and growth alongside strong leaders, deepening expertise in Snowflake/ Azure / DWH.
    • Opportunity to expand your expertise over time across diverse, mission-driven & AI projects.
    • Flexible work setup: remote / abroad / office (optional), gig contract (with an option to transition if needed).
    • Equipment and home-office support.
    • 36 paid days off per year: 20 vacation days + UA public holidays (and related days off, as applicable).
    • Monthly benefit of the cafeteria: $25 to support your personal needs (learning, mental health support, etc.).
    • Performance reviews: ongoing feedback, compensation review after 12 months, then annually.
    • Paid sabbatical after 5 years with the company.

       

    P.S. Dear fellow Ukrainians,
    we kindly ask you to apply for this role in a professional and well-reasoned manner, clearly highlighting the experience that is most relevant to the position.

    If you are unsure whether your background fully matches the requirements, please feel free to mention this openly in your application. This will not reduce your chances of being considered; it helps us review your profile fairly and prioritize candidates based on overall fit for the role.

    More
  • · 41 views · 3 applications · 9d

    Data Engineer (Snowflake + Cloud DWH) — Nature-based Solutions to $5000

    Full Remote · Ukraine · 5 years of experience · English - B2
    Про місію та клієнта Ми будуємо хмарну платформу даних для одного з найбільших у світі environmental nonprofit, який інвестує в лісовідновлення та Nature-based Solutions. Це не “черговий DWH заради DWH” — дані тут напряму впливають на рішення, прозорість,...

    Про місію та клієнта

    Ми будуємо хмарну платформу даних для одного з найбільших у світі environmental nonprofit, який інвестує в лісовідновлення та Nature-based Solutions. Це не “черговий DWH заради DWH” — дані тут напряму впливають на рішення, прозорість, звітність і масштабування програм.

     

    Про ініціативу

    Проект DWH — це сучасна cloud data platform, де Snowflake — ключова аналітична база, а інженерна команда створює single source of truth з різних систем клієнта. 

    Працюємо короткими релізами 1–3 місяці, з чіткими SLA, пріоритизацією та реальним ownership. 

    Зазвичай у роботі паралельно 1–2 потоки задач — важливі комунікація та прогнозованість.

     

    Важливо: ми шукаємо сильного data engineer з реальним досвідом Snowflake + DWH/ETL. Досвід Azure бажаний, але не обов’язковий, якщо є сильна база й готовність швидко добрати Azure-частину.

     

    Технології (core)

    • DWH / ELT: Snowflake (SQL, modeling, performance basics)
    • Orchestration / ingestion: Azure Data Factory + Azure Functions (Python) (або аналоги — якщо вмієш переносити підхід)
    • CI/CD: Azure DevOps pipelines + автоматизація деплою Snowflake-об’єктів (DL Sync/аналог)
    • Джерела: CRM/ERP (D365/Salesforce), MS SQL, API-інтеграції, CDC-концепти
    • Формати: JSON, Parquet
    • Команда: Lead Data Engineering / Tech Lead, PM, DevOps, QA. BI team на стороні партнера.

       

    Чим ти будеш займатись

    • Проєктувати та будувати інкрементальні та full-refresh ELT пайплайни (ADF + Functions → Snowflake).
    • Розробляти та оптимізувати Snowflake SQL для DWH і вітрин (Star schema, incremental patterns, базовий SCD2).
    • Писати production-ready Python для ingestion/обробки/API (pagination, retries, error handling, логування, конфіги, secrets).
    • Вбудовувати data quality: freshness, completeness, duplicates, late-arriving data, контроль інкрементів.
    • Підтримувати CI/CD та промоут змін між dev/test/prod.
    • Працювати прозоро й передбачувано: status → risk → options → next step.
    • По готовності (з часом), переймеш на себе всю відповідальність за успіх проекту та комунікації з партнером.

       

    Кого шукаємо (Must-have)

    • 5+ років у Data Engineering / DWH / ETL.
    • Snowflake SQL у продакшені: CTE, window functions, COPY INTO, MERGE.
    • Incremental load (watermarks / merge pattern) + базовий SCD2 (effective dating, current flag).
    • Python production level: API-інтеграції (pagination/retries/errors), логування, конфіги, секрети, підготовка даних до ELT (validation/normalization).
    • Розуміння DWH modeling (fact/dimension, star schema, joins і їх performance implications).
    • Досвід з міграціями/великими даними/складними джерелами — плюс.
    • Бажано: базове розуміння OpenMetadata (або аналогів catalog/lineage) та data governance.

    Azure-досвід (ADF/Functions) — бажаний, але якщо ти сильний у Snowflake + DWH/ETL і маєш cloud-бекграунд, ми готові розглянути та “дотягнути” Azure-частину в онбордингу.

     

    Nice-to-have

    • PySpark (DataFrame API, joins, aggregations; розуміння distributed processing).
    • Досвід з D365/Salesforce, MS SQL, API ingestion, CDC-патернами.
    • Data governance/security basics, досвід з observability.

       

    Як у нас проходить відбір (чесно і практично)

    *Етап 1 — Intro + короткий тех-скрин (40–60 хв, Zoom):
    контекст проєкту, очікування, короткий сценарій по SQL/Python + питання по комунікації та підходу до задач.

    *Етап 2 — Technical deep-dive (75–90 хв, з Tech Lead + інженером):
    live-SQL (CTE/window + incremental/SCD2), кейс по пайплайну/інтеграції, підхід до якості та деплою.
    Без test task — симулюємо реальну роботу під час інтерв’ю.

     

    Що пропонуємо

    • Компенсація від $4500 (обговорюємо під рівень і очікування).
    • Місійний проєкт, де дані мають реальний вплив.
    • Сильне середовище: Tech Lead/архітектурні практики, “дорослий” delivery.
    • Гнучкий формат: віддалено / за кордоном / офіс (опційно).
    • Бронювання за потреби (за наявності квот і відповідності процесам).
    • Техніка та підтримка home-office (за домовленістю).
    • 36 paid days off/рік: 20 vacation + UA holidays (та суміжні дні, де застосовно).
    • Monthly benefit cafeteria $25 (навчання/ментальне здоров’я тощо).
    • Performance review: ongoing feedback, перегляд компенсації після 12 міс, далі щорічно.
    • Paid sabbatical після 5 років (ми за здорові та довгострокові відносини)

     

    Готовий/готова?

    Надсилай CV або LinkedIn — і в повідомленні коротко:

    1. які проєкти зі Snowflake робив(ла) у продакшені,
    2. чи був досвід ETL/DWH modeling + incremental loads,
    3. з чим працював(ла) для orchestration/ingestion (ADF/Airflow/інші).

    Слава Україні і незламності нашої нації!

    More
Log In or Sign Up to see all posted jobs