Techbar

Data Engineer (Multiple Projects, Different Clients) — UA / EU / Global

Techbar шукає Data Engineers (Middle—Senior—Lead) для різних міжнародних клієнтів у сферах retail, analytics, financial crime, enterprise platforms та ML-Ops.
Кожен проєкт — окремий клієнт, свій стек і свої вимоги. Ми пропонуємо можливість обрати той напрямок, який найкраще відповідає вашому досвіду, технічному фокусу та очікуванням щодо розвитку.

 

Проєкт 1: Data Engineer — Retail (US)

Location: Remote, Global
Tech Stack: Snowflake, dbt Cloud, Astronomer / Airflow, Python

Необхідний досвід роботи:
5+ років у Data Engineering
2+ роки досвіду з dbt (critical)
Advanced SQL
Snowflake / BigQuery / Redshift
Airflow (DAGs)
Python
ELT/ETL, Git
Продакшн пайплайни
English: B2+

Буде плюсом: Retail/e-commerce, Great Expectations/Monte Carlo, Airbyte/Fivetran, BI, Terraform, governance.

Обов’язки: Розробка та підтримка dbt-моделей, Airflow DAGs, оптимізація Snowflake, data quality, документування, performance tuning.

 

Проєкт 2: Data Engineer with Databricks

Location: Remote, Global
Tech Stack: Databricks, Spark, SQL, Python

Необхідний досвід роботи:
3+ років у Data Engineering
Databricks / Spark (production)
Strong SQL
Python
ETL/ELT пайплайни
Relational + NoSQL DBs
Комунікація з бізнесом
Розуміння бізнес-процесів (Finance, Supply Chain, Operations etc.)
English: B2+

Буде плюсом: Delta Lake, Unity Catalog, Airflow / Data Factory, Data Modeling, Governance, Cloud certs.

Обов’язки: ETL/ELT, lakehouse pipelines, data modeling, data quality, робота з BI/DS командами, DataOps.

Проєкт 3: Senior / Lead Data Engineer — Financial Crime / AML

Location: EU Only
Tech Stack: Databricks, Snowflake, PySpark, Python, Airflow, AWS, Terraform, NiFi

Необхідний досвід роботи:
Expert SQL, Databricks, Snowflake
Python + PySpark (advanced)
Hadoop, NiFi, lakehouse architecture
Airflow / Databricks Workflows / Step Functions
AWS (S3, IAM, Glue, Lake Formation, networking)
Terraform / CloudFormation
Governance & lineage (Unity Catalog / Atlas / OpenLineage)
CI/CD, IaC
Менторинг і технічне лідерство
Incident response, observability
Cost optimization
English: B2+

Обов’язки: Проєктування lakehouse, Bronze/Silver/Gold стандарти, ingestion frameworks, orchestration, governance, quality SLAs, CI/CD, security/compliance, code review, mentoring, оптимізація Spark, підтримка інцидентів.

 

Проєкт 4: Data Engineer — Enterprise

Location: Remote
Tech Stack: Databricks, Spark, SQL, Python

Необхідний досвід роботи:
3+ років у Data Engineering
Databricks / Spark
Strong SQL
Python
ETL/ELT
Бази даних
Комунікація з бізнесом
Розуміння доменів Finance / Supply Chain / Operations
English: B2+

Буде плюсом: Delta Lake, Unity Catalog, Airflow / Data Factory, Data Modeling, Governance, Cloud certs.

Обов’язки: ETL/ELT, lakehouse architectures, data quality, автоматизація, взаємодія з BI/DS/Governance командами.

 

Проєкт 5: Senior Data Engineer — PySpark / Databricks / MLOps

Location: EU Only
Tech Stack: PySpark, Databricks, Delta Lake, Jenkins, Azure/AWS

Необхідний досвід роботи:
Strong Python + PySpark
Databricks + Delta Lake
CI/CD (Jenkins, Asset Bundles)
Оптимізація пайплайнів, partitioning, cost
MLOps understanding (SARIMA — базово)
Serverless compute
DevOps майндсет
English: B2+

Обов’язки:
Phase I: продакшн SARIMA-пайплайнів, оптимізація performance/cost, Databricks Asset Bundles, CI/CD, cost analysis.
Phase II: MLOps масштабування, pipeline templates, monitoring, orchestrations, compute optimization.

Required languages

English C1 - Advanced
Published 17 December 2025 · Updated 6 January
Statistics:
70 views
·
9 applications
34% read
To apply for this and other jobs on Djinni login or signup.
Loading...