Data Engineer (Multiple Projects, Different Clients) — UA / EU / Global
Techbar шукає Data Engineers (Middle—Senior—Lead) для різних міжнародних клієнтів у сферах retail, analytics, financial crime, enterprise platforms та ML-Ops.
Кожен проєкт — окремий клієнт, свій стек і свої вимоги. Ми пропонуємо можливість обрати той напрямок, який найкраще відповідає вашому досвіду, технічному фокусу та очікуванням щодо розвитку.
Проєкт 1: Data Engineer — Retail (US)
Location: Remote, Global
Tech Stack: Snowflake, dbt Cloud, Astronomer / Airflow, Python
Необхідний досвід роботи:
5+ років у Data Engineering
2+ роки досвіду з dbt (critical)
Advanced SQL
Snowflake / BigQuery / Redshift
Airflow (DAGs)
Python
ELT/ETL, Git
Продакшн пайплайни
English: B2+
Буде плюсом: Retail/e-commerce, Great Expectations/Monte Carlo, Airbyte/Fivetran, BI, Terraform, governance.
Обов’язки: Розробка та підтримка dbt-моделей, Airflow DAGs, оптимізація Snowflake, data quality, документування, performance tuning.
Проєкт 2: Data Engineer with Databricks
Location: Remote, Global
Tech Stack: Databricks, Spark, SQL, Python
Необхідний досвід роботи:
3+ років у Data Engineering
Databricks / Spark (production)
Strong SQL
Python
ETL/ELT пайплайни
Relational + NoSQL DBs
Комунікація з бізнесом
Розуміння бізнес-процесів (Finance, Supply Chain, Operations etc.)
English: B2+
Буде плюсом: Delta Lake, Unity Catalog, Airflow / Data Factory, Data Modeling, Governance, Cloud certs.
Обов’язки: ETL/ELT, lakehouse pipelines, data modeling, data quality, робота з BI/DS командами, DataOps.
Проєкт 3: Senior / Lead Data Engineer — Financial Crime / AML
Location: EU Only
Tech Stack: Databricks, Snowflake, PySpark, Python, Airflow, AWS, Terraform, NiFi
Необхідний досвід роботи:
Expert SQL, Databricks, Snowflake
Python + PySpark (advanced)
Hadoop, NiFi, lakehouse architecture
Airflow / Databricks Workflows / Step Functions
AWS (S3, IAM, Glue, Lake Formation, networking)
Terraform / CloudFormation
Governance & lineage (Unity Catalog / Atlas / OpenLineage)
CI/CD, IaC
Менторинг і технічне лідерство
Incident response, observability
Cost optimization
English: B2+
Обов’язки: Проєктування lakehouse, Bronze/Silver/Gold стандарти, ingestion frameworks, orchestration, governance, quality SLAs, CI/CD, security/compliance, code review, mentoring, оптимізація Spark, підтримка інцидентів.
Проєкт 4: Data Engineer — Enterprise
Location: Remote
Tech Stack: Databricks, Spark, SQL, Python
Необхідний досвід роботи:
3+ років у Data Engineering
Databricks / Spark
Strong SQL
Python
ETL/ELT
Бази даних
Комунікація з бізнесом
Розуміння доменів Finance / Supply Chain / Operations
English: B2+
Буде плюсом: Delta Lake, Unity Catalog, Airflow / Data Factory, Data Modeling, Governance, Cloud certs.
Обов’язки: ETL/ELT, lakehouse architectures, data quality, автоматизація, взаємодія з BI/DS/Governance командами.
Проєкт 5: Senior Data Engineer — PySpark / Databricks / MLOps
Location: EU Only
Tech Stack: PySpark, Databricks, Delta Lake, Jenkins, Azure/AWS
Необхідний досвід роботи:
Strong Python + PySpark
Databricks + Delta Lake
CI/CD (Jenkins, Asset Bundles)
Оптимізація пайплайнів, partitioning, cost
MLOps understanding (SARIMA — базово)
Serverless compute
DevOps майндсет
English: B2+
Обов’язки:
Phase I: продакшн SARIMA-пайплайнів, оптимізація performance/cost, Databricks Asset Bundles, CI/CD, cost analysis.
Phase II: MLOps масштабування, pipeline templates, monitoring, orchestrations, compute optimization.
Required languages
| English | C1 - Advanced |