Data Engineer

We are looking for a Data Engineer to design and build scalable data platforms that support analytics, reporting, and data-driven decision-making across the organization. In this role, you will develop robust data pipelines, contribute to the evolution of our cloud data platform, and ensure reliable and efficient data processing across multiple projects and teams.

 

Responsibilities:

 

  • Design and develop scalable and reliable data platforms and/or data pipelines for analytical and operational use cases
  • Design and implement data processing workflows using distributed processing frameworks such as Apache Spark/PySpark (Databricks)
  • Contribute to the evolution of the organization’s cloud data platform using Azure technologies (e.g., Azure Data Factory, Synapse, Microsoft Fabric, Databricks, Event Hub, Azure Data Lake Storage)
  • Apply strong data modelling practices to support analytics, reporting, and downstream data consumption
  • Integrate and process data from multiple internal and external sources while ensuring data consistency, quality, and reliability
  • Take ownership of data pipeline reliability, monitoring, and performance to ensure scalable and maintainable data processing workflows
  • Collaborate with data analysts, data scientists, and engineering teams to translate business and analytical requirements into robust data solutions
  • Drive improvements in data engineering practices, including pipeline design standards, testing approaches, and operational reliability
  • Participate in evaluating and introducing new tools and technologies within the data engineering ecosystem

 

Requirements:
 

  • Strong hands-on experience (3+ years) in data engineering or building data processing platforms
  • Strong SQL skills and solid experience with Python for building and maintaining data pipelines
  • Experience working with distributed data processing frameworks such as Apache Spark/PySpark (Databricks experience is a strong advantage)
  • Practical experience designing and implementing data pipelines in cloud environments, preferably within the Azure ecosystem
  • Experience designing data pipelines and data models for production-scale analytical systems
  • Strong understanding of data engineering concepts including ETL/ELT design, dimensional modeling, and data warehousing principles
  • Experience working with modern data lake architectures and data formats such as Parquet and JSON
  • Experience with workflow orchestration tools (e.g., Airflow)
  • Experience with database development and performance optimization
  • Ability to design scalable and maintainable data solutions with minimal supervision
  • Strong collaboration and communication skills
  • Professional working proficiency in English

 

Ми шукаємо Data Engineer, який допоможе проєктувати та будувати масштабовані платформи даних, що підтримують аналітику, звітність та прийняття рішень на основі даних в організації. У цій ролі ви розроблятимете надійні data pipelines, робитимете внесок у розвиток нашої хмарної платформи даних та забезпечуватимете надійну й ефективну обробку даних у межах кількох проєктів і команд.


Обов’язки:

  • Проєктування та розробка масштабованих і надійних платформ даних та/або data pipelines для аналітичних і операційних сценаріїв використання
  • Проєктування та реалізація workflow обробки даних із використанням розподілених фреймворків обробки даних, таких як Apache Spark/PySpark (Databricks)
  • Участь у розвитку хмарної платформи даних організації з використанням технологій Azure (наприклад, Azure Data Factory, Synapse, Microsoft Fabric, Databricks, Event Hub, Azure Data Lake Storage)
  • Застосування практик data modelling для підтримки аналітики, звітності та подальшого використання даних
  • Інтеграція та обробка даних із різних внутрішніх і зовнішніх джерел із забезпеченням узгодженості, якості та надійності даних
  • Відповідальність за надійність data pipelines, моніторинг і продуктивність для забезпечення масштабованих і підтримуваних workflow обробки даних
  • Співпраця з data analysts, data scientists та інженерними командами для трансформації бізнесових і аналітичних вимог у надійні data-рішення
  • Покращення практик data engineering, включно зі стандартами проєктування pipelines, підходами до тестування та операційною надійністю
  • Участь в оцінці та впровадженні нових інструментів і технологій в екосистемі data engineering


Вимоги:

  • Практичний досвід (3+ років) у data engineering або створенні платформ обробки даних
  • Сильні навички SQL і впевнений досвід роботи з Python для побудови та підтримки data pipelines
  • Досвід роботи з розподіленими фреймворками обробки даних, такими як Apache Spark/PySpark (досвід із Databricks буде значною перевагою)
  • Практичний досвід проєктування та реалізації data pipelines у хмарних середовищах, бажано в екосистемі Azure
  • Досвід проєктування data pipelines і моделей даних для аналітичних систем у продакшені
  • Ґрунтовне розуміння концепцій data engineering, включно з ETL/ELT, dimensional modeling та принципами data warehousing
  • Досвід роботи з сучасними архітектурами data lake та форматами даних, такими як Parquet і JSON
  • Досвід роботи з інструментами оркестрації workflow (наприклад, Airflow)
  • Досвід розробки баз даних і оптимізації продуктивності
  • Здатність проєктувати масштабовані та підтримувані data-рішення з мінімальним наглядом
  • Сильні навички комунікації та співпраці
  • Високий рівень англійської мови

Required skills experience

Python 3 years
Databricks 3 years
PySpark 3 years
Azure 2 years

Required languages

English B2 - Upper Intermediate
Published 12 March
15 views
·
2 applications
To apply for this and other jobs on Djinni login or signup.
Loading...