Fit4Me

Data Engineer

Fit4Me Verified Employer

Fit4Me шукає Middle Data Engineer. Основною метою цієї ролі є проєктування, побудова та підтримка масштабованої інфраструктури даних, яка підтримує аналітику, звітність і прийняття бізнес-рішень у межах організації.

Роль зосереджена на розробці надійних пайплайнів, інтеграції кількох джерел даних, забезпеченні якості даних та наданні бізнес-орієнтованих рішень з даними, що відповідають цілям компанії.

Ця роль підійде тобі, якщо ти:

  • Впевнено працюєш із SQL(BigQuery), Python, dbt, Google Cloud Platform (GCF, GCS, Cloud Build, Cloud Scheduler, Pub/Sub, IAM), Data Modeling.
  • Любиш працювати з даними на рівні інфраструктури та хочеш будувати міцну основу для аналітики.
  • Комфортно почуваєшся у задачах, де є великі обсяги даних, трансформації та кілька джерел одночасно.
  • Помічаєш потенційні проблеми в даних і процесах ще до того, як вони вплинуть на результат.
  • Любиш працювати у зв’язці з аналітиками та іншими командами, щоб разом будувати зручні data solutions для продукту.
  • Поєднуєш технічну глибину, системність і відповідальність за результат.

Impact зони:

  • Розробка та підтримка ELT-процесів для збору, трансформації та завантаження даних із різних джерел у BigQuery.
  • Створення та розвиток dbt-проекту для побудови моделей даних (stage, base, intermediate, dimension, report layers), які використовуються в аналітиці та звітності.
  • Оптимізація продуктивності пайплайнів, SQL-запитів і моделей даних.
  • Валідація, тестування та контроль якості даних на всіх етапах пайплайну.
  • Налаштування моніторингу й алертингу для дата-пайплайнів та ключових компонентів інфраструктури.
  • Інтеграція даних із різних джерел(мобільний додаток, фінансова та маркетинг інформація), включно з API та зовнішніми системами.
  • Співпраця з аналітиками, щоб дані були коректно структуровані, зручні у використанні та добре підтримували аналітичні потреби команди.
  • Підтримка актуальної документації щодо архітектури даних, ELT-процесів, dbt-моделей.
  • Інструменти, з якими ти працюватимеш: SQL, Python, dbt і хмарні сервіси GCP для побудови та підтримки data pipelines.

Ми очікуємо, що ти маєш:

  • 3+ роки досвіду на позиції Data Engineer або в суміжній ролі з сильним фокусом на побудові пайплайнів та дата моделінгу.
  • Глибоке знання SQL: складні запити, оптимізація, розуміння принципів Data Warehousing.
  • Практичний досвід роботи з BigQuery, Snowflake, Redshift або іншими аналітичними сховищами.
  • Досвід роботи з dbt, включно з тестуванням, документуванням і CI/CD-інтеграцією.
  • Досвід побудови й підтримки ELT/ETL пайплайнів.
  • Сильне володіння Python для інтеграцій, автоматизації та дата-процесів.
  • Впевнене володіння Git та досвід роботи з GitHub/GitLab.
  • Досвід роботи з GCP або іншими cloud-платформами.
  • Уважність до деталей, сильне problem-solving мислення та відповідальність за результат.
  • Досвід співпраці з аналітиками та розуміння їхніх потреб у даних.

Буде плюсом:

  • Досвід оптимізації cost efficiency і продуктивності запитів у cloud-середовищах.
  • Досвід роботи з real-time / streaming data solutions.
  • Уміння зрозуміло пояснювати технічні рішення стейкхолдерам.

Твій шлях:

Інтерв’ю з Recruiter → Інтерв’ю з Product Analyst та Data Engineer → Фінальне інтерв'ю з HR D → Job Offer 🚀

 

Published 24 March
15 views
·
3 applications
Connected to ATS
To apply for this and other jobs on Djinni login or signup.
Loading...