Data Engineer
Fit4Me
Verified Employer
Fit4Me шукає Middle Data Engineer. Основною метою цієї ролі є проєктування, побудова та підтримка масштабованої інфраструктури даних, яка підтримує аналітику, звітність і прийняття бізнес-рішень у межах організації.
Роль зосереджена на розробці надійних пайплайнів, інтеграції кількох джерел даних, забезпеченні якості даних та наданні бізнес-орієнтованих рішень з даними, що відповідають цілям компанії.
Ця роль підійде тобі, якщо ти:
- Впевнено працюєш із SQL(BigQuery), Python, dbt, Google Cloud Platform (GCF, GCS, Cloud Build, Cloud Scheduler, Pub/Sub, IAM), Data Modeling.
- Любиш працювати з даними на рівні інфраструктури та хочеш будувати міцну основу для аналітики.
- Комфортно почуваєшся у задачах, де є великі обсяги даних, трансформації та кілька джерел одночасно.
- Помічаєш потенційні проблеми в даних і процесах ще до того, як вони вплинуть на результат.
- Любиш працювати у зв’язці з аналітиками та іншими командами, щоб разом будувати зручні data solutions для продукту.
- Поєднуєш технічну глибину, системність і відповідальність за результат.
Impact зони:
- Розробка та підтримка ELT-процесів для збору, трансформації та завантаження даних із різних джерел у BigQuery.
- Створення та розвиток dbt-проекту для побудови моделей даних (stage, base, intermediate, dimension, report layers), які використовуються в аналітиці та звітності.
- Оптимізація продуктивності пайплайнів, SQL-запитів і моделей даних.
- Валідація, тестування та контроль якості даних на всіх етапах пайплайну.
- Налаштування моніторингу й алертингу для дата-пайплайнів та ключових компонентів інфраструктури.
- Інтеграція даних із різних джерел(мобільний додаток, фінансова та маркетинг інформація), включно з API та зовнішніми системами.
- Співпраця з аналітиками, щоб дані були коректно структуровані, зручні у використанні та добре підтримували аналітичні потреби команди.
- Підтримка актуальної документації щодо архітектури даних, ELT-процесів, dbt-моделей.
- Інструменти, з якими ти працюватимеш: SQL, Python, dbt і хмарні сервіси GCP для побудови та підтримки data pipelines.
Ми очікуємо, що ти маєш:
- 3+ роки досвіду на позиції Data Engineer або в суміжній ролі з сильним фокусом на побудові пайплайнів та дата моделінгу.
- Глибоке знання SQL: складні запити, оптимізація, розуміння принципів Data Warehousing.
- Практичний досвід роботи з BigQuery, Snowflake, Redshift або іншими аналітичними сховищами.
- Досвід роботи з dbt, включно з тестуванням, документуванням і CI/CD-інтеграцією.
- Досвід побудови й підтримки ELT/ETL пайплайнів.
- Сильне володіння Python для інтеграцій, автоматизації та дата-процесів.
- Впевнене володіння Git та досвід роботи з GitHub/GitLab.
- Досвід роботи з GCP або іншими cloud-платформами.
- Уважність до деталей, сильне problem-solving мислення та відповідальність за результат.
- Досвід співпраці з аналітиками та розуміння їхніх потреб у даних.
Буде плюсом:
- Досвід оптимізації cost efficiency і продуктивності запитів у cloud-середовищах.
- Досвід роботи з real-time / streaming data solutions.
- Уміння зрозуміло пояснювати технічні рішення стейкхолдерам.
Твій шлях:
Інтерв’ю з Recruiter → Інтерв’ю з Product Analyst та Data Engineer → Фінальне інтерв'ю з HR D → Job Offer 🚀
📊
$2500-5000
Average salary range of similar jobs in
analytics →
Loading...