Data Engineer Offline
Growe чекає на тих, хто прагне:
- Створювати end-to-end ETL workflows за допомогою Apache Airflow, визначати залежності завдань і планування для забезпечення своєчасної та точної обробки даних;
- Встановлювати найкращі практики для організації даних у сегментах S3, включаючи структури папок, стратегії розділення та тегування об’єктів для покращеної видимості даних і керування ними;
- Забезпечувати контроль доступу та керування дозволами для сегментів S3 і таблиць Athena за допомогою політик IAM, забезпечувати дотримання нормативних вимог і стандартів керування даними;
- Співпрацювати з міжфункціональними командами, включно з спеціалістами з обробки даних, аналітиками та зацікавленими сторонами, щоб зрозуміти вимоги до даних і надати масштабовані та надійні рішення;
- Документувати архітектуру зберігання даних, ETL pipelines і методів оптимізації запитів, підтримувати чітку й актуальну документацію для довідок і обміну знаннями всередині команди.
Нам потрібен твій професійний досвід:
- Досвід роботи в якості інженера даних з фокусом на сервісах AWS;
- Сильні навички створення data pipelines за допомогою Apache Airflow;
- Досвід роботи з сервісами AWS, такими як S3, Athena, Glue, IAM roles, Redshift;
- Гарне розуміння ETL процесів і концепцій моделювання даних;
- Володіння SQL та досвід роботи з великими наборами даних;
- Досвід роботи з системами контролю версій (наприклад, Git) і CI/CD pipelines;
- Досвід роботи з Terraform;
- Відмінні навички вирішення проблем і усунення несправностей;
- Розуміння MLOps буде плюсом;
- Досвід роботи з Kafka та DBT буде плюсом;
- Рівень англійської: Intermediate/Upper-Intermediate.
Ми цінуємо:
- Сильні комунікативні та презентаційні навички;
- Увага до дрібниць;
- Проактивне та орієнтоване на результат мислення.
Ми шукаємо тих, хто розділяє наші ключові цінності:
- GROWE TOGETHER: Наша команда — наша головна цінність. Ми працюємо разом та підтримуємо один одного для досягнення наших спільних цілей;
- DRIVE RESULT OVER PROCESS: Ми встановлюємо амбіційні, чіткі, вимірювані цілі відповідно до стратегії успіху Growe;
- BE READY FOR CHANGE: Ми сприймаємо виклики як можливості для зростання та еволюції. Ми адаптуємося сьогодні, щоб перемогти завтра.
Що ми пропонуємо?
- Покриття податків;
- Медичне страхування та фінансова допомога;
- Benefit Cafeteria (компенсація спортзалу /стоматології /психолога тощо);
- 100 % оплачувані лікарняні;
- Оплачувана відпустка;
- Річний перегляд заробітної плати (на основі результатів);
- Бонусна система на основі OKR;
- Індивідуальний річний бюджет на навчання, з можливістю відвідування платних конференцій, тренінгів, уроків англійської мови, майстер-класів тощо;
- Персональний план розвитку;
- Корпоративи та тімбілдінги;
- Безкоштовні обіди в офісі.
English version:
Growe welcomes those who are excited to:
- Create end-to-end ETL workflows using Apache Airflow, define task dependencies and scheduling to ensure timely and accurate data processing;
- Establish best practices for organizing data within S3 buckets, including folder structures, partitioning strategies, and object tagging for improved data discoverability and management;
- Provide access controls and permissions management on S3 buckets and Athena tables using IAM policies, ensure compliance with regulatory requirements and data governance standards;
- Collaborate with cross-functional teams, including data scientists, analysts, and business stakeholders, to understand data requirements and deliver scalable and reliable solutions;
- Document data storage architectures, ETL pipelines, and query optimization techniques maintain clear and up-to-date documentation for reference and knowledge sharing within the team.
We need your professional experience:
- Proven experience working as a data engineer with a focus on AWS services;
- Strong proficiency in building data pipelines using Apache Airflow;
- Expertise in AWS services such as S3, Athena, Glue, IAM roles, Redshift;
- Solid understanding of ETL processes and data modeling concepts;
- Proficiency in SQL and experience working with large datasets;
- Familiarity with version control systems (e.g., Git) and CI/CD pipelines;
- Experience with Terraform;
- Excellent problem-solving and troubleshooting skills;
- Understanding of MLOps will be a plus;
- Experience with Kafka and DBT will be a plus;
- Level of English: Intermediate/Upper-Intermediate.
We appreciate if you have those personal features:
- Strong communication and presentation skills;
- Attention to detail;
- Proactive and result-oriented mindset.
We are seeking those who align with our core values:
- GROWE TOGETHER: Our team is our main asset. We work together and support each other to achieve our common goals;
- DRIVE RESULT OVER PROCESS: We set ambitious, clear, measurable goals in line with our strategy and driving Growe to success;
- BE READY FOR CHANGE: We see challenges as opportunities to grow and evolve. We adapt today to win tomorrow.
What we offer:
- Tax coverage;
- Medical insurance & financial aid;
- Benefit Cafeteria (compensation for the gym/stomatology/psychological service & etc.);
- 100 % paid sick leaves;
- Paid vacation;
- Annual salary review (based on performance);
- OKR-based bonus system;
- Individual annual training budget which allows to visit paid conferences, training sessions, English lessons, workshops, etc.;
- Personal development plan;
- Corporate events and team-building activities;
- Free lunches at the office.
The job ad is no longer active
Look at the current jobs Data Engineer →