Data Engineer Offline

Growe чекає на тих, хто прагне:

- Створювати end-to-end ETL workflows за допомогою Apache Airflow, визначати залежності завдань і планування для забезпечення своєчасної та точної обробки даних;

- Встановлювати найкращі практики для організації даних у сегментах S3, включаючи структури папок, стратегії розділення та тегування об’єктів для покращеної видимості даних і керування ними;

- Забезпечувати контроль доступу та керування дозволами для сегментів S3 і таблиць Athena за допомогою політик IAM, забезпечувати дотримання нормативних вимог і стандартів керування даними;

- Співпрацювати з міжфункціональними командами, включно з спеціалістами з обробки даних, аналітиками та зацікавленими сторонами, щоб зрозуміти вимоги до даних і надати масштабовані та надійні рішення;

- Документувати архітектуру зберігання даних, ETL pipelines і методів оптимізації запитів, підтримувати чітку й актуальну документацію для довідок і обміну знаннями всередині команди.

 

Нам потрібен твій професійний досвід:

- Досвід роботи в якості інженера даних з фокусом на сервісах AWS;

- Сильні навички створення data pipelines за допомогою Apache Airflow;

- Досвід роботи з сервісами AWS, такими як S3, Athena, Glue, IAM roles, Redshift;

- Гарне розуміння ETL процесів і концепцій моделювання даних;

- Володіння SQL та досвід роботи з великими наборами даних;

- Досвід роботи з системами контролю версій (наприклад, Git) і CI/CD pipelines;

- Досвід роботи з Terraform;

- Відмінні навички вирішення проблем і усунення несправностей;

- Розуміння MLOps буде плюсом;

- Досвід роботи з Kafka та DBT буде плюсом;

- Рівень англійської: Intermediate/Upper-Intermediate.

 

Ми цінуємо:

- Сильні комунікативні та презентаційні навички;

- Увага до дрібниць;

- Проактивне та орієнтоване на результат мислення.

 

Ми шукаємо тих, хто розділяє наші ключові цінності:

- GROWE TOGETHER: Наша команда — наша головна цінність. Ми працюємо разом та підтримуємо один одного для досягнення наших спільних цілей;

- DRIVE RESULT OVER PROCESS: Ми встановлюємо амбіційні, чіткі, вимірювані цілі відповідно до стратегії успіху Growe;

- BE READY FOR CHANGE: Ми сприймаємо виклики як можливості для зростання та еволюції. Ми адаптуємося сьогодні, щоб перемогти завтра.

 

Що ми пропонуємо?

- Покриття податків;

- Медичне страхування та фінансова допомога;

- Benefit Cafeteria (компенсація спортзалу /стоматології /психолога тощо);

- 100 % оплачувані лікарняні;

- Оплачувана відпустка;

- Річний перегляд заробітної плати (на основі результатів);

- Бонусна система на основі OKR;

- Індивідуальний річний бюджет на навчання, з можливістю відвідування платних конференцій, тренінгів, уроків англійської мови, майстер-класів тощо;

- Персональний план розвитку;

- Корпоративи та тімбілдінги;

- Безкоштовні обіди в офісі.

 

English version:

 

Growe welcomes those who are excited to:

- Create end-to-end ETL workflows using Apache Airflow, define task dependencies and scheduling to ensure timely and accurate data processing;

- Establish best practices for organizing data within S3 buckets, including folder structures, partitioning strategies, and object tagging for improved data discoverability and management;

- Provide access controls and permissions management on S3 buckets and Athena tables using IAM policies, ensure compliance with regulatory requirements and data governance standards;

- Collaborate with cross-functional teams, including data scientists, analysts, and business stakeholders, to understand data requirements and deliver scalable and reliable solutions;

- Document data storage architectures, ETL pipelines, and query optimization techniques maintain clear and up-to-date documentation for reference and knowledge sharing within the team.

 

We need your professional experience:

- Proven experience working as a data engineer with a focus on AWS services;

- Strong proficiency in building data pipelines using Apache Airflow;

- Expertise in AWS services such as S3, Athena, Glue, IAM roles, Redshift;

- Solid understanding of ETL processes and data modeling concepts;

- Proficiency in SQL and experience working with large datasets;

- Familiarity with version control systems (e.g., Git) and CI/CD pipelines;

- Experience with Terraform;

- Excellent problem-solving and troubleshooting skills;

- Understanding of MLOps will be a plus;

- Experience with Kafka and DBT will be a plus;

- Level of English: Intermediate/Upper-Intermediate.

 

We appreciate if you have those personal features:

- Strong communication and presentation skills;

- Attention to detail;

- Proactive and result-oriented mindset.

 

We are seeking those who align with our core values:

- GROWE TOGETHER: Our team is our main asset. We work together and support each other to achieve our common goals;

- DRIVE RESULT OVER PROCESS: We set ambitious, clear, measurable goals in line with our strategy and driving Growe to success;

- BE READY FOR CHANGE: We see challenges as opportunities to grow and evolve. We adapt today to win tomorrow.

 

What we offer:

- Tax coverage;

- Medical insurance & financial aid;

- Benefit Cafeteria (compensation for the gym/stomatology/psychological service & etc.);

- 100 % paid sick leaves;

- Paid vacation;

- Annual salary review (based on performance);

- OKR-based bonus system;

- Individual annual training budget which allows to visit paid conferences, training sessions, English lessons, workshops, etc.;

- Personal development plan;

- Corporate events and team-building activities;

- Free lunches at the office.

The job ad is no longer active

Look at the current jobs Data Engineer →