Jobs Data Engineer

147
  • · 72 views · 0 applications · 15d

    Data Engineer

    Full Remote · Countries of Europe or Ukraine · Product · 4 years of experience · English - B1
    Kiss My Apps — компанія-платформа, що об’єднує 7 продуктових вертикалей та 30+ AI-first продуктів, 100+ мільйонів користувачів, власну екосистему аналітичних, пеймент та маркетингових розробок. Продукти KMA це світові лідери в нішах utilities, lifestyle,...

    Kiss My Apps — компанія-платформа, що об’єднує 7 продуктових вертикалей та 30+ AI-first продуктів, 100+ мільйонів користувачів, власну екосистему аналітичних, пеймент та маркетингових розробок.

    Продукти KMA це світові лідери в нішах utilities, lifestyle, health&fitness — AI Remodel, Printer, Botan, Calorie Counter і не тільки. Це продукти, що займають топ-1 місця App Store й вирішують потреби комʼюніті з сотень мільйонів людей.


    Наш темп — це наш competitive advantage. KMA зростає мінімум х3 рік до року — і ми шукаємо Data Engineer, того/ту, хто допоможе масштабуватись ще швидше.


    Коротко про роль: Ти відповідатимеш за розвиток дата-платформи, забезпечуючи аналітиків якісними даними. Це можливість працювати з поточним стеком, готуючи ґрунт для впровадження сучасних підходів у аналітику.

     

    Твої задачі:

    • Підтримка та оптимізація ETL-процесів.
    • Створення нових інтеграцій та забезпечення якості даних для звітності.
    • Налагодження процесів моніторингу та алертів пайплайнів.
    • Оптимізація агрегації даних відповідно до бізнес потреб у співпраці з аналітиками.

     

    Що очікуємо від тебе:

    • Досвід роботи на позиції Data Engineer від 2х років.
    • Впевнене володіння Python або Scala / Java та глибокі знання SQL.
    • Практичний досвід роботи з PySpark та Databricks.
    • Розуміння принципів роботи з Docker та Kubernetes.
    • Досвід роботи з хмарними провайдерами.
    • Орієнтація на роботу з сучасним Data-стеком та готовність швидко опановувати нові інструменти.

     

    Буде перевагою:

    • Наявність сертифікацій (Databricks, Microsoft Certified Data Engineer, AWS/GCP).
    • Досвід роботи з Airflow, Airbyte та Terraform.
    • Розуміння роботи з Kafka та стрімінговими даними.

     

    Тобі до нас, якщо шукаєш:

    • Роботу з сучасним Data-стеком та можливість впливати на архітектуру платформи.
    • Участь у проєкт, що стрімко розвиваються, з фокусом на AI та ML.
    • Середовище, де цінується автономність та бізнес-орієнтованість.

     

    Ми пропонуємо:

    • Формат роботи на твій вибір: fully remote з будь-якої точки вільного світу, а також доступ до одного з наших офісів за бажанням (Київ, Варшава).
    • Умови, завдяки яким ти можеш сфокусуватись на перформансі: гідна винагорода, що відповідає твоїм скілам та досвіду. А також ми забезпечуємо технікою незалежно від формату роботи та географії.
    • Кар’єрне зростання через дію: 80%+ усіх leads в Kiss My Apps ще 2-3 роки тому були світчерами. Твій вплив тут не визначається роками в резюме — він визначається тим, як швидко ти навчаєшся, береш відповідальність та береш оунершіп за власну карʼєру.
    • Well-being програма: ми турбуємося про ментальне здоровʼя команди, а також проводимо онлайн-заняття з йоги двічі на тиждень.
    • Розвиток та професійна реалізація: проводимо внутрішні speaking clubs англійською з нейтів спікером, а також надаємо можливість виступати на внутрішніх та зовнішніх івентах від Kiss My Apps. Крім цього ти матимеш річний бюджет на покриття до 50% професійних конференцій, освітніх подій та івентів.
    • Додаткові бенефіти, де ти обираєш: надаємо фіксований бюджет на рік з якого ти сам обираєш, яку статтю витрат покрити: 50% від медстрахування, психотерапії, спорту чи стоматології. А також 40 днів оплачуваного відпочинку та лікарняних без привʼязки до дат.
    • Опора в умовах війни: забезпечуємо кожного всім необхідним для безперебійної роботи, системно підтримуємо Сили Оборони та долучаємось до ініціатив із відновлення України.

     

    Важливо: є опція бронювання для військовозобов’язаних після випробувального терміну, за умови наявності належно оформлених військово-облікових документів та внутрішніх можливостей компанії, визначених відповідно до вимог чинного законодавства.

     

    Як виглядає hiring процес:

    • Інтро з рекрутером
    • Технічна співбесіда з Tech Lead та Data Engineer
    • Фінальна співбесіда з CTO

    Якщо ти хочеш будувати сучасну дата-платформу та долучитись до впровадження AI-технологій — let’s launch the future together 💫

    More
  • · 294 views · 14 applications · 18d

    System engineer Big Data

    Full Remote · Ukraine · Product · 2 years of experience · English - A2
    ПРО НАС UKRSIB Tech — це амбітна ІТ-команда з близько 400 спеціалістів, що драйвить технології UKRSIBBANK. Ми створюємо топовий банкінг для > 2 000 000 клієнтів та прагнемо виводити фінансову сферу в Україні на новий рівень. Нашими продуктами користуються...

    ПРО НАС

    UKRSIB Tech — це амбітна ІТ-команда з близько 400 спеціалістів, що драйвить технології UKRSIBBANK.

    Ми створюємо топовий банкінг для > 2 000 000 клієнтів та прагнемо виводити фінансову сферу в Україні на новий рівень. Нашими продуктами користуються юзери щоденного банкінгу, лідери української економіки та великі міжнародні корпорації.

    Ми дякуємо нашим захисникам та захисницям, які віддано боронять свободу та незалежність України, та створюємо сприятливе середовище для роботи в банку.

    Майбутні задачі:

    • оновлення та виправлення програмного забезпечення з оновленням вендора
    • проектна робота для оптимізації підсистем
    • взаємодія з вендорами систем для вирішення проблем інтеграція з IBM DataStage, Teradata, Oracle, Jupyterhub, Docker, Python
    • підтримка користувачів (вирішення інцидентів та консультування) та адміністрування доступу
    • тестування нового функціоналу
    • Взаємодія з іншими структурними підрозділами ІТ з метою визначення оптимальних процесів неперервного розгортання (continuous integration/continuous delivery).
    • участь в розробці стабільної і надійної ІТ-інфраструктури для підтримки систем DataHub, DataStage.
    • налаштування моніторингу доступності систем DataHub, DataStage, відповідно до заданих вимог, формує пропозиції щодо оптимізації технологічних процедур і бізнес-процесів.
    • участь в рішення технічних і системних проблем, що виникли в роботі систем DataHub, DataStage, проведення розслідувань з нестандартних ситуацій у системі, формування висновків і пропозицій щодо усунення.

    Ми в пошуку фахівця, який має:

    • Повну вищу технічну\інженерну освіту;
    • досвід роботи за напрямком від 2х років
    • Технічні засоби, програмне забезпечення, засоби передачі даних і прикладні програми користувачів, зокрема, використовувані в системах Hadoop
    • Базові знання ІТ інфраструктури банку (додатка, сервера, мережі)
    • Знання і навички роботи з СУБД
    • Глибокі знання в адмініструванні ELT/ETL засобів (IBM Datastage)
    • Володіння знаннями і навичками в роботі реляційної СУБД HIVE, що є складовою частиною DataHub
    • Знання внутрішніх IT процесів та стандартів
    • Знання і навички написання SQL/HQL скриптів.

    Окрім команди однодумців та цікавої роботи ти отримаєш:

    Стабільність:

    • офіційне працевлаштування
    • медичне страхування та страхування життя, повністю оплачене Банком
    • заробітну плату на рівні провідних ТОП-роботодавців
    • 25 днів щорічної відпустки, додаткові дні відпустки на пам’ятні події, соціальні відпустки у відповідності до законодавства України
    • щорічні перегляди заробітної плати відповідно до власної ефективності та фінансових показників Банку

     

    More
  • · 114 views · 12 applications · 19d

    Senior Data Engineer

    Ukraine · Product · 5 years of experience · English - B1
    mono — мультипродуктова fintech компанія з України. Із 2017 року мільйони людей муркочуть від наших продуктів: monobank, Experienza, Base, monoмаркет, monoбазар... Прагнемо створити ще більше для нашої екосистеми. Нумо втілювати амбітні ідеї разом! Ми в...

    mono — мультипродуктова fintech компанія з України.
    Із 2017 року мільйони людей муркочуть від наших продуктів: monobank, Experienza, Base, monoмаркет, monoбазар... Прагнемо створити ще більше для нашої екосистеми. Нумо втілювати амбітні ідеї разом!

    Ми в пошуку Senior Data Engineer із сильним інженерним бекграундом, який не боїться складних викликів і хоче впливати на архітектуру та рішення.
    Ти працюватимеш із великими обсягами даних, відповідатимеш за якість та надійність дата-платформи й поступово братимеш на себе лідерську роль у команді.
     

    Про тебе:

    — маєш досвід розробки баз даних від 5 років
    — знаєш особливості проєктування баз даних (OLTP, OLAP)
    — працюєш з ClickHouse, PostgreSQL, MongoDB
    — впевнено володієш SQL
    — маєш досвід розробки (ETL/ELT)-процесів
    — маєш досвід роботи з Kafka, Spark, Spark streeming
    — працював(-ла) з Airflow, Dbt


    Додатково зацінимо:

    — розуміння цілей і завдань бізнес-підрозділу, орієнтація на їхній результат
    — розуміння цілей, завдань і процесу моделювання
    — шариш у розробці за допомогою BI-засобів


    Довіримо тобі:

    — проєктування, розгортання та оптимізація сховищ даних
    — оптимізацію продуктивності
    — валідацію та тестування даних
    — моніторинг якості та повноти даних


    Від себе гарантуємо:

    — гідну винагороду та її регулярний перегляд за результатами
    — гнучкий графік роботи без трекерів і параної
    — можливість гібридної роботи чи повністю віддалено
    — відпустку 18 робочих днів на рік (чи 24 календарних) + 2 дні для форс-мажорів + 6 днів для навчання
    — оплачувані дей-офи за станом здоров’я — без SMS і лікарняних листів
    — корпоративні курси інглішу
    — 100% страхування здоров’я + підтримка менталочки
    — картку Platinum від monobank і пундики від наших партнерів


    🇺🇦 Підтримуємо сили оборони України власними зборами, розвиваємо культуру донатерства.
     

    More
  • · 44 views · 2 applications · 19d

    Програміст DWH

    Full Remote · Ukraine · Product · 2.5 years of experience · English - A2
    NovaPay — міжнародний фінансовий сервіс, що входить в ГК NOVA. Ми створюємо сучасні платіжні рішення для бізнесу та мільйонів користувачів. Розвиваємо власну платіжну систему, мобільний застосунок і пропонуємо широкий спектр продуктів і послуг як офлайн...

    NovaPay — міжнародний фінансовий сервіс, що входить в ГК NOVA. 

    Ми створюємо сучасні платіжні рішення для бізнесу та мільйонів користувачів. Розвиваємо власну платіжну систему, мобільний застосунок і пропонуємо широкий спектр продуктів і послуг як офлайн — у відділеннях Нової пошти, так і онлайн. 

    NovaPay — це місце для справжніх профі, де інноваційні ідеї, рішення та технології формують майбутнє фінтех-індустрії.  

    Наразі ми запрошуємо до команди фахівця на посаду «Програміста DWH»
     
     Наші очікування:  

    • досвід програмування в SQL, С#, Python при розробці DWH та його елементів від 3 років;
    • глибокі знання в MS SSIS, Pentaho та суміжних сервісів;
    • практичний досвід роботи з MS SQL Server, PostgreSQL.

    Основні завдання: 

    • розробка та підтримка корпоративного сховища даних (DWH);
    • адміністрування та моніторинг баз даних MS SQL, забезпечення їхньої продуктивності та резервного копіювання;
    • реалізація процесів інтеграції та ETL (завантаження, трансформація, вивантаження даних);
    • консультаційна та технічна підтримка користувачів щодо роботи з вітринами даних: обробка запитів на дані, супровід та актуалізація вітрин; 
    • забезпечення якості, цілісності та актуальності даних;
    • реалізація механізмів контролю та валідації даних.

    Ми пропонуємо: 
     

    • роботу у інноваційній компанії в сегменті FinTech; 
    • можливість працювати в гібридному форматі або віддалено; 
    • турботу про твоє ментальне та фізичне здоров’я (медичне страхування, консультації психолога, корпоративні спортивні спільноти); 
    • навчання та розвиток (заняття з англійської мови, курси та тренінги для 
    • щорічні перегляди заробітної плати відповідно до власної ефективності; 
    • зустрічі з відомими спікерами у Корпоративному клубі; 
    • програму наставництва та підтримку кожного нового співробітника; 
    • можливість проявити свої таланти — ми цінуємо творчу ініціативу і підтримуємо її. 

     Якщо вас зацікавила вакансія та ваш досвід роботи і кваліфікація відповідають вимогам, надсилайте своє резюме відгуком на цю вакансію.

     Відправляючи резюме, ви даєте згоду на обробку персональних даних компанією ТОВ «НоваПей» в рамках чинного законодавства України.

     Звертаємо вашу увагу, що зворотний зв’язок на відправлене резюме надається тільки в разі позитивного рішення по подальшому розгляду вашої кандидатури.

     В іншому випадку, ваші дані будуть збережені в базі резюме Компанії і ми будемо раді звернутися до вас у разі появи відповідної вакантної посади.

     

     

    More
  • · 110 views · 17 applications · 23d

    Junior Data Engineer

    Full Remote · Ukraine · Product · 2 years of experience · English - None Ukrainian Product 🇺🇦
    TENTENS Tech є партнерською IT-компанією SKELAR — українського венчур-білдера, який будує міжнародні tech-бізнеси. Ми розробляємо social discovery-платформи для понад 20 мільйонів користувачів у всьому світі. Наш темп і масштаб тримаються на глибокій...

    TENTENS Tech є партнерською IT-компанією SKELAR — українського венчур-білдера, який будує міжнародні tech-бізнеси.

    Ми розробляємо social discovery-платформи для понад 20 мільйонів користувачів у всьому світі. Наш темп і масштаб тримаються на глибокій експертизі в аналітиці, highload та performance marketing.

    Команда TENTENS Tech сьогодні — це 250+ людей, де кожен діє як CEO у своїй ролі та впливає на спільний результат. Працюємо в стилі 10/10ths: тримаємо курс на ціль, ставимо правильні питання на шляху і не зупиняємось на «добре» — тільки максимум і ще трохи далі. Якщо впізнаєш себе в цьому описі та готовий набирати швидкість із нами — давай знайомитися!

    Зараз ми в пошуку Junior Data Engineer, щоб разом піднімати планку результату. 


    На цій позиції ви приєднаєтесь до нашої data-команди та під керівництвом досвідчених інженерів будете допомагати підтримувати і розвивати інфраструктуру, що є основою для наших бізнес-рішень, а також будете:
     

    • Розвивати data-процеси: брати участь у створенні нових інтеграцій, які завантажують мільйони записів щогодини.
    • Працювати з аналітичною платформою: допомагати в розробці моделей даних та трансформацій за допомогою Dataform/DBT.
    • Підтримувати Data Lake: забезпечувати стабільність та доступність даних для всієї компанії.
    • Оптимізувати обчислення: писати та вдосконалювати складні аналітичні SQL-запити, які використовуються для аналітики та звітності.
       

    Що для нас важливо:

    Ми шукаємо кандидата, який має міцну теоретичну базу та прагне перетворити її на практичний досвід у роботі зі складними та високонавантаженими системами.
     

    Must-have:

    • Python: Вміння писати ефективний та чистий код для обробки даних.
    • SQL: Впевнене розуміння SQL для роботи з базами даних, включно з JOIN, GROUP BY та віконними функціями.
    • Розуміння концепцій DE: Базові знання про Data Modelling, Data Patterns, та архітектуру аналітичних сховищ (напр., BigQuery).
       

    Nice-to-have:

    • Досвід роботи з хмарними платформами, особливо з GCP/BigQuery.
    • Теоретичне розуміння інструментів оркестрації (Airflow) та трансформації (Dataform/DBT).
       

    А головне — щира зацікавленість у сфері даних, допитливість та бажання швидко вчитися і розвиватися.
     

    Що ти отримаєш разом з нами:

    — Внутрішні клуби за професійними напрямками: маркетинг, розробка, фінанси, рекрутинг;

    — Тренінги, курси, відвідування конференцій;

    — Просторі та сучасні офіси у Києві та Варшаві;

    — Медичне страхування, корпоративний лікар.
     

    Давай разом будувати the next big everything — там, де «добре» не фініш, а старт!

    More
  • · 144 views · 29 applications · 24d

    Data Engineer / Data Platform Engineer

    Worldwide · Product · 3 years of experience · English - B1
    Ми команда, що працює над антикорупційною аналітикою та цифровізацією державних сервісів в Україні, приватними розробками й не тільки — шукаємо досвідченого Data Engineer, який стане ключовою технічною фігурою в розробці платформи обробки даних. Будуємо...

    Ми команда, що працює над антикорупційною аналітикою та цифровізацією державних сервісів в Україні, приватними розробками й не тільки — шукаємо досвідченого Data Engineer, який стане ключовою технічною фігурою в розробці платформи обробки даних.

     

    Будуємо масштабовану data-платформу з open-source компонентів, яка дозволяє створювати пайплайни будь-якої складності, працювати з великими обсягами даних, візуалізувати їх та інтегрувати з іншими системами.

     

    Про роль

    Це інженерна роль з підвищеним рівнем відповідальності.

    Ви не просто реалізуєте задачі, а впливаєте на архітектуру, підходи та технічні рішення, допомагаєте команді рухатися швидше і якісніше.

     

    Формального менеджменту мінімум, але:

    • участь у технічних рішеннях,
    • координація розробки,
    • рев’ю архітектури та коду

      очікуються.

       

    Основні обов’язки

    • Проєктування та розвиток масштабованої та безпечної data-платформи.
    • Реалізація та оптимізація data-пайплайнів (ETL/ELT).
    • Участь у створенні ключових компонентів платформи разом із командою.
    • Формування та підтримка найкращих практик розробки (code quality, CI/CD, observability).
    • Робота з backend API (FastAPI) та, за потреби, участь у розвитку фронтенду.
    • Забезпечення базових практик кібербезпеки та контролю доступів.
    • Оцінка технічних рішень з точки зору складності, строків і ризиків.
    • Технічна підтримка та менторинг інших розробників.

       

    Технологічний стек (обов’язкове)

    • Python — впевнений рівень, досвід від 3 років.
    • SQL (PostgreSQL) — складні запити, оптимізація.
    • Redis.
    • Elasticsearch та ELK stack.
    • REST API.
    • Git, Bash, CI/CD.
    • Docker, Kubernetes, Nginx.
    • Базове розуміння ML / data-пайплайнів.

       

    Data Engineering & Warehousing

    • Побудова DWH:
      • star schema, fact & dimension tables
      • slowly changing dimensions (SCD)
    • Advanced SQL: CTE, window functions, procedures.
    • Робота з Presto / Trino.
    • Розуміння індексів, у т.ч. геоіндексів (H3).
    • Робота з просторовими даними (GeoJSON, Point, Polygon).

       

    Платформа, над якою ми працюємо

    Основний сценарій:

    1. Забір даних (Dagster).
    2. Збереження сирих даних у S3 compatible (bronze layer).
    3. Парсинг у структуровані дані(silver layer).
    4. Трансформації для аналітики (gold layer).
    5. Візуалізація в BI-дашбордах.

       

    Ключові компоненти:

    • Dagster — оркестрація пайплайнів.
    • S3-compatible storage.
    • Apache Iceberg — табличний формат + time travel.
    • Project Nessie — data catalog.
    • Trino — SQL engine.
    • Apache Superset — BI та дашборди.
    • Keycloak / Authentik — авторизація.
    • Kubernetes (k3s) + Terraform + Ansible.

       

    Буде перевагою

    • Досвід з Kafka, Spark / PySpark.
    • Iceberg / Delta tables у продакшені.
    • Prometheus, Grafana, Jenkins.
    • Досвід з КЕП, Trembita.
    • Досвід у проєктах для державного сектору.
    • Досвід неформального лідингу або менторингу команди (5+ осіб).

       

    Soft skills, які для нас важливі

    • Вміння працювати з нечіткими вимогами.
    • Самостійність і відповідальність за результат.
    • Здатність пояснювати складні технічні речі просто.
    • Розуміння, коли варто ускладнювати, а коли — ні.
    • Проактивність і здоровий інженерний скепсис.

       

    Ми пропонуємо

    • Роботу над суспільно значущими проєктами.
    • Реальний вплив на архітектуру та технічні рішення.
    • Гнучкий формат роботи.
    • Можливість бронювання для ключових співробітників.
    • Адекватну команду без «корпоративного театру».
    More
  • · 71 views · 9 applications · 29d

    Data Engineer

    Full Remote · Ukraine · Product · 3 years of experience · English - None
    "Alliance Digital" – українська ІТ-компанія, яка займається розробкою програмного забезпечення та сервісів для E-commerce та FinTech. Ми шукаємо досвідченого Data Engineer, який приєднається до нашої команди та візьме на себе розбудову надійної...

    "Alliance Digital" – українська ІТ-компанія, яка займається розробкою програмного забезпечення та сервісів для E-commerce та FinTech. Ми шукаємо досвідченого Data Engineer, який приєднається до нашої команди та візьме на себе розбудову надійної data-інфраструктури. Ви працюватимете над інтеграцією різноманітних джерел даних, оптимізацією існуючих пайплайнів та створенням масштабованих рішень для обробки даних

     

    Мова та технології:

    RDBMS, NoSQL, Python, Airflow

     

    Твої обов’язки:

    Розробка та підтримка ETL/ELT-пайплайнів для batch та streaming обробки даних

    Інтеграція даних із зовнішніх API та внутрішніх систем у корпоративне сховище даних

    Проектування та розвиток data-архітектури для ефективного збереження та доступу до даних

    Забезпечення якості даних, моніторинг та діагностика проблем у пайплайнах

    Автоматизація рутинних процесів обробки даних

    Тісна співпраця з аналітиками, data scientists та product managers для вирішення бізнес-завдань

     

    Вимоги:

    Від 3 років на позиції data engineer з практичною роботою над data pipelines
    Впевнена робота з реляційними БД та розуміння нереляційних БД (досвід з MongoDB буде плюсом)
    Досвід роботи з API та системами черг

    Досвід роботи з інструментами оркестрації даних (Airflow, Prefect)

    Розуміння принципів побудови масштабованих систем обробки та збереження даних

     

    Добре мати:

    знання Java/Scala, досвід роботи з AWS, досвід роботи з Oracle

     

    Що ми пропонуємо:

    Роботу у цікавих проєктах з нестандартними рішеннями

    Ринкову оплату праці

    Повний бухгалтерський супровід

    Performance review

    Командну підтримку у адаптації на новому робочому місці

    Швидкість у прийнятті рішень

    Безпосередній вплив на розвиток продукту

    Оплачувані лікарняні та відпустка

    Можливість повного remote

    Гнучкий графік роботи, де головне – результат.

    More
  • · 165 views · 11 applications · 30d

    Data Engineer

    Full Remote · Worldwide · Product · 2 years of experience · English - B2
    Контекст проєкту Ми побудували acquisition-систему під Instagram-воронку: масово підписуємося на цільову аудиторію, щоб користувачі бачили сповіщення, заходили в профіль і рухались по воронці. Критична точка цієї системи — таргети (Instagram IDs). Якщо...

    Контекст проєкту

    Ми побудували acquisition-систему під Instagram-воронку: масово підписуємося на цільову аудиторію, щоб користувачі бачили сповіщення, заходили в профіль і рухались по воронці. Критична точка цієї системи — таргети (Instagram IDs).

     

    Якщо таргети “брудні” (не те гео/мова, багато ботів, дублікати, старі або неактивні акаунти) — падає конверсія і ефективність, і масштабування стає нестабільним.

     

    Тому ми будуємо якісний data-layer для таргетів: стандарти якості, автоматичний контроль партій, дедуп, versioning, сегментація, і поступовий перехід ключових процесів в in-house.

     

    Як ми організовуємо команду

    Ми розділяємо цю зону на дві ролі:

    1) Data Engineer — data quality + пайплайни + storage + автоматизація

    Твоя зона — зробити так, щоб дані були чисті, контрольовані, відтворювані і готові до масштабування.

     

    2) Data Analyst — тести/конверсія/метрики

    Аналітик буде постійно тестувати різні конфіги фільтрів і джерел, рахувати конверсію та давати тобі фідбек.

     

     

    Кого ми шукаємо (Data Engineer — data quality & pipelines)

    Сильний Data Engineer, який любить порядок у даних і вміє будувати системи, де:

    • є quality rules,
    • є автоматична перевірка партій,
    • є історія: що купили → як відфільтрували → що отримали на виході,
    • є контроль дублікатів / freshness / сегментів,
    • і все це працює стабільно на мільйонних обсягах.

     

    Це роль не про “порахувати конверсію” (це буде робити аналітик), а про інженерну якість і масштабованість data-процесів.

     

    Технічні навички (must have)

    • Python: скрипти, ETL, обробка великих файлів/партій, автоматизація QA.
    • SQL: витяги, перевірки, контроль якості, побудова таблиць/мартів.
    • Досвід із data workflows: дедуп, versioning, “single source of truth”, інкременти, контроль помилок.
    • Розуміння storage/архітектури під великі обсяги (з файлів → до Postgres/BigQuery або іншого DWH).
    • Практичний підхід до data cleaning: правила, пороги, red flags, автоматичні “pass/fail”.

     

     

    Плюсами будуть:

    • досвід з парсингом
    • будь-який досвід з ML/AI для класифікації/фільтрації (бот/не бот, мова, підозрілі патерни).

     

    Soft skills

    • Самостійність: “прийшов → розібрався → стандартизував → автоматизував → задеплоїв → підтримує”.
    • Уміння працювати в хаосі і швидко робити з нього систему.
    • Вміння комунікувати з аналітиком: брати результати тестів і переводити їх у зміни правил/пайплайнів.

     

    За що ти будеш відповідати (end-to-end, але в межах Data Engineering)

    1) Data quality стандарт і правила

    • Зафіксувати, що таке якісний таргет: must-have / nice-to-have / red flags.
    • Описати acceptance criteria для партій і фільтрів.

      Результат: у нас є один стандарт, який можна версіонувати й повторювати.

     

    2) Автоматичний QA партій

    • Скрипти/процедури: дедуп, freshness, базові сигнали бот-ності, перевірки формату.
    • Автоматичне рішення “прийняти/відхилити/попросити заміну”.

      Результат: ми не “віримо постачальнику”, ми перевіряємо і контролюємо.

     

    3) Storage + versioning + історія результатів

    • Побудувати структуру: source → batch → filter_version → output сегменти.
    • Зберігати історію, щоб можна було швидко відповісти: “чому зараз гірше / що змінилось”.

      Результат: дані не губляться, не дублюються, і зрозуміло, що дає результат.

     

    4) Ключові фільтри та “змінні” якості аудиторії

    • Визначати ключові фільтри, які реально впливають на якість аудиторії (гео/мова/активність/патерни/сигнали бот-ності тощо).
    • Формалізувати “змінні” (features/signals) і правила, за якими будується фільтрація: пороги, пріоритети, комбінації правил, винятки.
    • Підтримувати ці правила як версіоновану систему: оновлення → перевірка → деплой.

      Результат: фільтрація працює не “на око”, а як керована система правил, яку можна швидко змінювати і масштабувати.

     

    5) Перехід критичних частин в in-house

    • Там, де це дає контроль якості / швидкість / економіку: фільтрація, нормалізація, дедуп, частково парсинг.

      Результат: менше залежності від підрядників, більше стабільності.

     

    Як виглядає взаємодія з Data Analyst (щоб було прозоро)

    Аналітик:

    • запускає A/B тести фільтрів/джерел,
    • рахує конверсію і дає висновки,
    • формує рекомендації “який фільтр/джерело краще”.

     

    Ти:

    • береш ці рекомендації,
    • переводиш у зміни правил/пайплайнів/QA,
    • робиш rollout/rollback,
    • і забезпечуєш стабільність.

     

     

    Якщо ти читаєш це і думаєш: “Нарешті нормальна задача — навести порядок у даних, зробити стандарти й автоматичний контроль, і побудувати систему, яка витримує масштаб” — пиши. Ми не шукаємо “спокійного підтримувальника існуючого процесу”. Ми будуємо data-фундамент, який прямо впливає на масштаб і гроші.

    More
  • · 69 views · 4 applications · 30d

    Data Engineer Tech Lead

    Full Remote · Ukraine · Product · 3 years of experience · English - B2
    ПриватБанк — є найбільшим банком України та одним з найбільш інноваційних банків світу. Займає лідируючі позиції за всіма фінансовими показниками в галузі та складає близько чверті всієї банківської системи країни. Ми шукаємо Data Engineer Tech Lead,...

     
    ПриватБанк — є найбільшим банком України та одним з найбільш інноваційних банків світу. Займає лідируючі позиції за всіма фінансовими показниками в галузі та складає близько чверті всієї банківської системи країни.
     

    Ми шукаємо Data Engineer Tech  Lead, який прагне працювати в динамічному середовищі та розділяє цінності взаємної довіри, відкритості та ініціативності.

    Ми прагнемо знайти цілеспрямованого професіонала, орієнтованого на якість та результат.
     

    Основні обов’язки:

    • Розробка конвеєрів даних на основі Apache Airflow
    • Розробка та впровадження операторів та хуків до Apache Airflow
    • Підтримка ETL/ELT процесів
    • Співпраця з командою Data-Engineering, менторство по питаннях розробки на Python
    • Формування стандартів розробки

     

    Основні вимоги:

    • Експертиза в Data-архітектурі: Глибоке знання Python для розробки та оптимізації складних ETL/ELT процесів, а також досвід проектування стійких систем обробки даних на базі Apache Airflow
    • 3+ років досвіду роботи з Python, знання основних бібліотек та фреймворків екосистеми Python
    • Вміння писати чистий структурований код, використовуючи відомі практики. Вміння використовувати процедурний та ООП стиль. Вміння та досвід покривати свій код тестами
    • Розробка інтеграцій: Досвід створення високонадійних кастомних операторів та хуків на базі AirFlow для взаємодії з різноманітними джерелами даних (SQL, NoSQL, Data Warehouses), зокрема MongoDB, Postgres, Amazon Redshift та SAP IQ
    • Оптимізація роботи з БД: Висока експертиза у роботі з базами даних, що включає розуміння специфіки різних рушіїв (Engines), оптимізацію складних запитів та ефективний менеджмент з’єднань при великих обсягах даних
    • Впровадження стандартів: Здатність формувати та впроваджувати системні стандарти розробки (Code Style, тести, документація), забезпечуючи високу якість та підтримуваність коду всієї команди
    • Технічне лідерство та менторство: Досвід активної співпраці з Data-інженерами, готовність виступати ментором у питаннях Python-розробки та проводити глибокий Code Review для підвищення технічного рівня команди

     

    Своїм співробітникам ми пропонуємо:

    • Офіційне працевлаштування та 24+4 календарних дні відпустки
    • Конкурентну заробітну плату
    • Бонуси відповідно до політики компанії
    • Медичне страхування та корпоративний мобільний зв’язок
    • Корпоративне навчання
    • Корпоративна фінансова допомога у критичних ситуаціях
       

    ПриватБанк відкритий до підтримки та працевлаштування ветеранів i ветеранок, а також людей з інвалідністю.

    Для нас неприйнятною є дискримінація через стан здоров’я та фізичні можливості, вік, расову чи етнічну належність, стать і сімейний стан.

    Ми готові навчати ветеранів та кандидатів з інвалідністю без досвіду роботи в банківській сфері.

     

    More
  • · 171 views · 17 applications · 30d

    Data Engineer

    Full Remote · Countries of Europe or Ukraine · Product · 2 years of experience · English - A2
    Kiss My Apps — компанія-платформа, що об’єднує 7 продуктових вертикалей та 30+ AI-first продуктів, 100+ мільйонів користувачів, власну екосистему аналітичних, пеймент та маркетингових розробок. Продукти KMA це світові лідери в нішах utilities, lifestyle,...

    Kiss My Apps — компанія-платформа, що об’єднує 7 продуктових вертикалей та 30+ AI-first продуктів, 100+ мільйонів користувачів, власну екосистему аналітичних, пеймент та маркетингових розробок.

    Продукти KMA це світові лідери в нішах utilities, lifestyle, health&fitness — AI Remodel, Printer, Botan, Calorie Counter і не тільки. Це продукти, що займають топ-1 місця App Store й вирішують потреби комʼюніті з сотень мільйонів людей.


    Наш темп — це наш competitive advantage. KMA зростає мінімум х3 рік до року — і ми шукаємо Data Engineer, того/ту, хто допоможе масштабуватись ще швидше.


    Коротко про роль: Ти відповідатимеш за розвиток дата-платформи, забезпечуючи аналітиків якісними даними. Це можливість працювати з поточним стеком, готуючи ґрунт для впровадження сучасних підходів у аналітику.
     

    Твої задачі:

    • Підтримка та оптимізація ETL-процесів.
    • Створення нових інтеграцій та забезпечення якості даних для звітності.
    • Налагодження процесів моніторингу та алертів пайплайнів.
    • Оптимізація агрегації даних відповідно до бізнес потреб у співпраці з аналітиками.
       

    Що очікуємо від тебе:

    • Досвід роботи на позиції Data Engineer від 2х років.
    • Впевнене володіння Python або Scala / Java та глибокі знання SQL.
    • Практичний досвід роботи з PySpark та Databricks.
    • Розуміння принципів роботи з Docker та Kubernetes.
    • Досвід роботи з хмарними провайдерами.
    • Орієнтація на роботу з сучасним Data-стеком та готовність швидко опановувати нові інструменти.
       

    Буде перевагою:

    • Наявність сертифікацій (Databricks, Microsoft Certified Data Engineer, AWS/GCP).
    • Досвід роботи з Airflow, Airbyte та Terraform.
    • Розуміння роботи з Kafka та стрімінговими даними.

    Тобі до нас, якщо шукаєш:

    • Роботу з сучасним Data-стеком та можливість впливати на архітектуру платформи.
    • Участь у проєкт, що стрімко розвиваються, з фокусом на AI та ML.
    • Середовище, де цінується автономність та бізнес-орієнтованість.
       

    Ми пропонуємо:

    • Формат роботи на твій вибір: fully remote з будь-якої точки вільного світу, а також доступ до одного з наших офісів за бажанням (Київ, Варшава).
    • Умови, завдяки яким ти можеш сфокусуватись на перформансі: гідна винагорода, що відповідає твоїм скілам та досвіду. А також ми забезпечуємо технікою незалежно від формату роботи та географії.
    • Кар’єрне зростання через дію: 80%+ усіх leads в Kiss My Apps ще 2-3 роки тому були світчерами. Твій вплив тут не визначається роками в резюме — він визначається тим, як швидко ти навчаєшся, береш відповідальність та береш оунершіп за власну карʼєру.
    • Well-being програма: ми турбуємося про ментальне здоровʼя команди, а також проводимо онлайн-заняття з йоги двічі на тиждень.
    • Розвиток та професійна реалізація: проводимо внутрішні speaking clubs англійською з нейтів спікером, а також надаємо можливість виступати на внутрішніх та зовнішніх івентах від Kiss My Apps. Крім цього ти матимеш річний бюджет на покриття до 50% професійних конференцій, освітніх подій та івентів.
    • Додаткові бенефіти, де ти обираєш: надаємо фіксований бюджет на рік з якого ти сам обираєш, яку статтю витрат покрити: 50% від медстрахування, психотерапії, спорту чи стоматології. А також 40 днів оплачуваного відпочинку та лікарняних без привʼязки до дат.
    • Опора в умовах війни: забезпечуємо кожного всім необхідним для безперебійної роботи, системно підтримуємо Сили Оборони та долучаємось до ініціатив із відновлення України.


    Важливо: є опція бронювання для військовозобов’язаних після випробувального терміну, за умови наявності належно оформлених військово-облікових документів та внутрішніх можливостей компанії, визначених відповідно до вимог чинного законодавства.
     

    Як виглядає hiring процес:

    • Інтро з рекрутером
    • Технічна співбесіда з Tech Lead та Data Engineer
    • Фінальна співбесіда з CTO
       

    Якщо ти хочеш будувати сучасну дата-платформу та долучитись до впровадження AI-технологій — let’s launch the future together 💫

    More
  • · 8 views · 0 applications · 1d

    Senior Data Engineer (GovTech and Public Sector)

    Full Remote · Countries of Europe or Ukraine · 5 years of experience · English - B2
    Are you an experienced Data Engineer ready to tackle complex, high-load, and data-intensive systems? We are looking for a Senior professional to join our team in Ukraine, Europe, working full-time on a project that will make a real impact in the public...

    Are you an experienced Data Engineer ready to tackle complex, high-load, and data-intensive systems? We are looking for a Senior professional to join our team in Ukraine, Europe, working full-time on a project that will make a real impact in the public sector.


    At Sigma Software, we specialize in delivering innovative solutions for enterprise clients and public organizations. In this role, you will contribute to building an integrated platform that collects, processes, and visualizes critical indicators, enabling better decision-making and analytics.


    Why join us? You will work with a modern big data stack, have end-to-end involvement from ingestion to machine learning workflows, and be part of a professional team that values ownership, collaboration, and continuous improvement.


    Project
    You will be involved in developing an integrated platform that processes both batch and streaming data, ensures secure and governed data environments, and supports advanced analytics and machine learning workflows. The solution will leverage modern big data technologies to provide actionable insights for the public sector.


    Responsibilities

    • Design and implement data ingestion pipelines for batch and streaming data
    • Configure and maintain data orchestration workflows (Airflow, NiFi) and CI/CD automation for data processes
    • Design and organize data layers within Data Lake architecture (HDFS, Iceberg, S3)
    • Build and maintain secure and governed data environments using Apache Ranger, Atlas, and SDX
    • Develop SQL queries and optimize performance for analytical workloads in Hive/Impala
    • Collaborate on data modeling for analytics and BI, ensuring clean schemas and dimensional models
    • Support machine learning workflows using Spark MLlib or Cloudera Machine Learning (CML)


    Requirements

    • Proven experience in building and maintaining large-scale data pipelines (batch and streaming)
    • Strong knowledge of data engineering fundamentals: ETL/ELT, data governance, data warehousing, Medallion architecture
    • Strong SQL skills for Data Warehouse data serving
    • Minimum 3 years of experience in Python or Scala for data processing
    • Hands-on experience with Apache Spark, Kafka, Airflow, and distributed systems optimization
    • Experience with Apache Ranger and Atlas for security and metadata management
    • Upper-Intermediate English proficiency


    Will be a plus

    • Experience with Cloudera Data Platform (CDP)
    • Advanced SQL skills and Hive/Impala query optimization
    • BS in Computer Science or related field
    • Exposure to ML frameworks and predictive modeling


    Personal profile

    • Ownership mindset and proactive approach
    • Ability to drive initiatives forward and suggest improvements
    • Team player with shared responsibility for delivery speed, efficiency, and quality
    • Excellent written and verbal communication skills

     

    Ти досвідчений Data Engineer і прагнеш реалізовувати складні, високонавантажені та орієнтовані на дані рішення? Ми шукаємо Senior спеціаліста, який приєднається до нашої команди та допоможе створити продукт, що матиме значний вплив на державний сектор.


    У Sigma Software ми розробляємо сучасні та інноваційні рішення для корпоративних клієнтів і державних установ. У цій ролі ти станеш частиною команди, яка будує інтегровану платформу для збору, обробки та візуалізації ключових показників, щоб забезпечити якісну аналітику та підтримати прийняття рішень.


    Чому варто приєднатися? Ти працюватимеш із передовим стеком big data, матимеш можливість впливати на всі етапи розробки — від ingestion до machine learning, і будеш у команді, де цінують ініціативність, командну роботу та постійний розвиток.


    Проект
    Ти братимеш участь у створенні інтегрованої платформи, яка працює як з batch, так і з streaming даними, забезпечує захищене та кероване середовище даних, а також підтримує розширену аналітику та machine learning процеси. Рішення базуватиметься на сучасних big data технологіях, щоб надавати корисні інсайти для державного сектору.


    Обов’язки

    • Розробляти та впроваджувати data ingestion pipelines для batch та streaming даних
    • Налаштовувати та підтримувати workflows для оркестрації даних (Airflow, NiFi) та CI/CD автоматизацію
    • Проєктувати та організовувати шари даних у Data Lake архітектурі (HDFS, Iceberg, S3)
    • Створювати та підтримувати безпечне та кероване середовище даних за допомогою Apache Ranger, Atlas та SDX
    • Писати SQL-запити та оптимізувати їх продуктивність для аналітичних навантажень у Hive/Impala
    • Брати участь у моделюванні даних для аналітики та BI, створюючи чисті схеми та багатовимірні моделі
    • Підтримувати machine learning workflows, використовуючи Spark MLlib або Cloudera Machine Learning (CML)


    Вимоги

    • Досвід створення та підтримки масштабних конвеєрів даних (batch та streaming)
    • Глибокі знання основ data engineering: ETL/ELT, data governance, data warehousing, Medallion architecture
    • Впевнене володіння SQL для роботи з Data Warehouse
    • Мінімум 3 роки досвіду роботи з Python або Scala для обробки та трансформації даних
    • Практичний досвід роботи з Apache Spark, Kafka, Airflow та оптимізацією розподілених систем
    • Досвід впровадження практик безпеки та управління метаданими (Apache Ranger, Atlas)
    • Рівень англійської - Upper-Intermediate


    Буде плюсом

    • Досвід роботи з Cloudera Data Platform (CDP)
    • Поглиблені навички SQL та оптимізація запитів у Hive/Impala
    • Ступінь бакалавра в галузі Computer Science або суміжній сфері
    • Знайомство з ML-фреймворками та predictive modeling


    Особистий профіль

    • Відповідальність та проактивність
    • Здатність просувати ідеї та пропонувати покращення
    • Командний гравець, який розділяє відповідальність за швидкість, ефективність та якість
    • Відмінні комунікативні навички — письмові та усні
    More
  • · 19 views · 0 applications · 2d

    Senior Data Engineer (GovTech and Public Sector)

    Countries of Europe or Ukraine · 4 years of experience · English - B2
    Are you an experienced Data Engineer ready to tackle complex, high-load, and data-intensive systems? We are looking for a Senior professional to join our team in Ukraine, Europe, working full-time on a project that will make a real impact in the public...

    Are you an experienced Data Engineer ready to tackle complex, high-load, and data-intensive systems? 
    We are looking for a Senior professional to join our team in Ukraine, Europe, working full-time on a project that will make a real impact in the public sector.

    At Sigma Software, we specialize in delivering innovative solutions for enterprise clients and public organizations. In this role, you will contribute to building an integrated platform that collects, processes, and visualizes critical indicators, enabling better decision-making and analytics.


    Why join us? You will work with a modern big data stack, have end-to-end involvement from ingestion to machine learning workflows, and be part of a professional team that values ownership, collaboration, and continuous improvement.
     

    Project
    You will be involved in developing an integrated platform that processes both batch and streaming data, ensures secure and governed data environments, and supports advanced analytics and machine learning workflows. The solution will leverage modern big data technologies to provide actionable insights for the public sector.
     

    Responsibilities

    • Design and implement data ingestion pipelines for batch and streaming data
    • Configure and maintain data orchestration workflows (Airflow, NiFi) and CI/CD automation for data processes
    • Design and organize data layers within Data Lake architecture (HDFS, Iceberg, S3)
    • Build and maintain secure and governed data environments using Apache Ranger, Atlas, and SDX
    • Develop SQL queries and optimize performance for analytical workloads in Hive/Impala
    • Collaborate on data modeling for analytics and BI, ensuring clean schemas and dimensional models
    • Support machine learning workflows using Spark MLlib or Cloudera Machine Learning (CML)
       

    Requirements

    • Proven experience in building and maintaining large-scale data pipelines (batch and streaming)
    • Strong knowledge of data engineering fundamentals: ETL/ELT, data governance, data warehousing, Medallion architecture
    • Strong SQL skills for Data Warehouse data serving
    • Minimum 3 years of experience in Python or Scala for data processing
    • Hands-on experience with Apache Spark, Kafka, Airflow, and distributed systems optimization
    • Experience with Apache Ranger and Atlas for security and metadata management
    • Upper-Intermediate English proficiency
       

    Will be a plus

    • Experience with Cloudera Data Platform (CDP)
    • Advanced SQL skills and Hive/Impala query optimization
    • BS in Computer Science or related field
    • Exposure to ML frameworks and predictive modeling
       

    Personal profile

    • Ownership mindset and proactive approach
    • Ability to drive initiatives forward and suggest improvements
    • Team player with shared responsibility for delivery speed, efficiency, and quality
    • Excellent written and verbal communication skills
       

    Ти досвідчений Data Engineer і прагнеш реалізовувати складні, високонавантажені та орієнтовані на дані рішення? Ми шукаємо Senior-спеціаліста, який приєднається до нашої команди та допоможе створити продукт, що матиме значний вплив на державний сектор.

    У Sigma Software ми розробляємо сучасні та інноваційні рішення для корпоративних клієнтів і державних установ. У цій ролі ти станеш частиною команди, яка будує інтегровану платформу для збору, обробки та візуалізації ключових показників, щоб забезпечити якісну аналітику та підтримати прийняття рішень.


    Чому варто приєднатися? Ти працюватимеш із передовим стеком big data, матимеш можливість впливати на всі етапи розробки — від ingestion до machine learning, і будеш у команді, де цінують ініціативність, командну роботу та постійний розвиток.
     

    Проект
    Ти братимеш участь у створенні інтегрованої платформи, яка працює як з batch, так і з streaming даними, забезпечує захищене та кероване середовище даних, а також підтримує розширену аналітику та machine learning процеси. Рішення базуватиметься на сучасних big data технологіях, щоб надавати корисні інсайти для державного сектору.
     

    Обов’язки

    • Розробляти та впроваджувати data ingestion pipelines для batch та streaming даних
    • Налаштовувати та підтримувати workflows для оркестрації даних (Airflow, NiFi) та CI/CD автоматизацію
    • Проєктувати та організовувати шари даних у Data Lake архітектурі (HDFS, Iceberg, S3)
    • Створювати та підтримувати безпечне та кероване середовище даних за допомогою Apache Ranger, Atlas та SDX
    • Писати SQL-запити та оптимізувати їх продуктивність для аналітичних навантажень у Hive/Impala
    • Брати участь у моделюванні даних для аналітики та BI, створюючи чисті схеми та багатовимірні моделі
    • Підтримувати machine learning workflows, використовуючи Spark MLlib або Cloudera Machine Learning (CML)
       

    Вимоги

    • Досвід створення та підтримки масштабних конвеєрів даних (batch та streaming)
    • Глибокі знання основ data engineering: ETL/ELT, data governance, data warehousing, Medallion architecture
    • Впевнене володіння SQL для роботи з Data Warehouse
    • Мінімум 3 роки досвіду роботи з Python або Scala для обробки та трансформації даних
    • Практичний досвід роботи з Apache Spark, Kafka, Airflow та оптимізацією розподілених систем
    • Досвід впровадження практик безпеки та управління метаданими (Apache Ranger, Atlas)
    • Рівень англійської — Upper-Intermediate
       

    WILL BE A PLUS:

    • Досвід роботи з Cloudera Data Platform (CDP)
    • Поглиблені навички SQL та оптимізація запитів у Hive/Impala
    • Ступінь бакалавра в галузі Computer Science або суміжній сфері
    • Знайомство з ML-фреймворками та predictive modeling
       

    PERSONAL PROFILE:

    • Відповідальність та проактивність
    • Здатність просувати ідеї та пропонувати покращення
    • Командний гравець, який розділяє відповідальність за швидкість, ефективність та якість
    • Відмінні комунікативні навички — письмові та усні
    More
Log In or Sign Up to see all posted jobs