Jobs Data Engineer

162
  • · 64 views · 0 applications · 8d

    Data Engineer

    Full Remote · Countries of Europe or Ukraine · Product · 4 years of experience · English - B1
    Kiss My Apps — компанія-платформа, що об’єднує 7 продуктових вертикалей та 30+ AI-first продуктів, 100+ мільйонів користувачів, власну екосистему аналітичних, пеймент та маркетингових розробок. Продукти KMA це світові лідери в нішах utilities, lifestyle,...

    Kiss My Apps — компанія-платформа, що об’єднує 7 продуктових вертикалей та 30+ AI-first продуктів, 100+ мільйонів користувачів, власну екосистему аналітичних, пеймент та маркетингових розробок.

    Продукти KMA це світові лідери в нішах utilities, lifestyle, health&fitness — AI Remodel, Printer, Botan, Calorie Counter і не тільки. Це продукти, що займають топ-1 місця App Store й вирішують потреби комʼюніті з сотень мільйонів людей.


    Наш темп — це наш competitive advantage. KMA зростає мінімум х3 рік до року — і ми шукаємо Data Engineer, того/ту, хто допоможе масштабуватись ще швидше.


    Коротко про роль: Ти відповідатимеш за розвиток дата-платформи, забезпечуючи аналітиків якісними даними. Це можливість працювати з поточним стеком, готуючи ґрунт для впровадження сучасних підходів у аналітику.

     

    Твої задачі:

    • Підтримка та оптимізація ETL-процесів.
    • Створення нових інтеграцій та забезпечення якості даних для звітності.
    • Налагодження процесів моніторингу та алертів пайплайнів.
    • Оптимізація агрегації даних відповідно до бізнес потреб у співпраці з аналітиками.

     

    Що очікуємо від тебе:

    • Досвід роботи на позиції Data Engineer від 2х років.
    • Впевнене володіння Python або Scala / Java та глибокі знання SQL.
    • Практичний досвід роботи з PySpark та Databricks.
    • Розуміння принципів роботи з Docker та Kubernetes.
    • Досвід роботи з хмарними провайдерами.
    • Орієнтація на роботу з сучасним Data-стеком та готовність швидко опановувати нові інструменти.

     

    Буде перевагою:

    • Наявність сертифікацій (Databricks, Microsoft Certified Data Engineer, AWS/GCP).
    • Досвід роботи з Airflow, Airbyte та Terraform.
    • Розуміння роботи з Kafka та стрімінговими даними.

     

    Тобі до нас, якщо шукаєш:

    • Роботу з сучасним Data-стеком та можливість впливати на архітектуру платформи.
    • Участь у проєкт, що стрімко розвиваються, з фокусом на AI та ML.
    • Середовище, де цінується автономність та бізнес-орієнтованість.

     

    Ми пропонуємо:

    • Формат роботи на твій вибір: fully remote з будь-якої точки вільного світу, а також доступ до одного з наших офісів за бажанням (Київ, Варшава).
    • Умови, завдяки яким ти можеш сфокусуватись на перформансі: гідна винагорода, що відповідає твоїм скілам та досвіду. А також ми забезпечуємо технікою незалежно від формату роботи та географії.
    • Кар’єрне зростання через дію: 80%+ усіх leads в Kiss My Apps ще 2-3 роки тому були світчерами. Твій вплив тут не визначається роками в резюме — він визначається тим, як швидко ти навчаєшся, береш відповідальність та береш оунершіп за власну карʼєру.
    • Well-being програма: ми турбуємося про ментальне здоровʼя команди, а також проводимо онлайн-заняття з йоги двічі на тиждень.
    • Розвиток та професійна реалізація: проводимо внутрішні speaking clubs англійською з нейтів спікером, а також надаємо можливість виступати на внутрішніх та зовнішніх івентах від Kiss My Apps. Крім цього ти матимеш річний бюджет на покриття до 50% професійних конференцій, освітніх подій та івентів.
    • Додаткові бенефіти, де ти обираєш: надаємо фіксований бюджет на рік з якого ти сам обираєш, яку статтю витрат покрити: 50% від медстрахування, психотерапії, спорту чи стоматології. А також 40 днів оплачуваного відпочинку та лікарняних без привʼязки до дат.
    • Опора в умовах війни: забезпечуємо кожного всім необхідним для безперебійної роботи, системно підтримуємо Сили Оборони та долучаємось до ініціатив із відновлення України.

     

    Важливо: є опція бронювання для військовозобов’язаних після випробувального терміну, за умови наявності належно оформлених військово-облікових документів та внутрішніх можливостей компанії, визначених відповідно до вимог чинного законодавства.

     

    Як виглядає hiring процес:

    • Інтро з рекрутером
    • Технічна співбесіда з Tech Lead та Data Engineer
    • Фінальна співбесіда з CTO

    Якщо ти хочеш будувати сучасну дата-платформу та долучитись до впровадження AI-технологій — let’s launch the future together 💫

    More
  • · 54 views · 2 applications · 11d

    Data Engineer - Howly

    Office Work · Ukraine (Kyiv) · Product · 2 years of experience · English - B1 Ukrainian Product 🇺🇦
    Howly — українська мультипродуктова компанія в venture builder SKELAR. Ми будуємо продукти для користувачів на глобальному ринку професійних сервісів. За 4+ роки ми запустили 4 продукти та виросли до 300+ людей в команді. Howly — глобальний бізнес із...

    Howly — українська мультипродуктова компанія в venture builder SKELAR. Ми будуємо продукти для користувачів на глобальному ринку професійних сервісів. За 4+ роки ми запустили 4 продукти та виросли до 300+ людей в команді.

    Howly — глобальний бізнес із відпрацьованими процесами та користувачами по всьому світу. Водночас ми зберігаємо драйв стартапу: працюємо гнучко, з ентузіазмом і без зайвої бюрократії.

    SKELAR — це venture builder, який будує міжнародні продуктові IT-компанії за правилами світу венчурних інвестицій. Разом із ко-фаундерами збираємо сильні команди, щоб запускати продуктові IT-бізнеси та перемагати на глобальних ринках.
     

    Зараз ми в пошуку Data Engineer до Howly!
     

    Ми маємо 4 потужні продукти, що оперують на міжнародних ринках:
     

    1. Розумна автоматизація документів: Позбавляємо від рутини — наш продукт полегшує роботу з документами, щоб користувачі могли зосередитися на важливіших задачах.

    2. Платформа для карʼєрного росту: Ми допомагаємо людям рости — платформа відкриває можливості для розвитку карʼєри: від резюме, до кар’єрних консультацій, прокладаючи шлях від потенціалу до реалізованих амбіцій.

    3. AI-пошук роботи та автоматичне створення резюме й мотиваційних листів: Допомагаємо людям швидше знаходити роботу. Робимо це за допомогою AI-пошуку вакансій, автоматичного створення резюме та cover letters в один клік. Сервіс прибирає рутину, підвищує релевантність відгуків і допомагає краще позиціонувати себе під конкретні ролі.

    4. Маркетплейс технічних талантів: Поєднуємо технічних фахівців із тими, хто шукає їхню експертизу — маркетплейс, де експерти й користувачі швидко знаходять одне одного.


    Переваги позиції:

    — Повна відповідальність за аналітичний шар даних у DWH на етапі активного масштабування компанії та реальний вплив на розвиток продуктів;
    —Можливість відігравати ключову роль у побудові та розвитку аналітичної інфраструктури;
    — Робота з сучасним технологічним стеком (BigQuery, dbt, Airflow) і участь у формуванні технічних стандартів;
    — Тісна співпраця з продуктовими командами та прямий вплив рішень на продуктову, маркетингову й фінансову ефективність бізнесу.

     

    Які задачі чекають нашого(шу) Data Engineer:

    — Забезпечення стабільності, точності та доступності даних для всієї компанії;
    — Налаштування, підтримка й оптимізація ELT-процесів (Airbyte);
    — Розробка нових інтеграцій і контроль якості даних для звітності;
    — Створення та підтримка аналітичних моделей у BigQuery з використанням dbt;
    — Побудова процесів моніторингу та алертингу для пайплайнів;
    — Оптимізація агрегацій даних відповідно до бізнес-потреб у тісній взаємодії з аналітиками.

     

    Що для нас важливо:

    — Досвід роботи на позиції Data Engineer від 2-ох років;
    — SQL: Впевнене розуміння SQL для роботи з базами даних;
    — Python: Вміння писати ефективний та чистий код для створення custom connectors AirByte та налаштування DAG-pipelines у AirFlow;
    — Розуміння концепцій DE: Базові знання про Data Modelling, Data Patterns, та архітектуру аналітичних сховищ (напр., BigQuery);
    — Розуміння принципів роботи Docker та Kubernetes;
    — Розуміння принципів оптимізації запитів (partitioning, clustering, cost optimization).

     

    Буде перевагою:

    — Досвід роботи з dbt: створення, тестування й документування моделей; використання макросів, sources, seeds і variables; розуміння структури dbt-проєкту;
    — Орієнтація на роботу з сучасним Data-стеком та готовність швидко опановувати нові інструменти;
    — Досвід роботи з ML ops.



    Наші цінності, наша база:

    Ownership не на словах
    У нас не питають «де мій KPI», у нас приходять з пропозиціями «як я можу зробити краще». Ми — не про мікроменеджмент, а про зріле ставлення до своєї ролі та впливу.
     

    Ми обираємо Openness 
    Прозорі цілі, відкрита комунікація, культура чесного й відкритого фідбеку — навіть якщо це складно. Тут можна бути собою, голосом і діями впливати на спільний рух вперед.
     

    Bias for action, але не хаос
    Приймаємо рішення швидко і любимо дії більше, ніж нескінченні узгодження та водночас поважаємо системність і якісні процеси.
     

    Ми віримо в active infinite Growth
    Ми ростемо як бізнес і створюємо умови, щоб росли наші люди. Є навчання, розвиток у ролях та в експертизі: компанія дає можливості, а люди їх бачать і використовують.

    Ми плануємо й надалі розвивати tech-бізнеси, підкорювати глобальні ринки та працювати задля перемоги України 🇺🇦
     

    Для цього створили всі можливості всередині нашого venture builder SKELAR та Howly:
    — Внутрішні клуби за професійними напрямками: маркетинг, розробка, фінанси, рекрутинг;
    — Компенсація навчання: тренінгів, курсів, відвідування конференцій;
    — Медичне страхування та корпоративний лікар;
    — Howly надає компенсацію за Mental Health programm;
    — Безкоштовні заняття спортом з корпоративними тренерами;
    — Сніданки та обіди в офісі.

    More
  • · 163 views · 18 applications · 11d

    Junior Data Engineer - Headquarter

    Office Work · Ukraine (Kyiv) · Product · 0.5 years of experience · English - A2 Ukrainian Product 🇺🇦
    SKELAR — український венчур білдер, який будує міжнародні tech-бізнеси. Разом із ко-фаундерами збираємо сильні команди, щоб перемагати на глобальних ринках. Сьогодні в SKELAR десяток бізнесів у різних нішах — від EdTech до SaaS. Це — компанії, що мають...

    SKELAR — український венчур білдер, який будує міжнародні tech-бізнеси. Разом із ко-фаундерами збираємо сильні команди, щоб перемагати на глобальних ринках.

     

    Сьогодні в SKELAR десяток бізнесів у різних нішах — від EdTech до SaaS. Це — компанії, що мають відзнаки від Product Hunt, потрапляють у рейтинги ТОП-стартапів та продуктових компаній України, займають найвищі шаблі в AppStore та розробляють платформи, якими користуються мільйони людей. А ще, про бізнеси SKELAR пишуть TechCrunch, Wired та інші світові медіа.

     

    Пишаємося сильною командою із 1000+ фахівців, які мають круту експертизу й амбітні цілі. Наші люди — найцінніший актив компанії, тож ми обираємо будувати бізнеси разом з найкращими талантами на ринку.

     

    Зараз ми масштабуємо одну з наших команд – Finance.
    Тож ми у пошуку Junior Data Engineer/Python Developer , який допоможе поставити процес обробки і підготовки фінансових даних, на новий рівень.

     

    Трохи більше про Finance team: це команда, яка стоїть за лаштунками кожного успішного юнікорна. Ми закриваємо “під ключ” усі фінансові питання для бізнесів будь-якої складності та менеджимо відносини зі стейкхолдерами із різних країн, аби вивести свої платіжні процеси на якісно новий рівень. Наша команда займається автоматизацією рутинних процесів для фінансового департаменту і не тільки. Ми обробляємо сирі фінансові дані, готуємо їх для розрахунків та імпорту в ERP систему, консолідуємо їх для видачі внутрішнім замовникам. Стратегічною ціллю в цьому напрямку є підготовка та імплементація окремого сервісу (ферми) для підготовки обробки даних, яким будуть користуватися бізнеси.

     

    Виклики, які чекають на цій ролі:

    — Оптимізація, розвиток і підтримка поточних модулів (python скриптів) для збору, підготовки і обробки фінансових даних: збір, консолідація та розрахунки, формування вихідних звітів та системи перевірок;

    — Побудова інфраструктури (бд, веб-сервісів, тощо) для обробки даних і розрахунку на бекенді;

    — Комунікація з іншими відділами для забезпечення належного рівня автоматизації всіх процесів, необхідної для безперебійного зростання бізнесу портфельних компаній;

    — Комунікація з користувачами системи для надання якісної технічної підтримки фінансовій команді;

    — Побудова та підтримка інтеграцій з іншими системами (платіжними, обліковими тощо).

     

    Що для нас важливо:

    — 6+ місяців досвіду на аналогічній позиції Data Engineer/Python developer/Data Analyst;

    — Досвід розробки на Python, Pandas;

    — Досвід у веб розробці, побудові веб сервісів (git, api+);

    — Знання SQL;

    — Структуроване мислення, сильні аналітичні навички, здатність робити бізнес-висновки на основі даних;

    — Високий рівень комунікаційних навичок та вміння працювати в команді.

     

    Окрім бізнесів, ми розвиваємо благодійний фонд SKELAR foundation від співробітників нашого venture builder’а на підтримку ЗСУ. В межах ініціативи створюємо та фінансуємо великі проєкти, що допомагають наближати нашу перемогу.

     

    SKELAR — середовище для самореалізації людей, які здатні створити успішні компанії. Ми такі компанії називаємо the next big everything. Віримо в їх потужність та масштаб. Ми плануємо й надалі розвивати tech-бізнеси, підкорювати глобальні ринки та працювати задля перемоги України 🇺🇦

     

    Для цього створили всі можливості всередині venture builder:

    — 8 команд SKELAR Platform, яка забезпечує операційну ефективність бізнесів: від рекрутингу та технічного оснащення до фінансової та правової архітектури;

    — Спільнота фаундерів, які вже запустили не один бізнес й можуть ділитися практичним досвідом;

    — Внутрішні клуби за професійними напрямками: маркетинг, розробка, фінанси, рекрутинг;

    — Тренінги, курси, відвідування конференцій;

    — Медичне страхування, корпоративний лікар.
     

    Давай разом будувати the next big everything!

    More
  • · 290 views · 13 applications · 11d

    System engineer Big Data

    Full Remote · Ukraine · Product · 2 years of experience · English - A2
    ПРО НАС UKRSIB Tech — це амбітна ІТ-команда з близько 400 спеціалістів, що драйвить технології UKRSIBBANK. Ми створюємо топовий банкінг для > 2 000 000 клієнтів та прагнемо виводити фінансову сферу в Україні на новий рівень. Нашими продуктами користуються...

    ПРО НАС

    UKRSIB Tech — це амбітна ІТ-команда з близько 400 спеціалістів, що драйвить технології UKRSIBBANK.

    Ми створюємо топовий банкінг для > 2 000 000 клієнтів та прагнемо виводити фінансову сферу в Україні на новий рівень. Нашими продуктами користуються юзери щоденного банкінгу, лідери української економіки та великі міжнародні корпорації.

    Ми дякуємо нашим захисникам та захисницям, які віддано боронять свободу та незалежність України, та створюємо сприятливе середовище для роботи в банку.

    Майбутні задачі:

    • оновлення та виправлення програмного забезпечення з оновленням вендора
    • проектна робота для оптимізації підсистем
    • взаємодія з вендорами систем для вирішення проблем інтеграція з IBM DataStage, Teradata, Oracle, Jupyterhub, Docker, Python
    • підтримка користувачів (вирішення інцидентів та консультування) та адміністрування доступу
    • тестування нового функціоналу
    • Взаємодія з іншими структурними підрозділами ІТ з метою визначення оптимальних процесів неперервного розгортання (continuous integration/continuous delivery).
    • участь в розробці стабільної і надійної ІТ-інфраструктури для підтримки систем DataHub, DataStage.
    • налаштування моніторингу доступності систем DataHub, DataStage, відповідно до заданих вимог, формує пропозиції щодо оптимізації технологічних процедур і бізнес-процесів.
    • участь в рішення технічних і системних проблем, що виникли в роботі систем DataHub, DataStage, проведення розслідувань з нестандартних ситуацій у системі, формування висновків і пропозицій щодо усунення.

    Ми в пошуку фахівця, який має:

    • Повну вищу технічну\інженерну освіту;
    • досвід роботи за напрямком від 2х років
    • Технічні засоби, програмне забезпечення, засоби передачі даних і прикладні програми користувачів, зокрема, використовувані в системах Hadoop
    • Базові знання ІТ інфраструктури банку (додатка, сервера, мережі)
    • Знання і навички роботи з СУБД
    • Глибокі знання в адмініструванні ELT/ETL засобів (IBM Datastage)
    • Володіння знаннями і навичками в роботі реляційної СУБД HIVE, що є складовою частиною DataHub
    • Знання внутрішніх IT процесів та стандартів
    • Знання і навички написання SQL/HQL скриптів.

    Окрім команди однодумців та цікавої роботи ти отримаєш:

    Стабільність:

    • офіційне працевлаштування
    • медичне страхування та страхування життя, повністю оплачене Банком
    • заробітну плату на рівні провідних ТОП-роботодавців
    • 25 днів щорічної відпустки, додаткові дні відпустки на пам’ятні події, соціальні відпустки у відповідності до законодавства України
    • щорічні перегляди заробітної плати відповідно до власної ефективності та фінансових показників Банку

     

    More
  • · 95 views · 10 applications · 12d

    Senior Data Engineer

    Ukraine · Product · 5 years of experience · English - B1
    mono — мультипродуктова fintech компанія з України. Із 2017 року мільйони людей муркочуть від наших продуктів: monobank, Experienza, Base, monoмаркет, monoбазар... Прагнемо створити ще більше для нашої екосистеми. Нумо втілювати амбітні ідеї разом! Ми в...

    mono — мультипродуктова fintech компанія з України.
    Із 2017 року мільйони людей муркочуть від наших продуктів: monobank, Experienza, Base, monoмаркет, monoбазар... Прагнемо створити ще більше для нашої екосистеми. Нумо втілювати амбітні ідеї разом!

    Ми в пошуку Senior Data Engineer із сильним інженерним бекграундом, який не боїться складних викликів і хоче впливати на архітектуру та рішення.
    Ти працюватимеш із великими обсягами даних, відповідатимеш за якість та надійність дата-платформи й поступово братимеш на себе лідерську роль у команді.
     

    Про тебе:

    — маєш досвід розробки баз даних від 5 років
    — знаєш особливості проєктування баз даних (OLTP, OLAP)
    — працюєш з ClickHouse, PostgreSQL, MongoDB
    — впевнено володієш SQL
    — маєш досвід розробки (ETL/ELT)-процесів
    — маєш досвід роботи з Kafka, Spark, Spark streeming
    — працював(-ла) з Airflow, Dbt


    Додатково зацінимо:

    — розуміння цілей і завдань бізнес-підрозділу, орієнтація на їхній результат
    — розуміння цілей, завдань і процесу моделювання
    — шариш у розробці за допомогою BI-засобів


    Довіримо тобі:

    — проєктування, розгортання та оптимізація сховищ даних
    — оптимізацію продуктивності
    — валідацію та тестування даних
    — моніторинг якості та повноти даних


    Від себе гарантуємо:

    — гідну винагороду та її регулярний перегляд за результатами
    — гнучкий графік роботи без трекерів і параної
    — можливість гібридної роботи чи повністю віддалено
    — відпустку 18 робочих днів на рік (чи 24 календарних) + 2 дні для форс-мажорів + 6 днів для навчання
    — оплачувані дей-офи за станом здоров’я — без SMS і лікарняних листів
    — корпоративні курси інглішу
    — 100% страхування здоров’я + підтримка менталочки
    — картку Platinum від monobank і пундики від наших партнерів


    🇺🇦 Підтримуємо сили оборони України власними зборами, розвиваємо культуру донатерства.
     

    More
  • · 66 views · 1 application · 12d

    Data Engineer

    Hybrid Remote · Ukraine · Product · 1 year of experience · English - B2
    У Холдингу емоцій "!FEST" ми дотримуємось принципу робити себе, місто, країну та світ кращими, тож даємо нашим працівникам змогу максимально реалізувати себе як в навиках, так і в можливостях навчатись, вдосконалюватись та досягати результатів. Ти...

    У Холдингу емоцій "!FEST" ми дотримуємось принципу робити себе, місто, країну та світ кращими, тож даємо нашим працівникам змогу максимально реалізувати себе як в навиках, так і в можливостях навчатись, вдосконалюватись та досягати результатів.

     

    Ти матимеш унікальний шанс долучитися до розробки нової дата платформи для всього Холдингу емоцій !FEST. Ми працюємо зі сучасними технологіями GCP і створюємо можливості для твого професійного зростання в галузі дата-архітектури. У нашій команді цінується відповідальний підхід, і ми завжди відкриті до обґрунтованих ініціатив та готові втілювати їх у життя!

     

    Твоїми обов'язками буде:

    - очолювати процес міграції даних в BigQuery, контролюючи весь цикл від планування до фінального запуску;

    - створювати ефективні та масштабовані схеми даних у BigQuery, використовуючи найкращі практики партиціювання та кластеризації;

    - будувати та підтримувати автоматизовані ETL/ELT-пайплайни, які є основою нашої data-стратегії;

    - впроваджувати системи контролю якості та моніторингу, які гарантують надійність наших даних;

    - постійно аналізувати та покращувати продуктивність дата-інфраструктури, шукаючи шляхи для оптимізації витрат.

     

    Що ми очікуємо від тебе?

    1. Досвід: Понад 2 роки досвіду роботи як Data Engineer у великих проєктах з даними.
    2. Моделювання та розробка: Сильні навички моделювання даних та досвід розробки ETL-процесів
    3. Технічні навички:

      - впевнене володіння SQL для написання складних та оптимізованих запитів;

      - глибоке знання Python;

      - експертиза в BigQuery (партиціонування, кластеризація, оптимізація витрат);

      - досвід роботи з Data Fusion (буде великою перевагою).

    4. Досвід роботи з GCP: Практичний досвід з сервісами Google Cloud Platform, такими як Cloud Storage, Pub/Sub, Cloud Run, Cloud Composer, Cloud Functions та Compute Engine.
    5. Глибоке розуміння та практичний досвід роботи з Apache Airflow.
    6. Знання Git та досвід впровадження CI/CD для дата-процесів.
    7. Відповідальність та проактивність: Мислиш як продакт овнер, проактивно, орієнтуєшся на результат та готовий/готова брати відповідальність за свої рішення.

    Що ми пропонуємо?

    • Конкурентну заробітну оплату; 
    • Знижки в мережі для кожного працівника 
    • Можливість працювати над цікавими та складними проектами, підтримка колег на всіх етапах роботи; 
    • Комфортний офіс, забезпечений укриттям та всім необхідним для автономної роботи під час відключень електрики та блекаутів; 
    • Цікава робота в дружній, ідейній та натхненній команді.

       

    Якщо маєш бажання розвиватися та працювати в команді професіоналів, тоді ця вакансія саме для тебе. Приєднуйся до нас!

    More
  • · 40 views · 2 applications · 12d

    Програміст DWH

    Full Remote · Ukraine · Product · 2.5 years of experience · English - A2
    NovaPay — міжнародний фінансовий сервіс, що входить в ГК NOVA. Ми створюємо сучасні платіжні рішення для бізнесу та мільйонів користувачів. Розвиваємо власну платіжну систему, мобільний застосунок і пропонуємо широкий спектр продуктів і послуг як офлайн...

    NovaPay — міжнародний фінансовий сервіс, що входить в ГК NOVA. 

    Ми створюємо сучасні платіжні рішення для бізнесу та мільйонів користувачів. Розвиваємо власну платіжну систему, мобільний застосунок і пропонуємо широкий спектр продуктів і послуг як офлайн — у відділеннях Нової пошти, так і онлайн. 

    NovaPay — це місце для справжніх профі, де інноваційні ідеї, рішення та технології формують майбутнє фінтех-індустрії.  

    Наразі ми запрошуємо до команди фахівця на посаду «Програміста DWH»
     
     Наші очікування:  

    • досвід програмування в SQL, С#, Python при розробці DWH та його елементів від 3 років;
    • глибокі знання в MS SSIS, Pentaho та суміжних сервісів;
    • практичний досвід роботи з MS SQL Server, PostgreSQL.

    Основні завдання: 

    • розробка та підтримка корпоративного сховища даних (DWH);
    • адміністрування та моніторинг баз даних MS SQL, забезпечення їхньої продуктивності та резервного копіювання;
    • реалізація процесів інтеграції та ETL (завантаження, трансформація, вивантаження даних);
    • консультаційна та технічна підтримка користувачів щодо роботи з вітринами даних: обробка запитів на дані, супровід та актуалізація вітрин; 
    • забезпечення якості, цілісності та актуальності даних;
    • реалізація механізмів контролю та валідації даних.

    Ми пропонуємо: 
     

    • роботу у інноваційній компанії в сегменті FinTech; 
    • можливість працювати в гібридному форматі або віддалено; 
    • турботу про твоє ментальне та фізичне здоров’я (медичне страхування, консультації психолога, корпоративні спортивні спільноти); 
    • навчання та розвиток (заняття з англійської мови, курси та тренінги для 
    • щорічні перегляди заробітної плати відповідно до власної ефективності; 
    • зустрічі з відомими спікерами у Корпоративному клубі; 
    • програму наставництва та підтримку кожного нового співробітника; 
    • можливість проявити свої таланти — ми цінуємо творчу ініціативу і підтримуємо її. 

     Якщо вас зацікавила вакансія та ваш досвід роботи і кваліфікація відповідають вимогам, надсилайте своє резюме відгуком на цю вакансію.

     Відправляючи резюме, ви даєте згоду на обробку персональних даних компанією ТОВ «НоваПей» в рамках чинного законодавства України.

     Звертаємо вашу увагу, що зворотний зв’язок на відправлене резюме надається тільки в разі позитивного рішення по подальшому розгляду вашої кандидатури.

     В іншому випадку, ваші дані будуть збережені в базі резюме Компанії і ми будемо раді звернутися до вас у разі появи відповідної вакантної посади.

     

     

    More
  • · 97 views · 15 applications · 16d

    Junior Data Engineer

    Full Remote · Ukraine · Product · 2 years of experience · English - None Ukrainian Product 🇺🇦
    TENTENS Tech є партнерською IT-компанією SKELAR — українського венчур-білдера, який будує міжнародні tech-бізнеси. Ми розробляємо social discovery-платформи для понад 20 мільйонів користувачів у всьому світі. Наш темп і масштаб тримаються на глибокій...

    TENTENS Tech є партнерською IT-компанією SKELAR — українського венчур-білдера, який будує міжнародні tech-бізнеси.

    Ми розробляємо social discovery-платформи для понад 20 мільйонів користувачів у всьому світі. Наш темп і масштаб тримаються на глибокій експертизі в аналітиці, highload та performance marketing.

    Команда TENTENS Tech сьогодні — це 250+ людей, де кожен діє як CEO у своїй ролі та впливає на спільний результат. Працюємо в стилі 10/10ths: тримаємо курс на ціль, ставимо правильні питання на шляху і не зупиняємось на «добре» — тільки максимум і ще трохи далі. Якщо впізнаєш себе в цьому описі та готовий набирати швидкість із нами — давай знайомитися!

    Зараз ми в пошуку Junior Data Engineer, щоб разом піднімати планку результату. 


    На цій позиції ви приєднаєтесь до нашої data-команди та під керівництвом досвідчених інженерів будете допомагати підтримувати і розвивати інфраструктуру, що є основою для наших бізнес-рішень, а також будете:
     

    • Розвивати data-процеси: брати участь у створенні нових інтеграцій, які завантажують мільйони записів щогодини.
    • Працювати з аналітичною платформою: допомагати в розробці моделей даних та трансформацій за допомогою Dataform/DBT.
    • Підтримувати Data Lake: забезпечувати стабільність та доступність даних для всієї компанії.
    • Оптимізувати обчислення: писати та вдосконалювати складні аналітичні SQL-запити, які використовуються для аналітики та звітності.
       

    Що для нас важливо:

    Ми шукаємо кандидата, який має міцну теоретичну базу та прагне перетворити її на практичний досвід у роботі зі складними та високонавантаженими системами.
     

    Must-have:

    • Python: Вміння писати ефективний та чистий код для обробки даних.
    • SQL: Впевнене розуміння SQL для роботи з базами даних, включно з JOIN, GROUP BY та віконними функціями.
    • Розуміння концепцій DE: Базові знання про Data Modelling, Data Patterns, та архітектуру аналітичних сховищ (напр., BigQuery).
       

    Nice-to-have:

    • Досвід роботи з хмарними платформами, особливо з GCP/BigQuery.
    • Теоретичне розуміння інструментів оркестрації (Airflow) та трансформації (Dataform/DBT).
       

    А головне — щира зацікавленість у сфері даних, допитливість та бажання швидко вчитися і розвиватися.
     

    Що ти отримаєш разом з нами:

    — Внутрішні клуби за професійними напрямками: маркетинг, розробка, фінанси, рекрутинг;

    — Тренінги, курси, відвідування конференцій;

    — Просторі та сучасні офіси у Києві та Варшаві;

    — Медичне страхування, корпоративний лікар.
     

    Давай разом будувати the next big everything — там, де «добре» не фініш, а старт!

    More
  • · 131 views · 21 applications · 17d

    Data Engineer / Data Platform Engineer

    Worldwide · Product · 3 years of experience · English - B1
    Ми команда, що працює над антикорупційною аналітикою та цифровізацією державних сервісів в Україні, приватними розробками й не тільки — шукаємо досвідченого Data Engineer, який стане ключовою технічною фігурою в розробці платформи обробки даних. Будуємо...

    Ми команда, що працює над антикорупційною аналітикою та цифровізацією державних сервісів в Україні, приватними розробками й не тільки — шукаємо досвідченого Data Engineer, який стане ключовою технічною фігурою в розробці платформи обробки даних.

     

    Будуємо масштабовану data-платформу з open-source компонентів, яка дозволяє створювати пайплайни будь-якої складності, працювати з великими обсягами даних, візуалізувати їх та інтегрувати з іншими системами.

     

    Про роль

    Це інженерна роль з підвищеним рівнем відповідальності.

    Ви не просто реалізуєте задачі, а впливаєте на архітектуру, підходи та технічні рішення, допомагаєте команді рухатися швидше і якісніше.

     

    Формального менеджменту мінімум, але:

    • участь у технічних рішеннях,
    • координація розробки,
    • рев’ю архітектури та коду

      очікуються.

       

    Основні обов’язки

    • Проєктування та розвиток масштабованої та безпечної data-платформи.
    • Реалізація та оптимізація data-пайплайнів (ETL/ELT).
    • Участь у створенні ключових компонентів платформи разом із командою.
    • Формування та підтримка найкращих практик розробки (code quality, CI/CD, observability).
    • Робота з backend API (FastAPI) та, за потреби, участь у розвитку фронтенду.
    • Забезпечення базових практик кібербезпеки та контролю доступів.
    • Оцінка технічних рішень з точки зору складності, строків і ризиків.
    • Технічна підтримка та менторинг інших розробників.

       

    Технологічний стек (обов’язкове)

    • Python — впевнений рівень, досвід від 3 років.
    • SQL (PostgreSQL) — складні запити, оптимізація.
    • Redis.
    • Elasticsearch та ELK stack.
    • REST API.
    • Git, Bash, CI/CD.
    • Docker, Kubernetes, Nginx.
    • Базове розуміння ML / data-пайплайнів.

       

    Data Engineering & Warehousing

    • Побудова DWH:
      • star schema, fact & dimension tables
      • slowly changing dimensions (SCD)
    • Advanced SQL: CTE, window functions, procedures.
    • Робота з Presto / Trino.
    • Розуміння індексів, у т.ч. геоіндексів (H3).
    • Робота з просторовими даними (GeoJSON, Point, Polygon).

       

    Платформа, над якою ми працюємо

    Основний сценарій:

    1. Забір даних (Dagster).
    2. Збереження сирих даних у S3 compatible (bronze layer).
    3. Парсинг у структуровані дані(silver layer).
    4. Трансформації для аналітики (gold layer).
    5. Візуалізація в BI-дашбордах.

       

    Ключові компоненти:

    • Dagster — оркестрація пайплайнів.
    • S3-compatible storage.
    • Apache Iceberg — табличний формат + time travel.
    • Project Nessie — data catalog.
    • Trino — SQL engine.
    • Apache Superset — BI та дашборди.
    • Keycloak / Authentik — авторизація.
    • Kubernetes (k3s) + Terraform + Ansible.

       

    Буде перевагою

    • Досвід з Kafka, Spark / PySpark.
    • Iceberg / Delta tables у продакшені.
    • Prometheus, Grafana, Jenkins.
    • Досвід з КЕП, Trembita.
    • Досвід у проєктах для державного сектору.
    • Досвід неформального лідингу або менторингу команди (5+ осіб).

       

    Soft skills, які для нас важливі

    • Вміння працювати з нечіткими вимогами.
    • Самостійність і відповідальність за результат.
    • Здатність пояснювати складні технічні речі просто.
    • Розуміння, коли варто ускладнювати, а коли — ні.
    • Проактивність і здоровий інженерний скепсис.

       

    Ми пропонуємо

    • Роботу над суспільно значущими проєктами.
    • Реальний вплив на архітектуру та технічні рішення.
    • Гнучкий формат роботи.
    • Можливість бронювання для ключових співробітників.
    • Адекватну команду без «корпоративного театру».
    More
  • · 99 views · 14 applications · 18d

    Data Engineer (Airflow)

    Ukraine · Product · 2 years of experience · English - None
    Хочете розвивати IT-продукт, яким користуються всі українці? Впливати на архітектуру з величезним навантаженням? Шукаємо Data Engineer з Python/Airflow у відому компанію. ТОП-умови, бенефіти, страхування, проект про який буде приємно розповідати. ...

    Хочете розвивати IT-продукт, яким користуються всі українці?

    Впливати на архітектуру з величезним навантаженням?

    Шукаємо Data Engineer з Python/Airflow у відому компанію.

    ТОП-умови, бенефіти, страхування, проект про який буде приємно розповідати.

     

    Responsibilities:

    –  Проєктування, оптимізація та підтримка кластера Apache Airflow і Python-коду для оркестрації даних
    -Розробка логіки та підтримка ETL-процесів (збір, трансформація, завантаження даних)
    – Проєктування інтеграційної взаємодії між системами, створення сервісів для інтеграції та обміну даними
    – Оптимізація продуктивності процесів обробки даних, виявлення та усунення вузьких місць
    – Співпраця з аналітиками та розробниками для забезпечення якісної доставки даних

     

    Requirements:

    –  Apache Airflow: створення DAG’ів, налаштування операторів, моніторинг та оптимізація продуктивності
    – Досвід роботи з Python ( акцент на бекенд та інтеграційні рішення) від 2х років
    – Bash, Docker, DBT, GitLab CI/CD (автоматизація процесів, деплой, оптимізація пайплайнів)
    – MS SQL Server та PostgreSQL (написання складних SQL-запитів, оптимізація, створення процедур і функцій)

     

    Буде плюсом:
    – Досвід роботи з Apache Spark (розподілена обробка великих масивів даних)
    – Знання інструментів Big Data або хмарних платформ (AWS/GCP/Azure)
    – Розуміння принципів DataOps і CI/CD

     

    We offer:

    • Високонавантажені системи з реальними викликами масштабування
    • Сучасний стек та свобода технологічних рішень
    • Можливість впливати на архітектуру продуктів, якими користуються мільйони
    Професійно:
    • Менторство від сеньйорів з досвідом enterprise-рішень
    • Компенсація додаткових витрат, пов’язаних з робочими завданнями, здійснюються до внутрішніх політик компаній
    • Медичне страхування та страхування життя
    • Корпоративні знижки від партнерів Nova
    • Підтримка ментального здоровʼя. Можливість безоплатних консультацій з корпоративним психологом
    • Соціальна відповідальність та волонтерський рух «Свої для своїх»
    • Клуби за інтересами: біговий, шаховий та інші ініціативи для натхнення
    • Соціальні відпустки та компенсації відповідно до КЗпП України

    More
  • · 64 views · 7 applications · 22d

    Data Engineer

    Full Remote · Ukraine · Product · 3 years of experience · English - None
    "Alliance Digital" – українська ІТ-компанія, яка займається розробкою програмного забезпечення та сервісів для E-commerce та FinTech. Ми шукаємо досвідченого Data Engineer, який приєднається до нашої команди та візьме на себе розбудову надійної...

    "Alliance Digital" – українська ІТ-компанія, яка займається розробкою програмного забезпечення та сервісів для E-commerce та FinTech. Ми шукаємо досвідченого Data Engineer, який приєднається до нашої команди та візьме на себе розбудову надійної data-інфраструктури. Ви працюватимете над інтеграцією різноманітних джерел даних, оптимізацією існуючих пайплайнів та створенням масштабованих рішень для обробки даних

     

    Мова та технології:

    RDBMS, NoSQL, Python, Airflow

     

    Твої обов’язки:

    Розробка та підтримка ETL/ELT-пайплайнів для batch та streaming обробки даних

    Інтеграція даних із зовнішніх API та внутрішніх систем у корпоративне сховище даних

    Проектування та розвиток data-архітектури для ефективного збереження та доступу до даних

    Забезпечення якості даних, моніторинг та діагностика проблем у пайплайнах

    Автоматизація рутинних процесів обробки даних

    Тісна співпраця з аналітиками, data scientists та product managers для вирішення бізнес-завдань

     

    Вимоги:

    Від 3 років на позиції data engineer з практичною роботою над data pipelines
    Впевнена робота з реляційними БД та розуміння нереляційних БД (досвід з MongoDB буде плюсом)
    Досвід роботи з API та системами черг

    Досвід роботи з інструментами оркестрації даних (Airflow, Prefect)

    Розуміння принципів побудови масштабованих систем обробки та збереження даних

     

    Добре мати:

    знання Java/Scala, досвід роботи з AWS, досвід роботи з Oracle

     

    Що ми пропонуємо:

    Роботу у цікавих проєктах з нестандартними рішеннями

    Ринкову оплату праці

    Повний бухгалтерський супровід

    Performance review

    Командну підтримку у адаптації на новому робочому місці

    Швидкість у прийнятті рішень

    Безпосередній вплив на розвиток продукту

    Оплачувані лікарняні та відпустка

    Можливість повного remote

    Гнучкий графік роботи, де головне – результат.

    More
  • · 155 views · 9 applications · 23d

    Data Engineer

    Full Remote · Worldwide · Product · 2 years of experience · English - B2
    Контекст проєкту Ми побудували acquisition-систему під Instagram-воронку: масово підписуємося на цільову аудиторію, щоб користувачі бачили сповіщення, заходили в профіль і рухались по воронці. Критична точка цієї системи — таргети (Instagram IDs). Якщо...

    Контекст проєкту

    Ми побудували acquisition-систему під Instagram-воронку: масово підписуємося на цільову аудиторію, щоб користувачі бачили сповіщення, заходили в профіль і рухались по воронці. Критична точка цієї системи — таргети (Instagram IDs).

     

    Якщо таргети “брудні” (не те гео/мова, багато ботів, дублікати, старі або неактивні акаунти) — падає конверсія і ефективність, і масштабування стає нестабільним.

     

    Тому ми будуємо якісний data-layer для таргетів: стандарти якості, автоматичний контроль партій, дедуп, versioning, сегментація, і поступовий перехід ключових процесів в in-house.

     

    Як ми організовуємо команду

    Ми розділяємо цю зону на дві ролі:

    1) Data Engineer — data quality + пайплайни + storage + автоматизація

    Твоя зона — зробити так, щоб дані були чисті, контрольовані, відтворювані і готові до масштабування.

     

    2) Data Analyst — тести/конверсія/метрики

    Аналітик буде постійно тестувати різні конфіги фільтрів і джерел, рахувати конверсію та давати тобі фідбек.

     

     

    Кого ми шукаємо (Data Engineer — data quality & pipelines)

    Сильний Data Engineer, який любить порядок у даних і вміє будувати системи, де:

    • є quality rules,
    • є автоматична перевірка партій,
    • є історія: що купили → як відфільтрували → що отримали на виході,
    • є контроль дублікатів / freshness / сегментів,
    • і все це працює стабільно на мільйонних обсягах.

     

    Це роль не про “порахувати конверсію” (це буде робити аналітик), а про інженерну якість і масштабованість data-процесів.

     

    Технічні навички (must have)

    • Python: скрипти, ETL, обробка великих файлів/партій, автоматизація QA.
    • SQL: витяги, перевірки, контроль якості, побудова таблиць/мартів.
    • Досвід із data workflows: дедуп, versioning, “single source of truth”, інкременти, контроль помилок.
    • Розуміння storage/архітектури під великі обсяги (з файлів → до Postgres/BigQuery або іншого DWH).
    • Практичний підхід до data cleaning: правила, пороги, red flags, автоматичні “pass/fail”.

     

     

    Плюсами будуть:

    • досвід з парсингом
    • будь-який досвід з ML/AI для класифікації/фільтрації (бот/не бот, мова, підозрілі патерни).

     

    Soft skills

    • Самостійність: “прийшов → розібрався → стандартизував → автоматизував → задеплоїв → підтримує”.
    • Уміння працювати в хаосі і швидко робити з нього систему.
    • Вміння комунікувати з аналітиком: брати результати тестів і переводити їх у зміни правил/пайплайнів.

     

    За що ти будеш відповідати (end-to-end, але в межах Data Engineering)

    1) Data quality стандарт і правила

    • Зафіксувати, що таке якісний таргет: must-have / nice-to-have / red flags.
    • Описати acceptance criteria для партій і фільтрів.

      Результат: у нас є один стандарт, який можна версіонувати й повторювати.

     

    2) Автоматичний QA партій

    • Скрипти/процедури: дедуп, freshness, базові сигнали бот-ності, перевірки формату.
    • Автоматичне рішення “прийняти/відхилити/попросити заміну”.

      Результат: ми не “віримо постачальнику”, ми перевіряємо і контролюємо.

     

    3) Storage + versioning + історія результатів

    • Побудувати структуру: source → batch → filter_version → output сегменти.
    • Зберігати історію, щоб можна було швидко відповісти: “чому зараз гірше / що змінилось”.

      Результат: дані не губляться, не дублюються, і зрозуміло, що дає результат.

     

    4) Ключові фільтри та “змінні” якості аудиторії

    • Визначати ключові фільтри, які реально впливають на якість аудиторії (гео/мова/активність/патерни/сигнали бот-ності тощо).
    • Формалізувати “змінні” (features/signals) і правила, за якими будується фільтрація: пороги, пріоритети, комбінації правил, винятки.
    • Підтримувати ці правила як версіоновану систему: оновлення → перевірка → деплой.

      Результат: фільтрація працює не “на око”, а як керована система правил, яку можна швидко змінювати і масштабувати.

     

    5) Перехід критичних частин в in-house

    • Там, де це дає контроль якості / швидкість / економіку: фільтрація, нормалізація, дедуп, частково парсинг.

      Результат: менше залежності від підрядників, більше стабільності.

     

    Як виглядає взаємодія з Data Analyst (щоб було прозоро)

    Аналітик:

    • запускає A/B тести фільтрів/джерел,
    • рахує конверсію і дає висновки,
    • формує рекомендації “який фільтр/джерело краще”.

     

    Ти:

    • береш ці рекомендації,
    • переводиш у зміни правил/пайплайнів/QA,
    • робиш rollout/rollback,
    • і забезпечуєш стабільність.

     

     

    Якщо ти читаєш це і думаєш: “Нарешті нормальна задача — навести порядок у даних, зробити стандарти й автоматичний контроль, і побудувати систему, яка витримує масштаб” — пиши. Ми не шукаємо “спокійного підтримувальника існуючого процесу”. Ми будуємо data-фундамент, який прямо впливає на масштаб і гроші.

    More
  • · 51 views · 5 applications · 23d

    Data Engineer

    Hybrid Remote · Ukraine · Product · 2 years of experience · English - B2
    Компанія 3Shape спеціалізується на розробці 3D-сканерів і програмних рішень, які дають змогу фахівцям у сфері стоматології та слухопротезування надавати першокласні послуги широкому колу пацієнтів. Історія 3Shape розпочалася у 2000 році. Сьогодні ми є...

    Компанія 3Shape спеціалізується на розробці 3D-сканерів і програмних рішень, які дають змогу фахівцям у сфері стоматології та слухопротезування надавати першокласні послуги широкому колу пацієнтів.

    Історія 3Shape розпочалася у 2000 році. Сьогодні ми є флагманом стоматологічної галузі та пишаємося успіхами, яких досягли за 25 років.

    Головний офіс 3Shape розташований у Копенгагені. Команди розробників працюють у Данії, Україні та Північній Македонії, а виробничі потужності компанії зосереджені в Польщі.

    Нині ми обслуговуємо клієнтів у понад 100 країнах світу та об’єднуємо понад 2200 співробітників із більш ніж 50 національностей. Окрім європейських офісів, маємо представництва в Азії, Північній і Південній Америці, що дає змогу бути ближчими до наших клієнтів у всьому світі.

    3Shape — це про стабільність, розвиток і можливість працювати з інноваціями світового рівня. Готові стати частиною нашої команди?
     

    Про роль

    Ми шукаємо технічно сильного та бізнес-орієнтованого Data Engineer, який допоможе нам будувати й масштабувати корпоративну стратегію роботи з клієнтськими даними в 3Shape. Ви станете частиною нашої BI-команди в Україні та працюватимете у щоденній співпраці з командою в Данії, впливаючи на ключові data‑ініціативи.

    Це пріоритетний напрямок із високою підтримкою керівництва, а команда (Data Analyst, Data Engineer, Data Architect та Manager) активно зростає. Тож у вас буде реальна можливість впливати на технічні рішення й формувати майбутню data‑платформу 3Shape.

     

    Зони відповідальності

    • Проєктувати та будувати масштабовані, надійні та ефективні дата‑пайплайни й рішення для забезпечення даними всієї організації та ключових стейкхолдерів.
    • Розробляти аналітичні рішення, що забезпечують цінні інсайти для клієнтів та кінцевих користувачів.
    • Брати участь у розвитку BI‑стратегії, платформ, застосунків і процесів.
    • Розбудовувати та оптимізувати Data Warehouse спільно з BI‑розробниками.
    • Підтримувати та навчати користувачів BI‑рішень.

       

    Що допоможе вам успішно виконувати роль

    • 2+ роки досвіду Data Engineer або на схожій позиції.
    • Глибоке розуміння Big Data, ETL/ELT та концепцій Business Intelligence.
    • Відмінні знання Python, PySpark та SQL.
    • Досвід роботи з Databricks, Apache Spark і Delta Lake.
    • Досвід роботи з Git, GitHub Actions та Terraform.
    • Розуміння data warehouse та data modelling.
    • Хороше знання технологій зберігання даних і хмарних дата‑рішень.
    • Досвід взаємодії зі стейкхолдерами в рамках проєктів.
    • Інтерес до best practices у розробці та прагнення писати якісний, надійний код.
    • Здатність ефективно працювати у швидкому середовищі.
    • Буде плюсом: знання Snowflake, Azure Data Factory, Azure SQL Database.
    • Плюсом також буде: досвід роботи за agile‑методологіями (Scrum та ін.).

       

    Бути частиною нашої команди означає:

    • Змістовну роботу, що допомагає формувати майбутнє стоматології
    • Роботу в професійному та дружньому середовищі
    • Постійний професійний розвиток і зростання
    • Здоровий баланс між роботою та особистим життям
    • Соціальний пакет: 24 робочі дні щорічної відпустки, медичне страхування, оплачувані лікарняні та лікарняні для догляду за дитиною, декретні відпустки для матерів і батьків тощо
    • Сніданки та обіди в офісі
    • Комфортні умови праці в сучасному офісі в UNIT.City
    • Періодичні відрядження до Західної Європи
    • Можливість стати частиною успіху, який 3Shape створює вже понад 25 років

     

    Відчуваєте, що ця роль вам підходить? Надсилайте резюме — будемо раді познайомитися!

    More
  • · 403 views · 23 applications · 23d

    Data Quality Engineer (тестування якості даних data-продукту) State Statistics Service of Ukraine

    Hybrid Remote · Ukraine · Product · 3 years of experience · English - None
    Державна служба статистики України — це команда, яка перетворює дані на рішення для розвитку країни. Ми перебуваємо у процесі цифрової трансформації: автоматизуємо процеси, будуємо сучасну ІТ-інфраструктуру та запускаємо сервіси, що роблять статистику...

    Державна служба статистики України — це команда, яка перетворює дані на рішення для розвитку країни.

    Ми перебуваємо у процесі цифрової трансформації: автоматизуємо процеси, будуємо сучасну ІТ-інфраструктуру та запускаємо сервіси, що роблять статистику зрозумілою й доступною для всіх. Сьогодні ми посилюємо ІТ-напрям і шукаємо фахівців, які хочуть впроваджувати нові підходи та створювати сучасну державну статистику разом із нашою командою.
     

    У Держстаті ваша робота впливає на більше, ніж одну систему — вона змінює державні сервіси та зміцнює довіру громадян до держави


    Наш ідеальний кандидат (ка) — досвідчена та енергійна особа, яка працюватиме тестувальником (цею) якості дата продуктів в Центрі обробки статистичних даних. Ви гратимете ключову роль у забезпеченні користувачів якісними даними!


    Обовʼязки:

    • Дослідження продукту задля визначення відповідності вимогам і наявним характеристикам.
    • Створення стратегії QA для тестування продукту.
    • Тестування дата продуктів і дата моделей.
    • Тестова конфігурація дата платформи.
    • Перевірка розробки статистичного продукту та отриманих результатів на відповідність вимогам і постановці задачі.
    • Документування помилок і їх перевірка та виправлення.
    • Відповідає за якість кінцевих та оброблених даних, тестування дата продукту.
       

    Чекаємо від вас:

    • Вища освіта в галузі економіки, математики, інформатики або суміжних галузей
    • Досвід роботи у сфері IT на позиції QA.
    • Розуміння XML і JSON форматів
    • Базові знання SQL, наявність практичного досвіду роботи з реляційними базами даних


    Додаткові навички: (Will be a plus)

    • Досвід BI тестування, тестування ETL-процесів
    • Володіння Python, знання Pandas бібліотек
    • Навички роботи в Jupyter Notebook
    • Володіння Excel із застосуванням формул і pivot таблиць
    • Досвід роботи зі статистикою
    • Jira та Confluence (чи інший таск трекер), Miro (чи інший вайтборд для колективної роботи онлайн).
    • Тайм-менеджмент та пріоритизація.


    Формат роботи:

    Робочий день 08:00–17:00 (з обідньою перервою).
    Є можливість частково працювати онлайн, але важливо бути доступним у Києві при потребі.


    Ми пропонуємо:

    • офіційне працевлаштування за КЗпП і повний соцпакет (24 дні відпустки, оплачувані лікарняні);
    • стабільність і прозорі умови;
    • участь у проєктах, що впливають на розвиток країни та допомагають людям;
    • можливості для професійного зростання й навчання;
    • підтримку ваших ідей та ініціатив.
       

    Процес найму

    Ми цінуємо відкритість і хочемо, щоб ви знали, як проходить наш процес відбору — прозоро, зрозуміло та з повагою до вашого часу. Зазвичай він складається з кількох етапів і триває від кількох днів до двох тижнів, залежно від ролі.
    Ми завжди надаємо фідбек після кожного етапу, щоб ви знали, на якому етапі перебуваєте.
     

    • Первинна співбесіда.
      Перевірка резюме та базових навичок. Обговорення досвіду роботи, мотивації та очікувань. Розповідь про компанію, команду та умови роботи.
    • Технічна співбесіда.
      Питання по спеціалізації (теорія + практичні приклади). Обговорення попередніх проєктів. Можливе виконання невеликого завдання в реальному часі.
    • Тестове завдання (за потреби).
      Надання завдання з чіткими інструкціями та дедлайном. Перевірка якості виконання, креативності, дотримання вимог.
    • Фіналізація найму.
      Підготовка та відправка оферу (умови роботи, зарплата, дата виходу). Обговорення деталей та відповіді на запитання кандидата. Очікування підтвердження та підписання оферу.
       

    Ваш досвід — наш наступний крок до успіху.
    Якщо ви бачите себе частиною нашої команди, не зволікайте з відгуком.
    Чекаємо на ваше резюме для знайомства та обговорення деталей співпраці.

    More
  • · 68 views · 4 applications · 23d

    Data Engineer Tech Lead

    Full Remote · Ukraine · Product · 3 years of experience · English - B2
    ПриватБанк — є найбільшим банком України та одним з найбільш інноваційних банків світу. Займає лідируючі позиції за всіма фінансовими показниками в галузі та складає близько чверті всієї банківської системи країни. Ми шукаємо Data Engineer Tech Lead,...

     
    ПриватБанк — є найбільшим банком України та одним з найбільш інноваційних банків світу. Займає лідируючі позиції за всіма фінансовими показниками в галузі та складає близько чверті всієї банківської системи країни.
     

    Ми шукаємо Data Engineer Tech  Lead, який прагне працювати в динамічному середовищі та розділяє цінності взаємної довіри, відкритості та ініціативності.

    Ми прагнемо знайти цілеспрямованого професіонала, орієнтованого на якість та результат.
     

    Основні обов’язки:

    • Розробка конвеєрів даних на основі Apache Airflow
    • Розробка та впровадження операторів та хуків до Apache Airflow
    • Підтримка ETL/ELT процесів
    • Співпраця з командою Data-Engineering, менторство по питаннях розробки на Python
    • Формування стандартів розробки

     

    Основні вимоги:

    • Експертиза в Data-архітектурі: Глибоке знання Python для розробки та оптимізації складних ETL/ELT процесів, а також досвід проектування стійких систем обробки даних на базі Apache Airflow
    • 3+ років досвіду роботи з Python, знання основних бібліотек та фреймворків екосистеми Python
    • Вміння писати чистий структурований код, використовуючи відомі практики. Вміння використовувати процедурний та ООП стиль. Вміння та досвід покривати свій код тестами
    • Розробка інтеграцій: Досвід створення високонадійних кастомних операторів та хуків на базі AirFlow для взаємодії з різноманітними джерелами даних (SQL, NoSQL, Data Warehouses), зокрема MongoDB, Postgres, Amazon Redshift та SAP IQ
    • Оптимізація роботи з БД: Висока експертиза у роботі з базами даних, що включає розуміння специфіки різних рушіїв (Engines), оптимізацію складних запитів та ефективний менеджмент з’єднань при великих обсягах даних
    • Впровадження стандартів: Здатність формувати та впроваджувати системні стандарти розробки (Code Style, тести, документація), забезпечуючи високу якість та підтримуваність коду всієї команди
    • Технічне лідерство та менторство: Досвід активної співпраці з Data-інженерами, готовність виступати ментором у питаннях Python-розробки та проводити глибокий Code Review для підвищення технічного рівня команди

     

    Своїм співробітникам ми пропонуємо:

    • Офіційне працевлаштування та 24+4 календарних дні відпустки
    • Конкурентну заробітну плату
    • Бонуси відповідно до політики компанії
    • Медичне страхування та корпоративний мобільний зв’язок
    • Корпоративне навчання
    • Корпоративна фінансова допомога у критичних ситуаціях
       

    ПриватБанк відкритий до підтримки та працевлаштування ветеранів i ветеранок, а також людей з інвалідністю.

    Для нас неприйнятною є дискримінація через стан здоров’я та фізичні можливості, вік, расову чи етнічну належність, стать і сімейний стан.

    Ми готові навчати ветеранів та кандидатів з інвалідністю без досвіду роботи в банківській сфері.

     

    More
Log In or Sign Up to see all posted jobs