Jobs Data Engineer

161
  • · 46 views · 1 application · 5d

    Data Engineer (OSINT,Web Scraping Pipelines)

    Office Work · Ukraine (Kyiv) · Product · 3 years of experience · English - B1 MilTech 🪖
    Ми — українська miltech компанія, що розробляє сучасні рішення для оборони. Спеціалізуємось на виробництві безпілотних літальних апаратів, авіаційних систем і програмного забезпечення. Наша місія — створювати інструменти, які пришвидшують перемогу, а...

    Ми — українська miltech компанія, що розробляє сучасні рішення для оборони.
    Спеціалізуємось на виробництві безпілотних літальних апаратів, авіаційних систем і програмного забезпечення.
     

    Наша місія — створювати інструменти, які пришвидшують перемогу, а наші продукти вже зараз впливають на ситуацію на фронті. Компанія динамічно зростає, розвиває нові напрями та вдосконалює внутрішні процеси.

    Ми шукаємо технічно сильного Data Engineer із мисленням справжнього розслідувача (OSINT).

    Ваша головна місія — не просто «парсити інтернет», а з нуля спроєктувати та побудувати інфраструктуру цифрової розвідки

    Який бекграунд ми очікуємо:
     

    • Досвід: Комерційна практика в Data Engineering, OSINT або кібербезпеці. Ключовий фокус — саме автоматизований збір інформації, а не мануальний ресьорч.
    • Скрейпінг: Впевнене володіння Python (або аналогами), досвід розробки та підтримки стійких краулерів і парсерів.
    • Бази даних: Практичні навички роботи з реляційними (SQL) та нереляційними (NoSQL) БД. Вагомим плюсом буде досвід імплементації time-series підходів (збереження історичності).
    • ETL/ELT пайплайни: Вміння будувати процеси обробки: очищення, дедуплікація, збагачення та логування сирих даних перед аналітикою.
    • Системний підхід: Здатність самостійно організувати повний цикл (збір → нормалізація → збереження → трекінг змін → налаштування пошуку).
    • Аналітика: Критичне мислення, вміння верифікувати джерела, відсіювати інфошум та формувати практичні висновки.
    • Soft Skills: Готовність працювати в R&D середовищі, вміння аргументувати свої архітектурні рішення та вести прозору документацію.
       

    Ваші задачі:
     

    • Побудова OSINT-архітектури: Розгортання «з нуля» системи системного збору публічної/напівпублічної інформації (реєстри, бази даних, соцмережі).
    • Автоматизація пайплайнів: Створення та підтримка масштабованих ETL/ELT-процесів (grab → extract → load) для повної відмови від ручного збору.
    • Проєктування сховищ: Формування баз даних із застосуванням time-series архітектури для моніторингу змін в інфополі у динаміці.
    • Глибинний ресьорч ринків: Дослідження технологічних трендів, постачальників, комплектуючих та сировини (як локально, так і глобально).
    • Моніторинг інфопростору: Відстеження нових можливостей або ризиків (дефіцит компонентів, зміна гравців на ринку) зі створенням регулярних дайджестів.
    • Формування баз знань: Створення мап зв'язків між компаніями та decision-makers для оптимізації процесів сорсингу.
    • Інфраструктура: Налаштування проксі, VPN, cloud-рішень та спеціалізованих OSINT tools для забезпечення безперебійної роботи парсерів.
    • Колаборація: Робота з бізнес-запитами команди, перетворення їх у чіткі алгоритми пошуку та швидке тестування гіпотез.
       

    Що ми пропонуємо (Умови):
     

    • Оформлення: Офіційна співпраця в рамках правового простору Дія.City.
    • Бронювання: Гарантоване бронювання від мобілізації (за умови наявності впорядкованих військово-облікових документів).
    • Work-life balance: 24 дні оплачуваної відпустки + додатковий вихідний (day-off) у ваш день народження.
    • Здоров'я: Медичне страхування (активується після успішного проходження випробувального терміну).
    • Професійне середовище: Інноваційна команда однодумців, де вітаються сміливі рішення та є всі умови для постійного розвитку.
    • Локація: Сучасний та комфортний спейс у Києві (правий берег).
    More
  • · 21 views · 3 applications · 5d

    Webmaster Infrastructure / Network Ops Manager (PBN)

    Full Remote · Countries of Europe or Ukraine · Product · 2 years of experience · English - B1
    Про роль: Ви будете повністю відповідати за щоденні операції нашої мережі сайтів (PBN). Це hands-on роль, орієнтована на виконання: від пошуку та оцінки доменів до їхнього розгортання, підтримки стабільності мережі та контролю витрат. Хостинг сайтів WP та...

    Про роль:
    Ви будете повністю відповідати за щоденні операції нашої мережі сайтів (PBN). Це hands-on роль, орієнтована на виконання: від пошуку та оцінки доменів до їхнього розгортання, підтримки стабільності мережі та контролю витрат. Хостинг сайтів WP та їх технічна підтримка. 


     

    Що ви будете робити:

    1. Пошук та оцінка доменів (Quality First)

    • Побудова процесу оцінки доменів (expired / auctions / brokers).
    • Аналіз історії домену (Topical continuity) та профілю беклінків (виявлення спаму, аномалій, анкор-листів).
    • Перевірка індексації та відсутності санкцій.
    • Управління процесом покупки (ставки на аукціонах, робота з брокерами).

    2. Управління інвентарем та продовженнями

    • Ведення єдиного реєстру мережі (домени, реєстратори, дати продовження, витрати).
    • Контроль хостингів, DNS та налаштувань Cloudflare.
    • Налаштування сповіщень про закінчення SSL, SSL-сертифікатів або падіння сайтів.

    3. Відновлення та підтримка сайтів

    • Розгортання сайтів (з веб-архіву або нові збірки) та їхнє технічне налаштування.
    • Налаштування хостингу, SSL, DNS (Cloudflare стандарти).
    • Базова тех-SEO гігієна (редиректи, sitemaps, robots.txt, швидкість завантаження).
    • Підтримка безпеки (оновлення плагінів WP, бекапи).

    4. Стабільність мережі та моніторинг

    • Моніторинг uptime, SSL та DNS.
    • Ведення логів інцидентів та їх швидке усунення.
    • Контроль "футпринтів" (footprint hygiene) для безпеки мережі.

    5. Контроль витрат та звітність

    • Відстеження витрат на кожен домен/сайт (хостинг, сервіси, підрядники).
    • Щомісячна звітність щодо бюджетів.
    • Взаємодія з вендорами (реєстратори, хостинг-провайдери).

    6. Операційне впровадження комерційних оновлень

    • Розміщення та заміна посилань/контенту згідно з ТЗ від SEO-команди.
    • Валідація змін (щоб не "зламати" верстку) та ведення логу змін.

    Ми очікуємо від вас:

    • Досвід роботи з PBN / мережами сайтів обов’язковий. Ви знаєте, як працюють expired domains та дропи.
    • Глибокі навички оцінки доменів: ви бачите спам і ризики в профілі беклінків через Ahrefs/Majestic.
    • Технічна база: впевнене володіння DNS, хостингами, SSL, Cloudflare.
    • Hands-on WordPress: вміння самостійно підняти сайт, налаштувати тему та плагіни.
    • Системність: ви здатні керувати сотнями об'єктів одночасно, не втрачаючи деталей.
    • Англійська мова: на рівні, достатньому для листування, ведення документації та тікетів.

    Буде плюсом:

    • Досвід роботи в ніші iGaming / Affiliate.
    • Навички автоматизації рутинних процесів (скрипти).
    • Досвід управління підрядниками (контент, верстка).

    Що ми пропонуємо:

    • Зарплата: $2,000 – $2,500 (залежно від технічної глибини та досвіду).
    • Формат: Повністю віддалена робота.
    • Масштаб: Можливість працювати з великими бюджетами та професійними інструментами (SpamZilla, Ahrefs тощо).
    • Культура: Відсутність зайвої бюрократії та фокус на результат.
    More
  • · 14 views · 2 applications · 8d

    Head of Cloud PaaS Product (Cloud Platforms / Kubernetes)

    Office Work · Ukraine (Kyiv) · Product · 5 years of experience · English - C1
    Ми шукаємо людину, яка зможе перетворити Kubernetes/OpenShift-платформу на повноцінний комерційний PaaS-продукт для Enterprise та державних замовників в Україні. Це не роль експлуатації і не позиція «продакт за Jira». Це позиція лідера продукту, який...

    Ми шукаємо людину, яка зможе перетворити Kubernetes/OpenShift-платформу на повноцінний комерційний PaaS-продукт для Enterprise та державних замовників в Україні.

    Це не роль експлуатації і не позиція «продакт за Jira».
    Це позиція лідера продукту, який поєднує глибоке технічне розуміння cloud-native платформ із бізнес-мисленням і здатністю доводити складні інфраструктурні рішення до реального ринку.

    Ваше головне завдання — створити та запустити PaaS-сервіс на базі OpenShift або альтернативної платформи, який:

    • стане зрозумілою та безпечною альтернативою VMware і частині сервісів гіперскейлерів;
    • буде реально використовуватись у критичних системах: банкінг, логістика, держсектор;
    • матиме чітку економіку, сценарії міграції та працюючу модель продажів.

    Зона відповідальності

    Продукт і стратегія

    • Формування product vision і roadmap для PaaS-сервісів: Container Platform, OpenShift Virtualization, AI/ML-інструменти.
    • Вибір і розвиток платформи (OpenShift або аналог): з фокусом не на «модність», а на масштабованість, стабільність і комерційну доцільність.
    • Формування ціннісної пропозиції: чому українському Enterprise та державі вигідно будувати PaaS саме тут, а не в AWS/Azure або залишатись на VMware.
    • Розробка моделей ціноутворення: compute, storage, ліцензії, платформа як сервіс.

    Execution і взаємодія з інженерією

    • Управління беклогом R&D-команди: пріоритизація, user stories, приймання результатів.
    • Постійний баланс між бізнес-очікуваннями та технічною реальністю платформи.
    • Участь у ключових архітектурних рішеннях — не як виконавець, а як продуктовий арбітр. 

    Go-to-Market і клієнти

    • Участь у pre-sales із ключовими клієнтами: пояснення архітектури, сценаріїв, ризиків.
    • Розробка migration paths для клієнтів VMware: від VM-орієнтованого мислення до PaaS-моделі.
    • Навчання sales-команди та партнерів: як продавати складний PaaS-продукт без спрощень і обману.
    • Збір реального зворотного зв’язку від клієнтів і трансформація його в продуктові рішення.

    Кого ми шукаємо

    Ця роль добре підійде, якщо ви:

    • маєте глибокий бекграунд у Kubernetes / OpenShift / cloud-native архітектурах;
    • працювали з PaaS-рішеннями AWS, GCP або Azure і розумієте їх сильні та слабкі сторони;
    • вже були DevOps Lead, Platform Architect або Tech Lead — і хочете впливати не лише на «як працює», а на що і навіщо створюється;
    • вмієте говорити з інженерами мовою архітектури, а з бізнесом — мовою ризиків і цінності.

    Необхідний досвід

    • 5+ років у DevOps / platform-інженерії / адмініструванні високонавантажених систем.
    • Практичний досвід роботи з Kubernetes (OpenShift — велика перевага).
    • Розуміння CI/CD, Infrastructure as Code (Terraform, Ansible тощо).
    • Досвід роботи з хмарними PaaS-платформами гіперскейлерів.
    • Досвід у ролі Product Owner або Product Manager у B2B / Cloud / Enterprise-середовищі — від 2 років.
    • Англійська: Upper-Intermediate або вище.

    Чому це сильна можливість

    • Масштаб і сенс: ви будуєте платформу, яка стає частиною критичної інфраструктури країни.
    • Реальний вплив: ваші рішення впливають на те, як бізнес і держава переживають кризи, блекаути й атаки.
    • Свобода рішень: це не роль «підтримки існуючого», а створення нового продукту з нуля.
    • Стабільність: компанія зі статусом критичної інфраструктури, енергонезалежність, бронювання, соціальний пакет.
    More
  • · 59 views · 1 application · 8d

    Middle/Senior Data Engineer

    Full Remote · Ukraine · Product · 3 years of experience · English - B1
    ПриватБанк — є найбільшим банком України та одним з найбільш інноваційних банків світу. Займає лідируючі позиції за всіма фінансовими показниками в галузі та складає близько чверті всієї банківської системи країни. Ми шукаємо Data Engineer, який прагне...

    ПриватБанк — є найбільшим банком України та одним з найбільш інноваційних банків світу. Займає лідируючі позиції за всіма фінансовими показниками в галузі та складає близько чверті всієї банківської системи країни.
     

    Ми шукаємо Data Engineer, який прагне працювати в динамічному середовищі та розділяє цінності взаємної довіри, відкритості та ініціативності.

    Ми прагнемо знайти цілеспрямованого професіонала, який вміє працювати в режимі багатозадачності, орієнтованого на якість та результат.
     

    Основні обов’язки:

    • Побудова та супровід DWH та Data Mart на базі AWS Redshift
    • Проектування, розробка та впровадження ETL/ELT-процесів
    • Розробка хуків та операторів на базі AirFlow
    • Міграція SAP IQ -> Redshift. Оптимізація SQL

       

    Основні вимоги:

    • 3+ років досвіду роботи на позиції Data Engineer 
    • Досвід роботи з реляційними та аналітичними базами даних (першочергово Amazon Redshift) 
    • Оптимізація SQL-запитів для роботи з великими масивами даних
    • Вміння будувати ELT/ETL процеси
    • Знання Java Core або Python 
    • Досвід роботи з системою контроля версій Git

     

    Своїм співробітникам ми пропонуємо:

    • Офіційне працевлаштування та 24+4 календарних дні відпустки
    • Конкурентну заробітну плату
    • Бонуси відповідно до політики компанії
    • Медичне страхування та корпоративний мобільний зв’язок
    • Корпоративне навчання
    • Корпоративна фінансова допомога у критичних ситуаціях
       

    ПриватБанк відкритий до підтримки та працевлаштування ветеранів i ветеранок, а також людей з інвалідністю.

    Для нас неприйнятною є дискримінація через стан здоров’я та фізичні можливості, вік, расову чи етнічну належність, стать і сімейний стан.

    Ми готові навчати ветеранів та кандидатів з інвалідністю без досвіду роботи в банківській сфері.

    More
  • · 31 views · 2 applications · 9d

    Data Engineer

    Full Remote · Ukraine · Product · 4 years of experience · English - native MilTech 🪖
    Twist Robotics — це продуктова оборонна компанія, яка розробляє безпілотні літальні апарати (FPV, коптерного та літакового типів) і пов’язані з ними системи. Серед наших публічних продуктів — симулятор місій БпЛА «Обрій» і коптер Saker Scout, який уже...

    Twist Robotics — це продуктова оборонна компанія, яка розробляє безпілотні літальні апарати (FPV, коптерного та літакового типів) і пов’язані з ними системи. Серед наших публічних продуктів — симулятор місій БпЛА «Обрій» і коптер Saker Scout, який уже понад два роки успішно працює на передовій.

     

    Ми шукаємо Data Engineer, який долучиться до роботи над системами автономного керування та планування для безпілотних платформ на базі проєкту «Обрій». Це роль на стику даних, ML-інфраструктури та автономних алгоритмів, із фокусом на побудову надійної та масштабованої системи роботи з великими обсягами сенсорних і технічних даних.

     

    Основні обов’язки:

    • побудова та підтримка data pipelines для збору, обробки та зберігання сенсорних даних (відео, телеметрія, IMU, GPS тощо);
    • організація та підготовка датасетів для задач computer vision та автономної навігації;
    • забезпечення процесів тренування, тестування та валідації ML-моделей з боку даних;
    • оптимізація роботи з великими обсягами логів і технічних даних;
    • автоматизація ingestion, preprocessing та versioning даних;
    • інтеграція data workflows у ML/MLOps-інфраструктуру;
    • контроль якості, консистентності та відтворюваності даних;
    • тісна взаємодія із суміжними командами.

     

    Що для нас важливо:

    • 4+ роки комерційного досвіду роботи як Data Engineer або в суміжній ролі у сфері автономних систем, автопілотів чи computer vision;
    • досвід роботи з даними для автопілотів, автономної навігації або робототехніки;
    • розуміння роботи з сенсорними даними (камери, LiDAR, radar, IMU, GPS);
    • досвід побудови масштабованих data pipelines для ML-задач;
    • впевнене володіння Python та інструментами для роботи з даними;
    • розуміння ML lifecycle та потреб команд computer vision;
    • досвід роботи з обчислювальними кластерами (CPU/GPU);
    • системне мислення, самостійність і відповідальність за результат.

     

    Буде перевагою:

    • досвід із симуляційними середовищами;
    • бекграунд у computer vision або perception-задачах;
    • розуміння архітектури автономних систем;
    • досвід роботи з потоковими даними (real-time streaming).

     

    Ми пропонуємо:

    • складні та цікаві завдання в сфері розвитку технологій;
    • можливість застосовувати ваш досвід і навички для зміцнення обороноздатності України;
    • комфортні умови праці та ринкову заробітну плату;
    • віддалену зайнятість або ж гібридну у Львові;
    • відпустки, лікарняні та інші соціальні гарантії, згідно з нормами чинного трудового законодавства;
    • роботу в команді, де цінується незалежність та ініціативність;
    • бронювання.
    More
  • · 62 views · 4 applications · 10d

    Data Engineer (Snowflake + Cloud DWH) — Nature-based Solutions to $5000

    Full Remote · Ukraine · 5 years of experience · English - B2
    Про місію та клієнта Ми будуємо хмарну платформу даних для одного з найбільших у світі environmental nonprofit, який інвестує в лісовідновлення та Nature-based Solutions. Це не “черговий DWH заради DWH” — дані тут напряму впливають на рішення, прозорість,...

    Про місію та клієнта

    Ми будуємо хмарну платформу даних для одного з найбільших у світі environmental nonprofit, який інвестує в лісовідновлення та Nature-based Solutions. Це не “черговий DWH заради DWH” — дані тут напряму впливають на рішення, прозорість, звітність і масштабування програм.

     

    Про ініціативу

    Проект DWH — це сучасна cloud data platform, де Snowflake — ключова аналітична база, а інженерна команда створює single source of truth з різних систем клієнта. 

    Працюємо короткими релізами 1–3 місяці, з чіткими SLA, пріоритизацією та реальним ownership. 

    Зазвичай у роботі паралельно 1–2 потоки задач — важливі комунікація та прогнозованість.

     

    Важливо: ми шукаємо сильного data engineer з реальним досвідом Snowflake + DWH/ETL. Досвід Azure бажаний, але не обов’язковий, якщо є сильна база й готовність швидко добрати Azure-частину.

     

    Технології (core)

    • DWH / ELT: Snowflake (SQL, modeling, performance basics)
    • Orchestration / ingestion: Azure Data Factory + Azure Functions (Python) (або аналоги — якщо вмієш переносити підхід)
    • CI/CD: Azure DevOps pipelines + автоматизація деплою Snowflake-об’єктів (DL Sync/аналог)
    • Джерела: CRM/ERP (D365/Salesforce), MS SQL, API-інтеграції, CDC-концепти
    • Формати: JSON, Parquet
    • Команда: Lead Data Engineering / Tech Lead, PM, DevOps, QA. BI team на стороні партнера.

       

    Чим ти будеш займатись

    • Проєктувати та будувати інкрементальні та full-refresh ELT пайплайни (ADF + Functions → Snowflake).
    • Розробляти та оптимізувати Snowflake SQL для DWH і вітрин (Star schema, incremental patterns, базовий SCD2).
    • Писати production-ready Python для ingestion/обробки/API (pagination, retries, error handling, логування, конфіги, secrets).
    • Вбудовувати data quality: freshness, completeness, duplicates, late-arriving data, контроль інкрементів.
    • Підтримувати CI/CD та промоут змін між dev/test/prod.
    • Працювати прозоро й передбачувано: status → risk → options → next step.
    • По готовності (з часом), переймеш на себе всю відповідальність за успіх проекту та комунікації з партнером.

       

    Кого шукаємо (Must-have)

    • 5+ років у Data Engineering / DWH / ETL.
    • Snowflake SQL у продакшені: CTE, window functions, COPY INTO, MERGE.
    • Incremental load (watermarks / merge pattern) + базовий SCD2 (effective dating, current flag).
    • Python production level: API-інтеграції (pagination/retries/errors), логування, конфіги, секрети, підготовка даних до ELT (validation/normalization).
    • Розуміння DWH modeling (fact/dimension, star schema, joins і їх performance implications).
    • Досвід з міграціями/великими даними/складними джерелами — плюс.
    • Бажано: базове розуміння OpenMetadata (або аналогів catalog/lineage) та data governance.

    Azure-досвід (ADF/Functions) — бажаний, але якщо ти сильний у Snowflake + DWH/ETL і маєш cloud-бекграунд, ми готові розглянути та “дотягнути” Azure-частину в онбордингу.

     

    Nice-to-have

    • PySpark (DataFrame API, joins, aggregations; розуміння distributed processing).
    • Досвід з D365/Salesforce, MS SQL, API ingestion, CDC-патернами.
    • Data governance/security basics, досвід з observability.

       

    Як у нас проходить відбір (чесно і практично)

    *Етап 1 — Intro + короткий тех-скрин (40–60 хв, Zoom):
    контекст проєкту, очікування, короткий сценарій по SQL/Python + питання по комунікації та підходу до задач.

    *Етап 2 — Technical deep-dive (75–90 хв, з Tech Lead + інженером):
    live-SQL (CTE/window + incremental/SCD2), кейс по пайплайну/інтеграції, підхід до якості та деплою.
    Без test task — симулюємо реальну роботу під час інтерв’ю.

     

    Що пропонуємо

    • Компенсація від $4500 (обговорюємо під рівень і очікування).
    • Місійний проєкт, де дані мають реальний вплив.
    • Сильне середовище: Tech Lead/архітектурні практики, “дорослий” delivery.
    • Гнучкий формат: віддалено / за кордоном / офіс (опційно).
    • Бронювання за потреби (за наявності квот і відповідності процесам).
    • Техніка та підтримка home-office (за домовленістю).
    • 36 paid days off/рік: 20 vacation + UA holidays (та суміжні дні, де застосовно).
    • Monthly benefit cafeteria $25 (навчання/ментальне здоров’я тощо).
    • Performance review: ongoing feedback, перегляд компенсації після 12 міс, далі щорічно.
    • Paid sabbatical після 5 років (ми за здорові та довгострокові відносини)

     

    Готовий/готова?

    Надсилай CV або LinkedIn — і в повідомленні коротко:

    1. які проєкти зі Snowflake робив(ла) у продакшені,
    2. чи був досвід ETL/DWH modeling + incremental loads,
    3. з чим працював(ла) для orchestration/ingestion (ADF/Airflow/інші).

    Слава Україні і незламності нашої нації!

    More
  • · 33 views · 6 applications · 11d

    Data Engineer

    Full Remote · Countries of Europe or Ukraine · Product · 5 years of experience · English - B1
    Ми шукаємо досвіченого Data Engineer, який здатен і хоче впливати на архітектуру, підходи та розвиток data-платформи. Що ви будете робити: Проєктувати та розвивати ETL / ELT-пайплайни для фінансових і транзакційних даних Будувати й оптимізувати аналітичні...

    Ми шукаємо досвіченого Data Engineer, який здатен і хоче впливати на архітектуру, підходи та розвиток data-платформи.

    Що ви будете робити:

    • Проєктувати та розвивати ETL / ELT-пайплайни для фінансових і транзакційних даних
    • Будувати й оптимізувати аналітичні моделі в StarRocks під високі навантаження та складні агрегації
    • Працювати з потоками даних у batch і near real-time сценаріях, балансуючи між швидкістю, вартістю та актуальністю даних
    • Оптимізувати latency, concurrency, cost та data freshness відповідно до бізнесових і регуляторних вимог
    • Підвищувати якість, консистентність і керованість даних, формуючи практики Data Quality та Data Governance
    • Разом з командою формувати архітектуру DWH і BI-рішень, поступово модернізуючи legacy без зупинки існуючих процесів

    Кого ми шукаємо:
    • Data Engineer з досвідом роботи з OLAP-системами
    (StarRocks — основна платформа або готовність швидко її опанувати)
    • Впевнене володіння SQL та досвід оптимізації складних аналітичних запитів
    • Розуміння принципів побудови data warehouse та аналітичних моделей
    • Досвід роботи з ETL-інструментами (Airflow, dbt або аналоги)
    • Базові знання Python або іншої мови для data-обробки
    • Інженерне мислення, здатність працювати з невизначеністю та приймати технічні рішення у складному фінансовому домені

    Буде великим плюсом:

    • Досвід роботи зі стрімінгом даних (Kafka, Flink, CDC)
    • Досвід роботи з Parquet та lakehouse-підходами
    • Практика оптимізації великих обсягів даних і високонавантажених аналітичних систем
    • Досвід роботи з BI-інструментами або побудови BI-шару
    • Досвід роботи з хмарною інфраструктурою (AWS або аналоги)
    More
  • · 88 views · 9 applications · 11d

    Python Engineer (Airflow)

    Full Remote · Ukraine · Product · 2 years of experience · English - None Ukrainian Product 🇺🇦
    Не просто код, а твій вплив на мільйони українців. Nova Digital — це технологічне серце екосистеми NOVA, де твій код стає частиною щоденного життя цілої країни. Про масштаб наших сервісів: • 50+ млн запитів щодня проходять через наші системи • 10+ млн...

    Не просто код, а твій вплив на мільйони українців.

    Nova Digital — це технологічне серце екосистеми NOVA, де твій код стає частиною щоденного життя цілої країни.

    Про масштаб наших сервісів:
    • 50+ млн запитів щодня проходять через наші системи
    • 10+ млн активних користувачів покладаються на наші рішення
    Ми будуємо не просто продукт — ми створюємо технологічну інфраструктуру, яка об’єднує людей, бізнеси та можливості вже майже по цілому світу.

    Що робитимеш як Data Engineer (Airflow):
     

    • Проєктування, оптимізація та підтримка кластера Apache Airflow і Python-коду для оркестрації даних
    • Розробка логіки та підтримка ETL-процесів (збір, трансформація, завантаження даних)
    • Проєктування інтеграційної взаємодії між системами, створення сервісів для інтеграції та обміну даними
    • Оптимізація продуктивності процесів обробки даних, виявлення та усунення вузьких місць
    • Співпраця з аналітиками та розробниками для забезпечення якісної доставки даних


    Твій ідеальний профіль:
    Must-have:
     

    • Професійний досвід роботи з Apache Airflow: створення DAG’ів, налаштування операторів, моніторинг та оптимізація продуктивності
    • Досвід не менше 3 років у ролі Python-розробника з акцентом на бекенд та інтеграційні рішення
    • Практичні навички роботи з Bash, Docker, DBT, GitLab CI/CD (автоматизація процесів, деплой, оптимізація пайплайнів)
    • Досвід роботи з базами даних MS SQL Server та PostgreSQL (написання складних SQL-запитів, оптимізація, створення процедур і функцій)

    Nice-to-have:
     

    • Досвід роботи з Apache Spark (розподілена обробка великих масивів даних)
    • Знання інших інструментів Big Data або хмарних платформ (AWS/GCP/Azure)
    • Розуміння принципів DataOps і CI/CD у сфері управління даними

    Чому експерти різних напрямів працюють з нами:
    Технологічно:
     

    • Високонавантажені системи з реальними викликами масштабування
    • Сучасний стек та свобода технологічних рішень
    • Можливість впливати на архітектуру продуктів, якими користуються мільйони

    Професійно:
     

    • Менторство від сеньйорів з досвідом enterprise-рішень
    • Разом будуємо інновації, що працюють для мільйонів

    Ідейно:
     

    • Продукт, що змінює країну — не просто ще один стартап
    • Тут команди стають драйверами технологічних змін

    Benefits:
     

    • Компенсація додаткових витрат, пов’язаних з робочими завданнями, здійснюються до внутрішніх політик компаній
    • Добровільне медичне страхування та страхування життя
    • Корпоративні знижки від партнерів Nova
    • Підтримка ментального здоровʼя. Можливість безоплатних консультацій з корпоративним психологом
    • Соціальна відповідальність та волонтерський рух «Свої для своїх»
    • Клуби за інтересами: біговий, шаховий та інші ініціативи для натхнення
    • Соціальні відпустки та компенсації відповідно до КЗпП України

    Наступний крок за тобою.Ми чекаємо на знайомство — залишилось лише отримати твоє резюме.

    Очікуваний термін відповіді — до 10 робочих днів.

     

     

    More
  • · 126 views · 7 applications · 12d

    Data Engineer

    Full Remote · Countries of Europe or Ukraine · Product · 4 years of experience · English - B1
    Kiss My Apps — компанія-платформа, що об’єднує 7 продуктових вертикалей та 30+ AI-first продуктів, 100+ мільйонів користувачів, власну екосистему аналітичних, пеймент та маркетингових розробок. Продукти KMA це світові лідери в нішах utilities, lifestyle,...

    Kiss My Apps — компанія-платформа, що об’єднує 7 продуктових вертикалей та 30+ AI-first продуктів, 100+ мільйонів користувачів, власну екосистему аналітичних, пеймент та маркетингових розробок.

    Продукти KMA це світові лідери в нішах utilities, lifestyle, health&fitness — AI Remodel, Printer, Botan, Calorie Counter і не тільки. Це продукти, що займають топ-1 місця App Store й вирішують потреби комʼюніті з сотень мільйонів людей.


    Наш темп — це наш competitive advantage. KMA зростає мінімум х3 рік до року — і ми шукаємо Data Engineer, того/ту, хто допоможе масштабуватись ще швидше.


    Коротко про роль: Ти відповідатимеш за розвиток дата-платформи, забезпечуючи аналітиків якісними даними. Це можливість працювати з поточним стеком, готуючи ґрунт для впровадження сучасних підходів у аналітику.

     

    Твої задачі:

    • Підтримка та оптимізація ETL-процесів.
    • Створення нових інтеграцій та забезпечення якості даних для звітності.
    • Налагодження процесів моніторингу та алертів пайплайнів.
    • Оптимізація агрегації даних відповідно до бізнес потреб у співпраці з аналітиками.

     

    Що очікуємо від тебе:

    • Досвід роботи на позиції Data Engineer від 2х років.
    • Впевнене володіння Python або Scala / Java та глибокі знання SQL.
    • Практичний досвід роботи з PySpark та Databricks.
    • Розуміння принципів роботи з Docker та Kubernetes.
    • Досвід роботи з хмарними провайдерами.
    • Орієнтація на роботу з сучасним Data-стеком та готовність швидко опановувати нові інструменти.

     

    Буде перевагою:

    • Наявність сертифікацій (Databricks, Microsoft Certified Data Engineer, AWS/GCP).
    • Досвід роботи з Airflow, Airbyte та Terraform.
    • Розуміння роботи з Kafka та стрімінговими даними.

     

    Тобі до нас, якщо шукаєш:

    • Роботу з сучасним Data-стеком та можливість впливати на архітектуру платформи.
    • Участь у проєкт, що стрімко розвиваються, з фокусом на AI та ML.
    • Середовище, де цінується автономність та бізнес-орієнтованість.

     

    Ми пропонуємо:

    • Формат роботи на твій вибір: fully remote з будь-якої точки вільного світу, а також доступ до одного з наших офісів за бажанням (Київ, Варшава).
    • Умови, завдяки яким ти можеш сфокусуватись на перформансі: гідна винагорода, що відповідає твоїм скілам та досвіду. А також ми забезпечуємо технікою незалежно від формату роботи та географії.
    • Кар’єрне зростання через дію: 80%+ усіх leads в Kiss My Apps ще 2-3 роки тому були світчерами. Твій вплив тут не визначається роками в резюме — він визначається тим, як швидко ти навчаєшся, береш відповідальність та береш оунершіп за власну карʼєру.
    • Well-being програма: ми турбуємося про ментальне здоровʼя команди, а також проводимо онлайн-заняття з йоги двічі на тиждень.
    • Розвиток та професійна реалізація: проводимо внутрішні speaking clubs англійською з нейтів спікером, а також надаємо можливість виступати на внутрішніх та зовнішніх івентах від Kiss My Apps. Крім цього ти матимеш річний бюджет на покриття до 50% професійних конференцій, освітніх подій та івентів.
    • Додаткові бенефіти, де ти обираєш: надаємо фіксований бюджет на рік з якого ти сам обираєш, яку статтю витрат покрити: 50% від медстрахування, психотерапії, спорту чи стоматології. А також 40 днів оплачуваного відпочинку та лікарняних без привʼязки до дат.
    • Опора в умовах війни: забезпечуємо кожного всім необхідним для безперебійної роботи, системно підтримуємо Сили Оборони та долучаємось до ініціатив із відновлення України.

     

    Важливо: є опція бронювання для військовозобов’язаних після випробувального терміну, за умови наявності належно оформлених військово-облікових документів та внутрішніх можливостей компанії, визначених відповідно до вимог чинного законодавства.

     

    Як виглядає hiring процес:

    • Інтро з рекрутером
    • Технічна співбесіда з Tech Lead та Data Engineer
    • Фінальна співбесіда з CTO

    Якщо ти хочеш будувати сучасну дата-платформу та долучитись до впровадження AI-технологій — let’s launch the future together 💫

    More
  • · 72 views · 0 applications · 15d

    Data Engineer

    Full Remote · Countries of Europe or Ukraine · Product · 4 years of experience · English - B1
    Kiss My Apps — компанія-платформа, що об’єднує 7 продуктових вертикалей та 30+ AI-first продуктів, 100+ мільйонів користувачів, власну екосистему аналітичних, пеймент та маркетингових розробок. Продукти KMA це світові лідери в нішах utilities, lifestyle,...

    Kiss My Apps — компанія-платформа, що об’єднує 7 продуктових вертикалей та 30+ AI-first продуктів, 100+ мільйонів користувачів, власну екосистему аналітичних, пеймент та маркетингових розробок.

    Продукти KMA це світові лідери в нішах utilities, lifestyle, health&fitness — AI Remodel, Printer, Botan, Calorie Counter і не тільки. Це продукти, що займають топ-1 місця App Store й вирішують потреби комʼюніті з сотень мільйонів людей.


    Наш темп — це наш competitive advantage. KMA зростає мінімум х3 рік до року — і ми шукаємо Data Engineer, того/ту, хто допоможе масштабуватись ще швидше.


    Коротко про роль: Ти відповідатимеш за розвиток дата-платформи, забезпечуючи аналітиків якісними даними. Це можливість працювати з поточним стеком, готуючи ґрунт для впровадження сучасних підходів у аналітику.

     

    Твої задачі:

    • Підтримка та оптимізація ETL-процесів.
    • Створення нових інтеграцій та забезпечення якості даних для звітності.
    • Налагодження процесів моніторингу та алертів пайплайнів.
    • Оптимізація агрегації даних відповідно до бізнес потреб у співпраці з аналітиками.

     

    Що очікуємо від тебе:

    • Досвід роботи на позиції Data Engineer від 2х років.
    • Впевнене володіння Python або Scala / Java та глибокі знання SQL.
    • Практичний досвід роботи з PySpark та Databricks.
    • Розуміння принципів роботи з Docker та Kubernetes.
    • Досвід роботи з хмарними провайдерами.
    • Орієнтація на роботу з сучасним Data-стеком та готовність швидко опановувати нові інструменти.

     

    Буде перевагою:

    • Наявність сертифікацій (Databricks, Microsoft Certified Data Engineer, AWS/GCP).
    • Досвід роботи з Airflow, Airbyte та Terraform.
    • Розуміння роботи з Kafka та стрімінговими даними.

     

    Тобі до нас, якщо шукаєш:

    • Роботу з сучасним Data-стеком та можливість впливати на архітектуру платформи.
    • Участь у проєкт, що стрімко розвиваються, з фокусом на AI та ML.
    • Середовище, де цінується автономність та бізнес-орієнтованість.

     

    Ми пропонуємо:

    • Формат роботи на твій вибір: fully remote з будь-якої точки вільного світу, а також доступ до одного з наших офісів за бажанням (Київ, Варшава).
    • Умови, завдяки яким ти можеш сфокусуватись на перформансі: гідна винагорода, що відповідає твоїм скілам та досвіду. А також ми забезпечуємо технікою незалежно від формату роботи та географії.
    • Кар’єрне зростання через дію: 80%+ усіх leads в Kiss My Apps ще 2-3 роки тому були світчерами. Твій вплив тут не визначається роками в резюме — він визначається тим, як швидко ти навчаєшся, береш відповідальність та береш оунершіп за власну карʼєру.
    • Well-being програма: ми турбуємося про ментальне здоровʼя команди, а також проводимо онлайн-заняття з йоги двічі на тиждень.
    • Розвиток та професійна реалізація: проводимо внутрішні speaking clubs англійською з нейтів спікером, а також надаємо можливість виступати на внутрішніх та зовнішніх івентах від Kiss My Apps. Крім цього ти матимеш річний бюджет на покриття до 50% професійних конференцій, освітніх подій та івентів.
    • Додаткові бенефіти, де ти обираєш: надаємо фіксований бюджет на рік з якого ти сам обираєш, яку статтю витрат покрити: 50% від медстрахування, психотерапії, спорту чи стоматології. А також 40 днів оплачуваного відпочинку та лікарняних без привʼязки до дат.
    • Опора в умовах війни: забезпечуємо кожного всім необхідним для безперебійної роботи, системно підтримуємо Сили Оборони та долучаємось до ініціатив із відновлення України.

     

    Важливо: є опція бронювання для військовозобов’язаних після випробувального терміну, за умови наявності належно оформлених військово-облікових документів та внутрішніх можливостей компанії, визначених відповідно до вимог чинного законодавства.

     

    Як виглядає hiring процес:

    • Інтро з рекрутером
    • Технічна співбесіда з Tech Lead та Data Engineer
    • Фінальна співбесіда з CTO

    Якщо ти хочеш будувати сучасну дата-платформу та долучитись до впровадження AI-технологій — let’s launch the future together 💫

    More
  • · 64 views · 3 applications · 18d

    Data Engineer - Howly

    Office Work · Ukraine (Kyiv) · Product · 2 years of experience · English - B1 Ukrainian Product 🇺🇦
    Howly — українська мультипродуктова компанія в venture builder SKELAR. Ми будуємо продукти для користувачів на глобальному ринку професійних сервісів. За 4+ роки ми запустили 4 продукти та виросли до 300+ людей в команді. Howly — глобальний бізнес із...

    Howly — українська мультипродуктова компанія в venture builder SKELAR. Ми будуємо продукти для користувачів на глобальному ринку професійних сервісів. За 4+ роки ми запустили 4 продукти та виросли до 300+ людей в команді.

    Howly — глобальний бізнес із відпрацьованими процесами та користувачами по всьому світу. Водночас ми зберігаємо драйв стартапу: працюємо гнучко, з ентузіазмом і без зайвої бюрократії.

    SKELAR — це venture builder, який будує міжнародні продуктові IT-компанії за правилами світу венчурних інвестицій. Разом із ко-фаундерами збираємо сильні команди, щоб запускати продуктові IT-бізнеси та перемагати на глобальних ринках.
     

    Зараз ми в пошуку Data Engineer до Howly!
     

    Ми маємо 4 потужні продукти, що оперують на міжнародних ринках:
     

    1. Розумна автоматизація документів: Позбавляємо від рутини — наш продукт полегшує роботу з документами, щоб користувачі могли зосередитися на важливіших задачах.

    2. Платформа для карʼєрного росту: Ми допомагаємо людям рости — платформа відкриває можливості для розвитку карʼєри: від резюме, до кар’єрних консультацій, прокладаючи шлях від потенціалу до реалізованих амбіцій.

    3. AI-пошук роботи та автоматичне створення резюме й мотиваційних листів: Допомагаємо людям швидше знаходити роботу. Робимо це за допомогою AI-пошуку вакансій, автоматичного створення резюме та cover letters в один клік. Сервіс прибирає рутину, підвищує релевантність відгуків і допомагає краще позиціонувати себе під конкретні ролі.

    4. Маркетплейс технічних талантів: Поєднуємо технічних фахівців із тими, хто шукає їхню експертизу — маркетплейс, де експерти й користувачі швидко знаходять одне одного.


    Переваги позиції:

    — Повна відповідальність за аналітичний шар даних у DWH на етапі активного масштабування компанії та реальний вплив на розвиток продуктів;
    —Можливість відігравати ключову роль у побудові та розвитку аналітичної інфраструктури;
    — Робота з сучасним технологічним стеком (BigQuery, dbt, Airflow) і участь у формуванні технічних стандартів;
    — Тісна співпраця з продуктовими командами та прямий вплив рішень на продуктову, маркетингову й фінансову ефективність бізнесу.

     

    Які задачі чекають нашого(шу) Data Engineer:

    — Забезпечення стабільності, точності та доступності даних для всієї компанії;
    — Налаштування, підтримка й оптимізація ELT-процесів (Airbyte);
    — Розробка нових інтеграцій і контроль якості даних для звітності;
    — Створення та підтримка аналітичних моделей у BigQuery з використанням dbt;
    — Побудова процесів моніторингу та алертингу для пайплайнів;
    — Оптимізація агрегацій даних відповідно до бізнес-потреб у тісній взаємодії з аналітиками.

     

    Що для нас важливо:

    — Досвід роботи на позиції Data Engineer від 2-ох років;
    — SQL: Впевнене розуміння SQL для роботи з базами даних;
    — Python: Вміння писати ефективний та чистий код для створення custom connectors AirByte та налаштування DAG-pipelines у AirFlow;
    — Розуміння концепцій DE: Базові знання про Data Modelling, Data Patterns, та архітектуру аналітичних сховищ (напр., BigQuery);
    — Розуміння принципів роботи Docker та Kubernetes;
    — Розуміння принципів оптимізації запитів (partitioning, clustering, cost optimization).

     

    Буде перевагою:

    — Досвід роботи з dbt: створення, тестування й документування моделей; використання макросів, sources, seeds і variables; розуміння структури dbt-проєкту;
    — Орієнтація на роботу з сучасним Data-стеком та готовність швидко опановувати нові інструменти;
    — Досвід роботи з ML ops.



    Наші цінності, наша база:

    Ownership не на словах
    У нас не питають «де мій KPI», у нас приходять з пропозиціями «як я можу зробити краще». Ми — не про мікроменеджмент, а про зріле ставлення до своєї ролі та впливу.
     

    Ми обираємо Openness 
    Прозорі цілі, відкрита комунікація, культура чесного й відкритого фідбеку — навіть якщо це складно. Тут можна бути собою, голосом і діями впливати на спільний рух вперед.
     

    Bias for action, але не хаос
    Приймаємо рішення швидко і любимо дії більше, ніж нескінченні узгодження та водночас поважаємо системність і якісні процеси.
     

    Ми віримо в active infinite Growth
    Ми ростемо як бізнес і створюємо умови, щоб росли наші люди. Є навчання, розвиток у ролях та в експертизі: компанія дає можливості, а люди їх бачать і використовують.

    Ми плануємо й надалі розвивати tech-бізнеси, підкорювати глобальні ринки та працювати задля перемоги України 🇺🇦
     

    Для цього створили всі можливості всередині нашого venture builder SKELAR та Howly:
    — Внутрішні клуби за професійними напрямками: маркетинг, розробка, фінанси, рекрутинг;
    — Компенсація навчання: тренінгів, курсів, відвідування конференцій;
    — Медичне страхування та корпоративний лікар;
    — Howly надає компенсацію за Mental Health programm;
    — Безкоштовні заняття спортом з корпоративними тренерами;
    — Сніданки та обіди в офісі.

    More
  • · 188 views · 19 applications · 18d

    Junior Data Engineer - Headquarter

    Office Work · Ukraine (Kyiv) · Product · 0.5 years of experience · English - A2 Ukrainian Product 🇺🇦
    SKELAR — український венчур білдер, який будує міжнародні tech-бізнеси. Разом із ко-фаундерами збираємо сильні команди, щоб перемагати на глобальних ринках. Сьогодні в SKELAR десяток бізнесів у різних нішах — від EdTech до SaaS. Це — компанії, що мають...

    SKELAR — український венчур білдер, який будує міжнародні tech-бізнеси. Разом із ко-фаундерами збираємо сильні команди, щоб перемагати на глобальних ринках.

     

    Сьогодні в SKELAR десяток бізнесів у різних нішах — від EdTech до SaaS. Це — компанії, що мають відзнаки від Product Hunt, потрапляють у рейтинги ТОП-стартапів та продуктових компаній України, займають найвищі шаблі в AppStore та розробляють платформи, якими користуються мільйони людей. А ще, про бізнеси SKELAR пишуть TechCrunch, Wired та інші світові медіа.

     

    Пишаємося сильною командою із 1000+ фахівців, які мають круту експертизу й амбітні цілі. Наші люди — найцінніший актив компанії, тож ми обираємо будувати бізнеси разом з найкращими талантами на ринку.

     

    Зараз ми масштабуємо одну з наших команд – Finance.
    Тож ми у пошуку Junior Data Engineer/Python Developer , який допоможе поставити процес обробки і підготовки фінансових даних, на новий рівень.

     

    Трохи більше про Finance team: це команда, яка стоїть за лаштунками кожного успішного юнікорна. Ми закриваємо “під ключ” усі фінансові питання для бізнесів будь-якої складності та менеджимо відносини зі стейкхолдерами із різних країн, аби вивести свої платіжні процеси на якісно новий рівень. Наша команда займається автоматизацією рутинних процесів для фінансового департаменту і не тільки. Ми обробляємо сирі фінансові дані, готуємо їх для розрахунків та імпорту в ERP систему, консолідуємо їх для видачі внутрішнім замовникам. Стратегічною ціллю в цьому напрямку є підготовка та імплементація окремого сервісу (ферми) для підготовки обробки даних, яким будуть користуватися бізнеси.

     

    Виклики, які чекають на цій ролі:

    — Оптимізація, розвиток і підтримка поточних модулів (python скриптів) для збору, підготовки і обробки фінансових даних: збір, консолідація та розрахунки, формування вихідних звітів та системи перевірок;

    — Побудова інфраструктури (бд, веб-сервісів, тощо) для обробки даних і розрахунку на бекенді;

    — Комунікація з іншими відділами для забезпечення належного рівня автоматизації всіх процесів, необхідної для безперебійного зростання бізнесу портфельних компаній;

    — Комунікація з користувачами системи для надання якісної технічної підтримки фінансовій команді;

    — Побудова та підтримка інтеграцій з іншими системами (платіжними, обліковими тощо).

     

    Що для нас важливо:

    — 6+ місяців досвіду на аналогічній позиції Data Engineer/Python developer/Data Analyst;

    — Досвід розробки на Python, Pandas;

    — Досвід у веб розробці, побудові веб сервісів (git, api+);

    — Знання SQL;

    — Структуроване мислення, сильні аналітичні навички, здатність робити бізнес-висновки на основі даних;

    — Високий рівень комунікаційних навичок та вміння працювати в команді.

     

    Окрім бізнесів, ми розвиваємо благодійний фонд SKELAR foundation від співробітників нашого venture builder’а на підтримку ЗСУ. В межах ініціативи створюємо та фінансуємо великі проєкти, що допомагають наближати нашу перемогу.

     

    SKELAR — середовище для самореалізації людей, які здатні створити успішні компанії. Ми такі компанії називаємо the next big everything. Віримо в їх потужність та масштаб. Ми плануємо й надалі розвивати tech-бізнеси, підкорювати глобальні ринки та працювати задля перемоги України 🇺🇦

     

    Для цього створили всі можливості всередині venture builder:

    — 8 команд SKELAR Platform, яка забезпечує операційну ефективність бізнесів: від рекрутингу та технічного оснащення до фінансової та правової архітектури;

    — Спільнота фаундерів, які вже запустили не один бізнес й можуть ділитися практичним досвідом;

    — Внутрішні клуби за професійними напрямками: маркетинг, розробка, фінанси, рекрутинг;

    — Тренінги, курси, відвідування конференцій;

    — Медичне страхування, корпоративний лікар.
     

    Давай разом будувати the next big everything!

    More
  • · 294 views · 14 applications · 18d

    System engineer Big Data

    Full Remote · Ukraine · Product · 2 years of experience · English - A2
    ПРО НАС UKRSIB Tech — це амбітна ІТ-команда з близько 400 спеціалістів, що драйвить технології UKRSIBBANK. Ми створюємо топовий банкінг для > 2 000 000 клієнтів та прагнемо виводити фінансову сферу в Україні на новий рівень. Нашими продуктами користуються...

    ПРО НАС

    UKRSIB Tech — це амбітна ІТ-команда з близько 400 спеціалістів, що драйвить технології UKRSIBBANK.

    Ми створюємо топовий банкінг для > 2 000 000 клієнтів та прагнемо виводити фінансову сферу в Україні на новий рівень. Нашими продуктами користуються юзери щоденного банкінгу, лідери української економіки та великі міжнародні корпорації.

    Ми дякуємо нашим захисникам та захисницям, які віддано боронять свободу та незалежність України, та створюємо сприятливе середовище для роботи в банку.

    Майбутні задачі:

    • оновлення та виправлення програмного забезпечення з оновленням вендора
    • проектна робота для оптимізації підсистем
    • взаємодія з вендорами систем для вирішення проблем інтеграція з IBM DataStage, Teradata, Oracle, Jupyterhub, Docker, Python
    • підтримка користувачів (вирішення інцидентів та консультування) та адміністрування доступу
    • тестування нового функціоналу
    • Взаємодія з іншими структурними підрозділами ІТ з метою визначення оптимальних процесів неперервного розгортання (continuous integration/continuous delivery).
    • участь в розробці стабільної і надійної ІТ-інфраструктури для підтримки систем DataHub, DataStage.
    • налаштування моніторингу доступності систем DataHub, DataStage, відповідно до заданих вимог, формує пропозиції щодо оптимізації технологічних процедур і бізнес-процесів.
    • участь в рішення технічних і системних проблем, що виникли в роботі систем DataHub, DataStage, проведення розслідувань з нестандартних ситуацій у системі, формування висновків і пропозицій щодо усунення.

    Ми в пошуку фахівця, який має:

    • Повну вищу технічну\інженерну освіту;
    • досвід роботи за напрямком від 2х років
    • Технічні засоби, програмне забезпечення, засоби передачі даних і прикладні програми користувачів, зокрема, використовувані в системах Hadoop
    • Базові знання ІТ інфраструктури банку (додатка, сервера, мережі)
    • Знання і навички роботи з СУБД
    • Глибокі знання в адмініструванні ELT/ETL засобів (IBM Datastage)
    • Володіння знаннями і навичками в роботі реляційної СУБД HIVE, що є складовою частиною DataHub
    • Знання внутрішніх IT процесів та стандартів
    • Знання і навички написання SQL/HQL скриптів.

    Окрім команди однодумців та цікавої роботи ти отримаєш:

    Стабільність:

    • офіційне працевлаштування
    • медичне страхування та страхування життя, повністю оплачене Банком
    • заробітну плату на рівні провідних ТОП-роботодавців
    • 25 днів щорічної відпустки, додаткові дні відпустки на пам’ятні події, соціальні відпустки у відповідності до законодавства України
    • щорічні перегляди заробітної плати відповідно до власної ефективності та фінансових показників Банку

     

    More
  • · 114 views · 12 applications · 19d

    Senior Data Engineer

    Ukraine · Product · 5 years of experience · English - B1
    mono — мультипродуктова fintech компанія з України. Із 2017 року мільйони людей муркочуть від наших продуктів: monobank, Experienza, Base, monoмаркет, monoбазар... Прагнемо створити ще більше для нашої екосистеми. Нумо втілювати амбітні ідеї разом! Ми в...

    mono — мультипродуктова fintech компанія з України.
    Із 2017 року мільйони людей муркочуть від наших продуктів: monobank, Experienza, Base, monoмаркет, monoбазар... Прагнемо створити ще більше для нашої екосистеми. Нумо втілювати амбітні ідеї разом!

    Ми в пошуку Senior Data Engineer із сильним інженерним бекграундом, який не боїться складних викликів і хоче впливати на архітектуру та рішення.
    Ти працюватимеш із великими обсягами даних, відповідатимеш за якість та надійність дата-платформи й поступово братимеш на себе лідерську роль у команді.
     

    Про тебе:

    — маєш досвід розробки баз даних від 5 років
    — знаєш особливості проєктування баз даних (OLTP, OLAP)
    — працюєш з ClickHouse, PostgreSQL, MongoDB
    — впевнено володієш SQL
    — маєш досвід розробки (ETL/ELT)-процесів
    — маєш досвід роботи з Kafka, Spark, Spark streeming
    — працював(-ла) з Airflow, Dbt


    Додатково зацінимо:

    — розуміння цілей і завдань бізнес-підрозділу, орієнтація на їхній результат
    — розуміння цілей, завдань і процесу моделювання
    — шариш у розробці за допомогою BI-засобів


    Довіримо тобі:

    — проєктування, розгортання та оптимізація сховищ даних
    — оптимізацію продуктивності
    — валідацію та тестування даних
    — моніторинг якості та повноти даних


    Від себе гарантуємо:

    — гідну винагороду та її регулярний перегляд за результатами
    — гнучкий графік роботи без трекерів і параної
    — можливість гібридної роботи чи повністю віддалено
    — відпустку 18 робочих днів на рік (чи 24 календарних) + 2 дні для форс-мажорів + 6 днів для навчання
    — оплачувані дей-офи за станом здоров’я — без SMS і лікарняних листів
    — корпоративні курси інглішу
    — 100% страхування здоров’я + підтримка менталочки
    — картку Platinum від monobank і пундики від наших партнерів


    🇺🇦 Підтримуємо сили оборони України власними зборами, розвиваємо культуру донатерства.
     

    More
  • · 74 views · 1 application · 19d

    Data Engineer

    Hybrid Remote · Ukraine · Product · 1 year of experience · English - B2
    У Холдингу емоцій "!FEST" ми дотримуємось принципу робити себе, місто, країну та світ кращими, тож даємо нашим працівникам змогу максимально реалізувати себе як в навиках, так і в можливостях навчатись, вдосконалюватись та досягати результатів. Ти...

    У Холдингу емоцій "!FEST" ми дотримуємось принципу робити себе, місто, країну та світ кращими, тож даємо нашим працівникам змогу максимально реалізувати себе як в навиках, так і в можливостях навчатись, вдосконалюватись та досягати результатів.

     

    Ти матимеш унікальний шанс долучитися до розробки нової дата платформи для всього Холдингу емоцій !FEST. Ми працюємо зі сучасними технологіями GCP і створюємо можливості для твого професійного зростання в галузі дата-архітектури. У нашій команді цінується відповідальний підхід, і ми завжди відкриті до обґрунтованих ініціатив та готові втілювати їх у життя!

     

    Твоїми обов'язками буде:

    - очолювати процес міграції даних в BigQuery, контролюючи весь цикл від планування до фінального запуску;

    - створювати ефективні та масштабовані схеми даних у BigQuery, використовуючи найкращі практики партиціювання та кластеризації;

    - будувати та підтримувати автоматизовані ETL/ELT-пайплайни, які є основою нашої data-стратегії;

    - впроваджувати системи контролю якості та моніторингу, які гарантують надійність наших даних;

    - постійно аналізувати та покращувати продуктивність дата-інфраструктури, шукаючи шляхи для оптимізації витрат.

     

    Що ми очікуємо від тебе?

    1. Досвід: Понад 2 роки досвіду роботи як Data Engineer у великих проєктах з даними.
    2. Моделювання та розробка: Сильні навички моделювання даних та досвід розробки ETL-процесів
    3. Технічні навички:

      - впевнене володіння SQL для написання складних та оптимізованих запитів;

      - глибоке знання Python;

      - експертиза в BigQuery (партиціонування, кластеризація, оптимізація витрат);

      - досвід роботи з Data Fusion (буде великою перевагою).

    4. Досвід роботи з GCP: Практичний досвід з сервісами Google Cloud Platform, такими як Cloud Storage, Pub/Sub, Cloud Run, Cloud Composer, Cloud Functions та Compute Engine.
    5. Глибоке розуміння та практичний досвід роботи з Apache Airflow.
    6. Знання Git та досвід впровадження CI/CD для дата-процесів.
    7. Відповідальність та проактивність: Мислиш як продакт овнер, проактивно, орієнтуєшся на результат та готовий/готова брати відповідальність за свої рішення.

    Що ми пропонуємо?

    • Конкурентну заробітну оплату; 
    • Знижки в мережі для кожного працівника 
    • Можливість працювати над цікавими та складними проектами, підтримка колег на всіх етапах роботи; 
    • Комфортний офіс, забезпечений укриттям та всім необхідним для автономної роботи під час відключень електрики та блекаутів; 
    • Цікава робота в дружній, ідейній та натхненній команді.

       

    Якщо маєш бажання розвиватися та працювати в команді професіоналів, тоді ця вакансія саме для тебе. Приєднуйся до нас!

    More
Log In or Sign Up to see all posted jobs