Jobs Data Engineer
143-
· 34 views · 2 applications · 5d
Програміст DWH
Full Remote · Ukraine · Product · 2.5 years of experience · English - A2NovaPay — міжнародний фінансовий сервіс, що входить в ГК NOVA. Ми створюємо сучасні платіжні рішення для бізнесу та мільйонів користувачів. Розвиваємо власну платіжну систему, мобільний застосунок і пропонуємо широкий спектр продуктів і послуг як офлайн...NovaPay — міжнародний фінансовий сервіс, що входить в ГК NOVA.
Ми створюємо сучасні платіжні рішення для бізнесу та мільйонів користувачів. Розвиваємо власну платіжну систему, мобільний застосунок і пропонуємо широкий спектр продуктів і послуг як офлайн — у відділеннях Нової пошти, так і онлайн.
NovaPay — це місце для справжніх профі, де інноваційні ідеї, рішення та технології формують майбутнє фінтех-індустрії.
Наразі ми запрошуємо до команди фахівця на посаду «Програміста DWH».
Наші очікування:- досвід програмування в SQL, С#, Python при розробці DWH та його елементів від 3 років;
- глибокі знання в MS SSIS, Pentaho та суміжних сервісів;
- практичний досвід роботи з MS SQL Server, PostgreSQL.
Основні завдання:
- розробка та підтримка корпоративного сховища даних (DWH);
- адміністрування та моніторинг баз даних MS SQL, забезпечення їхньої продуктивності та резервного копіювання;
- реалізація процесів інтеграції та ETL (завантаження, трансформація, вивантаження даних);
- консультаційна та технічна підтримка користувачів щодо роботи з вітринами даних: обробка запитів на дані, супровід та актуалізація вітрин;
- забезпечення якості, цілісності та актуальності даних;
- реалізація механізмів контролю та валідації даних.
Ми пропонуємо:
- роботу у інноваційній компанії в сегменті FinTech;
- можливість працювати в гібридному форматі або віддалено;
- турботу про твоє ментальне та фізичне здоров’я (медичне страхування, консультації психолога, корпоративні спортивні спільноти);
- навчання та розвиток (заняття з англійської мови, курси та тренінги для
- щорічні перегляди заробітної плати відповідно до власної ефективності;
- зустрічі з відомими спікерами у Корпоративному клубі;
- програму наставництва та підтримку кожного нового співробітника;
- можливість проявити свої таланти — ми цінуємо творчу ініціативу і підтримуємо її.
Якщо вас зацікавила вакансія та ваш досвід роботи і кваліфікація відповідають вимогам, надсилайте своє резюме відгуком на цю вакансію.
Відправляючи резюме, ви даєте згоду на обробку персональних даних компанією ТОВ «НоваПей» в рамках чинного законодавства України.
Звертаємо вашу увагу, що зворотний зв’язок на відправлене резюме надається тільки в разі позитивного рішення по подальшому розгляду вашої кандидатури.
В іншому випадку, ваші дані будуть збережені в базі резюме Компанії і ми будемо раді звернутися до вас у разі появи відповідної вакантної посади.
More -
· 86 views · 7 applications · 29d
Data Engineer в українську продуктову компанію в сфері енергетики
Full Remote · Ukraine · Product · 3 years of experience · English - A2Компанія, яка мислить категоріями гігават і кілобайт. Команда створює цифрові продукти на перетині трейдингу енергоресурсів і технологій, які змінюють ринок в режимі реального часу. Масштаби говорять самі за себе: • 122.6+ млрд кВт·год — у найбільшій...Компанія, яка мислить категоріями гігават і кілобайт. Команда створює цифрові продукти на перетині трейдингу енергоресурсів і технологій, які змінюють ринок в режимі реального часу.
Масштаби говорять самі за себе:
• 122.6+ млрд кВт·год — у найбільшій приватній балансуючій групі (електроенергія + газ)
• 34.4+ млрд кВт·год — обсяг продажів електроенергії у 2024
• 1.8 млрд м³ — обсяги торгівлі газом
• 2.5 млрд кВт·год — імпортно-експортні операції за рік
• 23 країни — географія присутності
• 75 фахівців, а офіси — в Україні, Швейцарії, Хорватії та Нідерландах.
► Ця позиція зосереджена на підтримці якості даних у data lake. Оскільки функція Data Quality в компанії лише зароджується, то ви отримаєте можливість не просто підтримувати наявні процеси, а й брати участь у їх розбудові з нуля.
► Позиція вимагає вміння самостійно розбиратися в причинах помилок у ETL-процесах, досвід з базами даних, Python та Spark.
More -
· 66 views · 5 applications · 26d
Data Engineer
Office Work · Ukraine (Kyiv) · Product · 3 years of experience · English - None MilTech 🪖Ми українська miltech компанія, яка створює високотехнологічні продукти для результативного виконання завдань у сфері оборони, від концепції до серійного виробництва. Основний фокус команди - це забезпечення найкращої якості та ефективності продукту,...Ми українська miltech компанія, яка створює високотехнологічні продукти для результативного виконання завдань у сфері оборони, від концепції до серійного виробництва.
Основний фокус команди - це забезпечення найкращої якості та ефективності продукту, шляхом тестування апаратних та програмних компонентів БПЛА.
Майбутні обов'язки:- Розробка та підтримка масштабованої архітектури сховища даних з урахуванням надійності та зростання навантажень.
- Побудова та підтримка процесів збору, трансформації й доставки даних із різнорідних джерел (бази даних, зовнішні сервіси, таблиці, файли).
- Автоматизація та оркестрація потоків даних з використанням сучасних інструментів.
- Контроль якості даних, впровадження перевірок та систем спостереження за станом пайплайнів.
- Управління метаданими, управління доступами та документування технічних рішень.
- Тісна взаємодія з аналітичними командами та бізнес-стейкхолдерами, підтримка існуючих аналітичних рішень і вітрин.
Вимоги до спеціаліста:
- Досвід у сфері data engineering понад 3 роки.
- Відмінне знання реляційних баз даних та вміння працювати зі складними SQL-запитами.
- Практичний досвід використання Apache Airflow для керування пайплайнами даних, включно з повними та інкрементальними завантаженнями.
- Розуміння внутрішньої логіки СУБД: написання серверної логіки, аналіз продуктивності, робота з індексами та оптимізація виконання запитів.
- Використання Python як інструменту для обробки та інтеграції даних; досвід роботи з бібліотеками для аналізу, HTTP-запитів та підключення до БД.
- Закінчена вища освіта у сфері ІТ, прикладної математики або суміжних напрямів.
Додатковою перевагою буде: - Налаштування контролю коректності та повноти даних на різних етапах обробки.
- Робота з контейнерами та системами керування ними у продакшн-середовищі.
- Досвід використання хмарної інфраструктури для зберігання та обробки великих обсягів інформації.
Компанія пропонує:- Офіційне працевлаштування.
- Сучасний офіс у Києві.
- Щорічна оплачувана відпустка — 25 календарних дні.
- Медичне страхування після завершення випробувального терміну.
- Можливість долучитись до створення сучасних розробок та вирішення нетривіальних завдань.
- Можливість отримати бронювання, за наявності військово-облікових документів.
- Вмотивована команда однодумців, яких об'єднує спільна мета.
-
· 151 views · 12 applications · 16d
Data Engineer
Full Remote · Countries of Europe or Ukraine · Product · 2 years of experience · English - A2Kiss My Apps — компанія-платформа, що об’єднує 7 продуктових вертикалей та 30+ AI-first продуктів, 100+ мільйонів користувачів, власну екосистему аналітичних, пеймент та маркетингових розробок. Продукти KMA це світові лідери в нішах utilities, lifestyle,...Kiss My Apps — компанія-платформа, що об’єднує 7 продуктових вертикалей та 30+ AI-first продуктів, 100+ мільйонів користувачів, власну екосистему аналітичних, пеймент та маркетингових розробок.
Продукти KMA це світові лідери в нішах utilities, lifestyle, health&fitness — AI Remodel, Printer, Botan, Calorie Counter і не тільки. Це продукти, що займають топ-1 місця App Store й вирішують потреби комʼюніті з сотень мільйонів людей.
Наш темп — це наш competitive advantage. KMA зростає мінімум х3 рік до року — і ми шукаємо Data Engineer, того/ту, хто допоможе масштабуватись ще швидше.
Коротко про роль: Ти відповідатимеш за розвиток дата-платформи, забезпечуючи аналітиків якісними даними. Це можливість працювати з поточним стеком, готуючи ґрунт для впровадження сучасних підходів у аналітику.
Твої задачі:
- Підтримка та оптимізація ETL-процесів.
- Створення нових інтеграцій та забезпечення якості даних для звітності.
- Налагодження процесів моніторингу та алертів пайплайнів.
- Оптимізація агрегації даних відповідно до бізнес потреб у співпраці з аналітиками.
Що очікуємо від тебе:
- Досвід роботи на позиції Data Engineer від 2х років.
- Впевнене володіння Python або Scala / Java та глибокі знання SQL.
- Практичний досвід роботи з PySpark та Databricks.
- Розуміння принципів роботи з Docker та Kubernetes.
- Досвід роботи з хмарними провайдерами.
- Орієнтація на роботу з сучасним Data-стеком та готовність швидко опановувати нові інструменти.
Буде перевагою:
- Наявність сертифікацій (Databricks, Microsoft Certified Data Engineer, AWS/GCP).
- Досвід роботи з Airflow, Airbyte та Terraform.
- Розуміння роботи з Kafka та стрімінговими даними.
Тобі до нас, якщо шукаєш:
- Роботу з сучасним Data-стеком та можливість впливати на архітектуру платформи.
- Участь у проєкт, що стрімко розвиваються, з фокусом на AI та ML.
- Середовище, де цінується автономність та бізнес-орієнтованість.
Ми пропонуємо:
- Формат роботи на твій вибір: fully remote з будь-якої точки вільного світу, а також доступ до одного з наших офісів за бажанням (Київ, Варшава).
- Умови, завдяки яким ти можеш сфокусуватись на перформансі: гідна винагорода, що відповідає твоїм скілам та досвіду. А також ми забезпечуємо технікою незалежно від формату роботи та географії.
- Кар’єрне зростання через дію: 80%+ усіх leads в Kiss My Apps ще 2-3 роки тому були світчерами. Твій вплив тут не визначається роками в резюме — він визначається тим, як швидко ти навчаєшся, береш відповідальність та береш оунершіп за власну карʼєру.
- Well-being програма: ми турбуємося про ментальне здоровʼя команди, а також проводимо онлайн-заняття з йоги двічі на тиждень.
- Розвиток та професійна реалізація: проводимо внутрішні speaking clubs англійською з нейтів спікером, а також надаємо можливість виступати на внутрішніх та зовнішніх івентах від Kiss My Apps. Крім цього ти матимеш річний бюджет на покриття до 50% професійних конференцій, освітніх подій та івентів.
- Додаткові бенефіти, де ти обираєш: надаємо фіксований бюджет на рік з якого ти сам обираєш, яку статтю витрат покрити: 50% від медстрахування, психотерапії, спорту чи стоматології. А також 40 днів оплачуваного відпочинку та лікарняних без привʼязки до дат.
- Опора в умовах війни: забезпечуємо кожного всім необхідним для безперебійної роботи, системно підтримуємо Сили Оборони та долучаємось до ініціатив із відновлення України.
Важливо: є опція бронювання для військовозобов’язаних після випробувального терміну, за умови наявності належно оформлених військово-облікових документів та внутрішніх можливостей компанії, визначених відповідно до вимог чинного законодавства.
Як виглядає hiring процес:
- Інтро з рекрутером
- Технічна співбесіда з Tech Lead та Data Engineer
- Фінальна співбесіда з CTO
Якщо ти хочеш будувати сучасну дата-платформу та долучитись до впровадження AI-технологій — let’s launch the future together 💫
More -
· 66 views · 7 applications · 23d
Middle Data Engineer
Part-time · Full Remote · Ukraine · 3 years of experience · English - B1Шукаємо в команду Middle-спеціаліста для розвитку та підтримки пайплайну збору даних та їх обробки. Роль передбачає роботу з існуючим рішенням (рефакторинг, стабілізація), розвиток архітектури БД під поточні потреби та операційне керування оператором бази...Шукаємо в команду Middle-спеціаліста для розвитку та підтримки пайплайну збору даних та їх обробки. Роль передбачає роботу з існуючим рішенням (рефакторинг, стабілізація), розвиток архітектури БД під поточні потреби та операційне керування оператором бази даних.
Обов’язки
- Побудова та розвиток архітектури бази даних під поточні потреби проєкту; рефакторинг існуючого рішення.
- Розробка та підтримка рішень для збору даних.
- Обробка, очищення, нормалізація даних та підготовка до подальшого використання.
- Завантаження (імпорт) даних у бази даних та внутрішні системи.
- Контроль якості.
- Виконання невеликих задач з SQL (запити, оновлення, перевірки даних).
Керування data-оператором: постановка задач, контроль виконання, перевірка результатів.
Вимоги- Комерційний досвід роботи з Python.
- Впевнене використання Pandas для обробки та аналізу даних.
- Розуміння підходів до data extraction (HTML-структури, пагінація, сесії/кукі, rate limits).
- Розуміння підходів до динамічного збору даних (робота з JS-сторінками, очікування/таймаути, стабільність сценаріїв).
- Розуміння підходів до порівняння/матчингу даних для виявлення дублів (similarity, нормалізація рядків, пороги, правила матчинг-логіки).
- Базові–середні знання SQL (SELECT/UPDATE, робота з таблицями).
- Розуміння принципів роботи з базами даних.
- Уважність до деталей, вміння працювати з великими обсягами даних.
- Вміння підтримувати існуючі скрипти та швидко розбиратися в нових задачах.
- Англійська B1+
Українська В2+
Буде плюсом- Досвід HTML-парсингу з BeautifulSoup.
- Досвід автоматизації та динамічного парсингу з Selenium.
- Досвід використання fuzzywuzzy / rapidfuzz (або аналогів) для порівняння/матчингу та виявлення дублів у даних/БД.
- Базовий досвід або розуміння Computer Vision.
- Досвід автоматизації рутинних процесів (пайплайни, моніторинг, оркестрація).
- Робота з proxy та ротацією проксі.
- Досвід роботи з AWS.
More
-
· 107 views · 6 applications · 18d
Senior Data Engineer (неповна зайнятість)
Part-time · Full Remote · Countries of Europe or Ukraine · Product · 2 years of experience · English - A2Kiss My Apps — компанія-платформа, що об’єднує 7 продуктових вертикалей та 30+ AI-first продуктів, 100+ мільйонів користувачів, власну екосистему аналітичних, пеймент та маркетингових розробок. Продукти KMA це світові лідери в нішах utilities, lifestyle,...Kiss My Apps — компанія-платформа, що об’єднує 7 продуктових вертикалей та 30+ AI-first продуктів, 100+ мільйонів користувачів, власну екосистему аналітичних, пеймент та маркетингових розробок.
Продукти KMA це світові лідери в нішах utilities, lifestyle, health&fitness — AI Remodel, Printer, Botan, Calorie Counter і не тільки. Це продукти, що займають топ-1 місця App Store й вирішують потреби комʼюніті з сотень мільйонів людей.
Наш темп — це наш competitive advantage. KMA зростає мінімум х3 рік до року — і ми шукаємо Data Engineer на Part-Time, того/ту, хто допоможе масштабуватись ще швидше.
Коротко про роль: Ти відповідатимеш за розвиток дата-платформи, забезпечуючи аналітиків якісними даними. Це можливість працювати з поточним стеком, готуючи ґрунт для впровадження сучасних підходів у аналітику.
Твої задачі:
- Підтримка та оптимізація ETL-процесів.
- Створення нових інтеграцій та забезпечення якості даних для звітності.
- Налагодження процесів моніторингу та алертів пайплайнів.
- Оптимізація агрегації даних відповідно до бізнес потреб у співпраці з аналітиками.
Що очікуємо від тебе:
- Досвід роботи на позиції Data Engineer від 2х років.
- Впевнене володіння Python або Scala / Java та глибокі знання SQL.
- Практичний досвід роботи з PySpark та Databricks.
- Розуміння принципів роботи з Docker та Kubernetes.
- Досвід роботи з хмарними провайдерами.
- Орієнтація на роботу з сучасним Data-стеком та готовність швидко опановувати нові інструменти.
Буде перевагою:
- Наявність сертифікацій (Databricks, Microsoft Certified Data Engineer, AWS/GCP).
- Досвід роботи з Airflow, Airbyte та Terraform.
- Розуміння роботи з Kafka та стрімінговими даними.
Тобі до нас, якщо шукаєш:- Роботу з сучасним Data-стеком та можливість впливати на архітектуру платформи.
- Участь у проєкт, що стрімко розвиваються, з фокусом на AI та ML.
- Середовище, де цінується автономність та бізнес-орієнтованість.
Ми пропонуємо:
Формат роботи на твій вибір: fully remote з будь-якої точки вільного світу, а також доступ до одного з наших офісів за бажанням (Київ, Варшава).
Як виглядає hiring процес:
- Інтро з рекрутером
- Технічна співбесіда з Tech Lead та Data Engineer
- Фінальна співбесіда з CTO
Якщо ти хочеш будувати сучасну дата-платформу та долучитись до впровадження AI-технологій — let’s launch the future together 💫
More -
· 49 views · 14 applications · 18d
Data Engineer / Data Analyst (Airflow, Kafka, Python, PostgreSQL)
Countries of Europe or Ukraine · Product · 3 years of experience · English - NoneПро роль AM-BITS шукає Data Engineer / Data Analyst для проєкту з великою агро-компанією. Роль поєднує побудову та підтримку надійних пайплайнів обробки даних і базову аналітику для перевірки якості, узгодження бізнес-логіки та підготовки даних до...Про роль
AM-BITS шукає Data Engineer / Data Analyst для проєкту з великою агро-компанією. Роль поєднує побудову та підтримку надійних пайплайнів обробки даних і базову аналітику для перевірки якості, узгодження бізнес-логіки та підготовки даних до подальшого використання. Основний фокус — розробка ETL/ELT-процесів, які приймають файли різних форматів, трансформують дані та завантажують їх у PostgreSQL.
Основні задачі та відповідальність
- Розробляти та підтримувати data pipelines для завантаження даних з файлів різних форматів (наприклад: CSV/Excel/JSON/XML/Parquet/GeoJSON/тощо) в PostgreSQL.
- Реалізовувати ETL/ELT-процеси: парсинг, нормалізація, збагачення, агрегації, підготовка вітрин/таблиць під бізнес-запити.
- Оркеструвати пайплайни в Apache Airflow: DAG-и, розклади, залежності, ретраї, алерти, backfill, параметризація.
- Використовувати Python для парсінгу, трансформацій, інтеграцій, автоматизації та перевірок даних.
- Працювати з Apache Kafka: розробка протоколу повідомлень, читання/публікація повідомлень, інтеграція подій у пайплайни, практичні знання топіків/партицій/консюмер-груп.
- Налаштовувати та оптимізувати завантаження у PostgreSQL: індекси, типи даних, транзакції, batch load, upsert/merge-логіка.
- Запроваджувати data quality перевірки: контроль повноти/валідності/унікальності, дедуплікація, контроль схем, ведення логів.
- Співпрацювати з бізнес-стейкхолдерами та командою проєкту: уточнення вимог, інтерпретація даних, документування джерел і трансформацій.
- Підтримувати документацію (опис джерел, мапінги, правила трансформацій, SLA для пайплайнів).
Вимоги (must-have)
- Досвід роботи з Python (функціональне та ООП програмування обробки та трансформації даних).
- Практичний досвід використання Apache Airflow (побудова DAG, базові оператори/сенсори, best practices), створення кастомізованих цепочок обробки.
- Розуміння ETL/ELT, принципів моделювання даних та життєвого циклу пайплайнів.
- Впевнена робота з PostgreSQL: SQL, проєктування таблиць, оптимізація запитів, завантаження великих обсягів.
- Розуміння Apache Kafka та комерційний досвід створення топіків та формату повідомлень.
- Розуміння різних форматів файлів та нюансів їх обробки (кодування, локалі, великі файли, інкрементальні завантаження).
Буде плюсом
- Docker, Linux, Git, CI/CD для data-проєктів.
- Досвід із data validation фреймворками
- Досвід роботи з агро-даними (поля/врожайність/техніка/елеватори/логістика) або з великими виробничими даними.
- Досвід потокової обробки (stream processing) або побудови near-real-time ingestion.
Ми пропонуємо
- Участь у реальному прикладному проєкті для агро-сектору з відчутним бізнес-ефектом.
- Прозорі задачі з фокусом на якість даних та стабільність пайплайнів.
- Командну взаємодію з інженерами та аналітиками AM-BITS, можливість впливати на технічні рішення.
-
· 17 views · 0 applications · 17d
MDM Engineer (Data Governance / Integration)
Office Work · Ukraine (Kyiv) · Product · 3 years of experience · English - B2Ми шукаємо досвідченого та самостійного MDM Engineer-а (Data Governance & Integration), який буде вести повний цикл впровадження MDM-платформи, проєктувати модель даних, забезпечувати інтеграції з ключовими корпоративними системами (ERP/CRM/BI), керувати...Ми шукаємо досвідченого та самостійного MDM Engineer-а (Data Governance & Integration), який буде вести повний цикл впровадження MDM-платформи, проєктувати модель даних, забезпечувати інтеграції з ключовими корпоративними системами (ERP/CRM/BI), керувати середовищами та релізами, а також будувати політики доступу до даних і готувати компанію до відповідності ISO27701 та GDPR.
Обов’язки:
- Вести повний цикл впровадження MDM-платформи: від проєктування моделі даних (сутності, атрибути, довідники, ієрархії) до стабільної роботи в продакшні.
- Налаштовувати та кастомізувати MDM разом з інтеграторами: правила якості даних, дедуплікація, “survivorship”, валідації та трансформації.
- Будувати інтеграції MDM з ERP/CRM/BI: API/ETL/подієві механізми, узгодження схем і мапінгу, обробка помилок, ретраї та ідемпотентність.
- Керувати релізами та середовищами: планування змін, оновлення, CI/CD для конфігурацій, моніторинг продуктивності, інцидент-менеджмент.
- Адмініструвати доступи та ролі (RBAC/ABAC), проводити аудит і звітність; підтримувати й розвивати платформу MDM.
- Розробляти та впроваджувати групові політики доступу до даних у межах компанії.
- Готувати компанію до ISO27701/GDPR: gap-аналіз, впровадження необхідних контролів, документування процесів і відповідностей.
Обов’язкові вимоги:
- 3+ років досвіду у MDM/Data Management/інтеграціях.
- Практичний досвід з MDM-платформами (наприклад, Informatica MDM, Semarchy xDM, SAP MDG, IBM InfoSphere MDM або аналогами).
- Сильні навички моделювання даних та роботи з довідниками, правилами якості, дедуплікації та “survivorship”.
- Досвід інтеграцій з ERP/CRM/BI (API/ETL/черги), взаємодія з інтеграторами.
- Управління доступами та аудит у системах даних; знання принципів RBAC/ABAC.
- Операційний досвід релізів і підтримки середовищ; CI/CD для даних/конфігурацій.
- Розуміння вимог ISO27701/GDPR: PII, мінімізація даних, прав суб’єктів, журналювання.
- Впевнене володіння SQL; досвід мапінгу даних та трансформацій.
- Автоматизація на Python/bash; вміння швидко розбиратися з новими інструментами.
- Комунікаційні навички, самостійність, фокус на результаті.
Бажано:
- Досвід із хмарними дата-сервісами (Azure Purview/ADF/Synapse, AWS Glue, GCP Data Catalog).
- Інтеграції з SAP/Oracle/Microsoft Dynamics, CRM (Salesforce, Dynamics), BI (Power BI, Tableau).
- Досвід з інструментами Data Governance/Data Catalog (Collibra, Atlan, Azure Purview).
- Робота з чергами/шинами (Kafka, RabbitMQ) та API Gateway/Management.
- Налаштування політик доступу на рівні груп/ролей у великих організаціях.
- Досвід побудови метрик якості даних та спостережуваності.
-
· 247 views · 63 applications · 17d
Data Engineer
Full Remote · Worldwide · Product · 1 year of experience · English - None Ukrainian Product 🇺🇦Привіт! Ми — OBRIO, продуктова IT-компанія з екосистеми Genesis, яка створює Nebula — найбільший spirituality бренд із 70M+ користувачів. OBRIO — це люди й амбіції, з яких усе почалося. Уяви: від 8 ентузіастів ми виросли у команду з 300+ професіоналів,...Привіт! 👋
Ми — OBRIO, продуктова IT-компанія з екосистеми Genesis, яка створює Nebula — найбільший spirituality бренд із 70M+ користувачів.
OBRIO — це люди й амбіції, з яких усе почалося. Уяви: від 8 ентузіастів ми виросли у команду з 300+ професіоналів, які щодня створюють рішення, що впливають на життя людей у всьому світі.
- За 6+ років Nebula виросла з ідеї у платформу і стала частиною життя мільйонів користувачів у понад 60 країнах.
- На платформі працюють 1500+ експертів, які допомагають користувачам знайти відповіді.
- Наш щорічний маркетинговий бюджет вимірюється десятками мільйонів доларів — і це дає нам можливість масштабуватись глобально.
- І все це — завдяки команді, яка стала справжнім lovemark брендом із найвищим рівнем eNPS у ніші за Forbes.
Зараз ми прагнемо стати першим українським юнікорном у своїй ніші, створюючи продукт, that will have our names inscribed in history.
Щоб здійснити це, ми шукаємо Data Engineer, який/-а допоможе нам масштабувати Data-функцію, виходити на нові ринки та будувати фундамент для data-driven рішень у продукті, яким користуються мільйони людей.
Саме команда визначає масштаб того, що ми будуємо.
Чому наша команда — твоє сильне середовище?
Понад 90 інженерів працюють над продуктом для 70+ мільйонів користувачів. Більшість команди — Middle+ та Senior спеціалісти.
Ти працюватимеш разом з Daniyil Yolkin, який очолює команду та разом з нею будує Data-напрям як стратегічну функцію бізнесу.
Які виклики тебе чекають?- Побудова сучасної data-системи для продукту з мільйонами користувачів.
- Робота в умовах швидких змін бізнесу.
- Активна взаємодія зі стейкхолдерами — від аналітиків до продуктових команд.
Твій вплив ми бачимо в:
- Проєктуванні та побудові сучасної data-архітектури.
- Розвитку Data-функції як стратегічного ядра бізнесу.
- Забезпеченні надійних та масштабованих пайплайнів даних.
- Співпраці з аналітиками (15+ тіммейтів) та Data Engineering командою (4 тіммейти) для створення єдиного data-ландшафту.
- Формуванні культури відповідальності за дані та end-to-end результат.
Твоя робота напряму впливатиме на те, як компанія приймає рішення, масштабується та виходить на нові ринки.
Що сприяє твоєму успіху у цій ролі?- Ти маєш 1+ рік досвіду в ролі Data Engineer.
- Ти працював/-ла з Redshift, Airflow, Python, SQL.
- Ти розумієш принципи data modeling і вмієш будувати end-to-end рішення.
- Ти береш відповідальність за результат і не боїшся помилок.
- Ти вмієш чітко пояснювати свої рішення та працювати зі стейкхолдерами.
- Ти здатен/-на казати «ні», коли це необхідно для якості продукту.
- Тобі цікаво рости в продукті, експериментувати та вчитись через практику.
Що ти отримаєш в OBRIO?
- Свободу формату роботи. Київ, Львів, Варшава або remote.
- Команду сеньйорів. Середовище інтелектуального виклику та швидкого росту.
- Спорт без лімітів. OBRIO Wellness Club або компенсація занять.
- Spiritual Allowance. Бюджет на відновлення ресурсу та балансу.
- Баланс і відновлення. 20 днів відпустки, необмежені лікарняні, sabbatical.
- Соціальну відповідальність. Благодійні ініціативи та підтримка важливих проєктів.
- Круті колаборації. Партнерства з топовими українськими брендами.
- Інвестиції в розвиток. Бюджет на навчання, менторство, конференції (IT Arena, DOU Days, Web Summit тощо).
Як виглядає наша hiring journey?
Initial Screening with TA Specialist ➡️ Team Interview ➡️ Final Check with CTO ➡️ Job Offer
- У нашому боті ти можеш познайомитись з TA командою, процесами та порекомендувати друзів за бонуси.
Більше про нас у соцмережах:
Instagram
LinkedInDo Big. Be Great!
More -
· 38 views · 5 applications · 17d
Product/Project Lead (Apps, Buying Infrastructure)
Full Remote · Worldwide · 2 years of experience · English - NoneAdfinem — міжнародна медіабаїнгова компанія. З 2018 року ми доводимо, що Google Ads — це максимально стабільне джерело профіту, якщо за ним стоїть сильна інфраструктура та команда. Ми не просто заливаємо трафік, ми формуємо систему та технічні рішення, що...Adfinem — міжнародна медіабаїнгова компанія. З 2018 року ми доводимо, що Google Ads — це максимально стабільне джерело профіту, якщо за ним стоїть сильна інфраструктура та команда. Ми не просто заливаємо трафік, ми формуємо систему та технічні рішення, що дозволяють комплексно масштабуватись та досягати потрібних цілей.
Наразі шукаємо Product/Project Lead, який стане «архітектором» наших внутрішніх процесів та нових продуктів. Нам потрібна людина, яка бачить за цифрами систему, вміє прогнозувати ризики та знає, як перетворити динамічний робочий процес на масштабований конвеєр.
Твоїми задачами будуть:
- Управління життєвим циклом інфраструктури: від автоматизації фарму акаунтів до контролю виживання мобільних додатків.
- Кросфункціональний Project Management: налагодження взаємодії між баїнгом, розробкою, дизайнерами, технічними та операційними фахівцями.
- R&D та масштабування: аналіз потенціалу нових вертикалей та джерел трафіку, розробка стратегій виходу на нові GEO у зв’язці з CEO та Head of Media Buying. Запуск та менеджмент нових проектів.
- Оптимізація ресурсів та Unit-економіка: оцінка ефективності розподілення розхідників, бюджетів та додатків. Пошук ботлнеків та їх усунення.
- Автоматизація: побудова чітких пайплайнів постановки ТЗ, щоб командні запити закривалися максимально оперативно без втрати якості.
- Аналітика: систематичне відстеження KPI відділів, аналіз ефективності роботи співробітників та процесів, розробка та впровадження оптимизацій
Стратегічний контроль: ведення ключових домовленостей, фіксація Follow-up’ів та контроль виконання стратегічних цілей компанії.
Чекаємо тебе в команді, якщо ти маєш:
- Досвід 2+ роки на позиції Project/Product Manager у нішах (Gambling/Betting/Nutra/інші суміжні маркетингові вертикалі)
- Розуміння процесів закупки трафіку, сфери арбітражу, маркетингових принципів
- Сильні аналітичні здібності та уважність до деталей
- Досвід роботи з аналітичними та проєктними інструментами (Google Analytics, таск менеджери тощо)
Лідерські якості та готовність брати на себе відповідальність
Що ми пропонуємо:
- Конкурентну з/п, що зростає пропорційно до досвіду
- Кар’єрний ліфт: можливість вирости до C-level (COO/CPO) всередині екосистеми.
- Одну з найсильніших команд на ринку в напрямку роботи Google Ads, постійну підтримку колег
- Віддалений формат роботи з вибудованою комунікацією
- Відкритість до змін та твоїх ініціатив. Надання бюджетів на необхідні робочі ресурси
- Оплачувану відпустку та лікарняний
- Відкриту корпоративну культуру без бюрократії та жорстких обмежень.
More -
· 44 views · 3 applications · 16d
Data Engineer (Snowflake + Cloud DWH) — Nature-based Solutions to $5000
Full Remote · Ukraine · 5 years of experience · English - B2Про місію та клієнта Ми будуємо хмарну платформу даних для одного з найбільших у світі environmental nonprofit, який інвестує в лісовідновлення та Nature-based Solutions. Це не “черговий DWH заради DWH” — дані тут напряму впливають на рішення, прозорість,...Про місію та клієнта
Ми будуємо хмарну платформу даних для одного з найбільших у світі environmental nonprofit, який інвестує в лісовідновлення та Nature-based Solutions. Це не “черговий DWH заради DWH” — дані тут напряму впливають на рішення, прозорість, звітність і масштабування програм.
Про ініціативу
Проект DWH — це сучасна cloud data platform, де Snowflake — ключова аналітична база, а інженерна команда створює single source of truth з різних систем клієнта.
Працюємо короткими релізами 1–3 місяці, з чіткими SLA, пріоритизацією та реальним ownership.
Зазвичай у роботі паралельно 1–2 потоки задач — важливі комунікація та прогнозованість.
Важливо: ми шукаємо сильного data engineer з реальним досвідом Snowflake + DWH/ETL. Досвід Azure бажаний, але не обов’язковий, якщо є сильна база й готовність швидко добрати Azure-частину.
Технології (core)
- DWH / ELT: Snowflake (SQL, modeling, performance basics)
- Orchestration / ingestion: Azure Data Factory + Azure Functions (Python) (або аналоги — якщо вмієш переносити підхід)
- CI/CD: Azure DevOps pipelines + автоматизація деплою Snowflake-об’єктів (DL Sync/аналог)
- Джерела: CRM/ERP (D365/Salesforce), MS SQL, API-інтеграції, CDC-концепти
- Формати: JSON, Parquet
Команда: Lead Data Engineering / Tech Lead, PM, DevOps, QA. BI team на стороні партнера.
Чим ти будеш займатись
- Проєктувати та будувати інкрементальні та full-refresh ELT пайплайни (ADF + Functions → Snowflake).
- Розробляти та оптимізувати Snowflake SQL для DWH і вітрин (Star schema, incremental patterns, базовий SCD2).
- Писати production-ready Python для ingestion/обробки/API (pagination, retries, error handling, логування, конфіги, secrets).
- Вбудовувати data quality: freshness, completeness, duplicates, late-arriving data, контроль інкрементів.
- Підтримувати CI/CD та промоут змін між dev/test/prod.
- Працювати прозоро й передбачувано: status → risk → options → next step.
По готовності (з часом), переймеш на себе всю відповідальність за успіх проекту та комунікації з партнером.
Кого шукаємо (Must-have)
- 5+ років у Data Engineering / DWH / ETL.
- Snowflake SQL у продакшені: CTE, window functions, COPY INTO, MERGE.
- Incremental load (watermarks / merge pattern) + базовий SCD2 (effective dating, current flag).
- Python production level: API-інтеграції (pagination/retries/errors), логування, конфіги, секрети, підготовка даних до ELT (validation/normalization).
- Розуміння DWH modeling (fact/dimension, star schema, joins і їх performance implications).
- Досвід з міграціями/великими даними/складними джерелами — плюс.
- Бажано: базове розуміння OpenMetadata (або аналогів catalog/lineage) та data governance.
Azure-досвід (ADF/Functions) — бажаний, але якщо ти сильний у Snowflake + DWH/ETL і маєш cloud-бекграунд, ми готові розглянути та “дотягнути” Azure-частину в онбордингу.
Nice-to-have
- PySpark (DataFrame API, joins, aggregations; розуміння distributed processing).
- Досвід з D365/Salesforce, MS SQL, API ingestion, CDC-патернами.
Data governance/security basics, досвід з observability.
Як у нас проходить відбір (чесно і практично)
*Етап 1 — Intro + короткий тех-скрин (40–60 хв, Zoom):
контекст проєкту, очікування, короткий сценарій по SQL/Python + питання по комунікації та підходу до задач.*Етап 2 — Technical deep-dive (75–90 хв, з Tech Lead + інженером):
live-SQL (CTE/window + incremental/SCD2), кейс по пайплайну/інтеграції, підхід до якості та деплою.
Без test task — симулюємо реальну роботу під час інтерв’ю.Що пропонуємо
- Компенсація від $4500 (обговорюємо під рівень і очікування).
- Місійний проєкт, де дані мають реальний вплив.
- Сильне середовище: Tech Lead/архітектурні практики, “дорослий” delivery.
- Гнучкий формат: віддалено / за кордоном / офіс (опційно).
- Бронювання за потреби (за наявності квот і відповідності процесам).
- Техніка та підтримка home-office (за домовленістю).
- 36 paid days off/рік: 20 vacation + UA holidays (та суміжні дні, де застосовно).
- Monthly benefit cafeteria $25 (навчання/ментальне здоров’я тощо).
- Performance review: ongoing feedback, перегляд компенсації після 12 міс, далі щорічно.
- Paid sabbatical після 5 років (ми за здорові та довгострокові відносини)
Готовий/готова?
Надсилай CV або LinkedIn — і в повідомленні коротко:
- які проєкти зі Snowflake робив(ла) у продакшені,
- чи був досвід ETL/DWH modeling + incremental loads,
- з чим працював(ла) для orchestration/ingestion (ADF/Airflow/інші).
Слава Україні і незламності нашої нації!
More -
· 46 views · 5 applications · 16d
Data Engineer
Hybrid Remote · Ukraine · Product · 2 years of experience · English - B2Компанія 3Shape спеціалізується на розробці 3D-сканерів і програмних рішень, які дають змогу фахівцям у сфері стоматології та слухопротезування надавати першокласні послуги широкому колу пацієнтів. Історія 3Shape розпочалася у 2000 році. Сьогодні ми є...Компанія 3Shape спеціалізується на розробці 3D-сканерів і програмних рішень, які дають змогу фахівцям у сфері стоматології та слухопротезування надавати першокласні послуги широкому колу пацієнтів.
Історія 3Shape розпочалася у 2000 році. Сьогодні ми є флагманом стоматологічної галузі та пишаємося успіхами, яких досягли за 25 років.
Головний офіс 3Shape розташований у Копенгагені. Команди розробників працюють у Данії, Україні та Північній Македонії, а виробничі потужності компанії зосереджені в Польщі.
Нині ми обслуговуємо клієнтів у понад 100 країнах світу та об’єднуємо понад 2200 співробітників із більш ніж 50 національностей. Окрім європейських офісів, маємо представництва в Азії, Північній і Південній Америці, що дає змогу бути ближчими до наших клієнтів у всьому світі.
3Shape — це про стабільність, розвиток і можливість працювати з інноваціями світового рівня. Готові стати частиною нашої команди?
Про роль
Ми шукаємо технічно сильного та бізнес-орієнтованого Data Engineer, який допоможе нам будувати й масштабувати корпоративну стратегію роботи з клієнтськими даними в 3Shape. Ви станете частиною нашої BI-команди в Україні та працюватимете у щоденній співпраці з командою в Данії, впливаючи на ключові data‑ініціативи.
Це пріоритетний напрямок із високою підтримкою керівництва, а команда (Data Analyst, Data Engineer, Data Architect та Manager) активно зростає. Тож у вас буде реальна можливість впливати на технічні рішення й формувати майбутню data‑платформу 3Shape.
Зони відповідальності
- Проєктувати та будувати масштабовані, надійні та ефективні дата‑пайплайни й рішення для забезпечення даними всієї організації та ключових стейкхолдерів.
- Розробляти аналітичні рішення, що забезпечують цінні інсайти для клієнтів та кінцевих користувачів.
- Брати участь у розвитку BI‑стратегії, платформ, застосунків і процесів.
- Розбудовувати та оптимізувати Data Warehouse спільно з BI‑розробниками.
Підтримувати та навчати користувачів BI‑рішень.
Що допоможе вам успішно виконувати роль
- 2+ роки досвіду Data Engineer або на схожій позиції.
- Глибоке розуміння Big Data, ETL/ELT та концепцій Business Intelligence.
- Відмінні знання Python, PySpark та SQL.
- Досвід роботи з Databricks, Apache Spark і Delta Lake.
- Досвід роботи з Git, GitHub Actions та Terraform.
- Розуміння data warehouse та data modelling.
- Хороше знання технологій зберігання даних і хмарних дата‑рішень.
- Досвід взаємодії зі стейкхолдерами в рамках проєктів.
- Інтерес до best practices у розробці та прагнення писати якісний, надійний код.
- Здатність ефективно працювати у швидкому середовищі.
- Буде плюсом: знання Snowflake, Azure Data Factory, Azure SQL Database.
Плюсом також буде: досвід роботи за agile‑методологіями (Scrum та ін.).
Бути частиною нашої команди означає:
- Змістовну роботу, що допомагає формувати майбутнє стоматології
- Роботу в професійному та дружньому середовищі
- Постійний професійний розвиток і зростання
- Здоровий баланс між роботою та особистим життям
- Соціальний пакет: 24 робочі дні щорічної відпустки, медичне страхування, оплачувані лікарняні та лікарняні для догляду за дитиною, декретні відпустки для матерів і батьків тощо
- Сніданки та обіди в офісі
- Комфортні умови праці в сучасному офісі в UNIT.City
- Періодичні відрядження до Західної Європи
- Можливість стати частиною успіху, який 3Shape створює вже понад 25 років
Відчуваєте, що ця роль вам підходить? Надсилайте резюме — будемо раді познайомитися!
More -
· 54 views · 4 applications · 16d
Data Engineer Tech Lead
Full Remote · Ukraine · Product · 3 years of experience · English - B2ПриватБанк — є найбільшим банком України та одним з найбільш інноваційних банків світу. Займає лідируючі позиції за всіма фінансовими показниками в галузі та складає близько чверті всієї банківської системи країни. Ми шукаємо Data Engineer Tech Lead,...
ПриватБанк — є найбільшим банком України та одним з найбільш інноваційних банків світу. Займає лідируючі позиції за всіма фінансовими показниками в галузі та складає близько чверті всієї банківської системи країни.
Ми шукаємо Data Engineer Tech Lead, який прагне працювати в динамічному середовищі та розділяє цінності взаємної довіри, відкритості та ініціативності.
Ми прагнемо знайти цілеспрямованого професіонала, орієнтованого на якість та результат.
Основні обов’язки:
- Розробка конвеєрів даних на основі Apache Airflow
- Розробка та впровадження операторів та хуків до Apache Airflow
- Підтримка ETL/ELT процесів
- Співпраця з командою Data-Engineering, менторство по питаннях розробки на Python
- Формування стандартів розробки
Основні вимоги:
- Експертиза в Data-архітектурі: Глибоке знання Python для розробки та оптимізації складних ETL/ELT процесів, а також досвід проектування стійких систем обробки даних на базі Apache Airflow
- 3+ років досвіду роботи з Python, знання основних бібліотек та фреймворків екосистеми Python
- Вміння писати чистий структурований код, використовуючи відомі практики. Вміння використовувати процедурний та ООП стиль. Вміння та досвід покривати свій код тестами
- Розробка інтеграцій: Досвід створення високонадійних кастомних операторів та хуків на базі AirFlow для взаємодії з різноманітними джерелами даних (SQL, NoSQL, Data Warehouses), зокрема MongoDB, Postgres, Amazon Redshift та SAP IQ
- Оптимізація роботи з БД: Висока експертиза у роботі з базами даних, що включає розуміння специфіки різних рушіїв (Engines), оптимізацію складних запитів та ефективний менеджмент з’єднань при великих обсягах даних
- Впровадження стандартів: Здатність формувати та впроваджувати системні стандарти розробки (Code Style, тести, документація), забезпечуючи високу якість та підтримуваність коду всієї команди
- Технічне лідерство та менторство: Досвід активної співпраці з Data-інженерами, готовність виступати ментором у питаннях Python-розробки та проводити глибокий Code Review для підвищення технічного рівня команди
Своїм співробітникам ми пропонуємо:
- Офіційне працевлаштування та 24+4 календарних дні відпустки
- Конкурентну заробітну плату
- Бонуси відповідно до політики компанії
- Медичне страхування та корпоративний мобільний зв’язок
- Корпоративне навчання
- Корпоративна фінансова допомога у критичних ситуаціях
ПриватБанк відкритий до підтримки та працевлаштування ветеранів i ветеранок, а також людей з інвалідністю.
Для нас неприйнятною є дискримінація через стан здоров’я та фізичні можливості, вік, расову чи етнічну належність, стать і сімейний стан.
Ми готові навчати ветеранів та кандидатів з інвалідністю без досвіду роботи в банківській сфері.
More -
· 142 views · 9 applications · 16d
Data Engineer
Full Remote · Worldwide · Product · 2 years of experience · English - B2Контекст проєкту Ми побудували acquisition-систему під Instagram-воронку: масово підписуємося на цільову аудиторію, щоб користувачі бачили сповіщення, заходили в профіль і рухались по воронці. Критична точка цієї системи — таргети (Instagram IDs). Якщо...Контекст проєкту
Ми побудували acquisition-систему під Instagram-воронку: масово підписуємося на цільову аудиторію, щоб користувачі бачили сповіщення, заходили в профіль і рухались по воронці. Критична точка цієї системи — таргети (Instagram IDs).
Якщо таргети “брудні” (не те гео/мова, багато ботів, дублікати, старі або неактивні акаунти) — падає конверсія і ефективність, і масштабування стає нестабільним.
Тому ми будуємо якісний data-layer для таргетів: стандарти якості, автоматичний контроль партій, дедуп, versioning, сегментація, і поступовий перехід ключових процесів в in-house.
Як ми організовуємо команду
Ми розділяємо цю зону на дві ролі:
1) Data Engineer — data quality + пайплайни + storage + автоматизація
Твоя зона — зробити так, щоб дані були чисті, контрольовані, відтворювані і готові до масштабування.
2) Data Analyst — тести/конверсія/метрики
Аналітик буде постійно тестувати різні конфіги фільтрів і джерел, рахувати конверсію та давати тобі фідбек.
Кого ми шукаємо (Data Engineer — data quality & pipelines)
Сильний Data Engineer, який любить порядок у даних і вміє будувати системи, де:
- є quality rules,
- є автоматична перевірка партій,
- є історія: що купили → як відфільтрували → що отримали на виході,
- є контроль дублікатів / freshness / сегментів,
- і все це працює стабільно на мільйонних обсягах.
Це роль не про “порахувати конверсію” (це буде робити аналітик), а про інженерну якість і масштабованість data-процесів.
Технічні навички (must have)
- Python: скрипти, ETL, обробка великих файлів/партій, автоматизація QA.
- SQL: витяги, перевірки, контроль якості, побудова таблиць/мартів.
- Досвід із data workflows: дедуп, versioning, “single source of truth”, інкременти, контроль помилок.
- Розуміння storage/архітектури під великі обсяги (з файлів → до Postgres/BigQuery або іншого DWH).
- Практичний підхід до data cleaning: правила, пороги, red flags, автоматичні “pass/fail”.
Плюсами будуть:
- досвід з парсингом
- будь-який досвід з ML/AI для класифікації/фільтрації (бот/не бот, мова, підозрілі патерни).
Soft skills
- Самостійність: “прийшов → розібрався → стандартизував → автоматизував → задеплоїв → підтримує”.
- Уміння працювати в хаосі і швидко робити з нього систему.
- Вміння комунікувати з аналітиком: брати результати тестів і переводити їх у зміни правил/пайплайнів.
За що ти будеш відповідати (end-to-end, але в межах Data Engineering)
1) Data quality стандарт і правила
- Зафіксувати, що таке якісний таргет: must-have / nice-to-have / red flags.
Описати acceptance criteria для партій і фільтрів.
Результат: у нас є один стандарт, який можна версіонувати й повторювати.
2) Автоматичний QA партій
- Скрипти/процедури: дедуп, freshness, базові сигнали бот-ності, перевірки формату.
Автоматичне рішення “прийняти/відхилити/попросити заміну”.
Результат: ми не “віримо постачальнику”, ми перевіряємо і контролюємо.
3) Storage + versioning + історія результатів
- Побудувати структуру: source → batch → filter_version → output сегменти.
Зберігати історію, щоб можна було швидко відповісти: “чому зараз гірше / що змінилось”.
Результат: дані не губляться, не дублюються, і зрозуміло, що дає результат.
4) Ключові фільтри та “змінні” якості аудиторії
- Визначати ключові фільтри, які реально впливають на якість аудиторії (гео/мова/активність/патерни/сигнали бот-ності тощо).
- Формалізувати “змінні” (features/signals) і правила, за якими будується фільтрація: пороги, пріоритети, комбінації правил, винятки.
Підтримувати ці правила як версіоновану систему: оновлення → перевірка → деплой.
Результат: фільтрація працює не “на око”, а як керована система правил, яку можна швидко змінювати і масштабувати.
5) Перехід критичних частин в in-house
Там, де це дає контроль якості / швидкість / економіку: фільтрація, нормалізація, дедуп, частково парсинг.
Результат: менше залежності від підрядників, більше стабільності.
Як виглядає взаємодія з Data Analyst (щоб було прозоро)
Аналітик:
- запускає A/B тести фільтрів/джерел,
- рахує конверсію і дає висновки,
- формує рекомендації “який фільтр/джерело краще”.
Ти:
- береш ці рекомендації,
- переводиш у зміни правил/пайплайнів/QA,
- робиш rollout/rollback,
- і забезпечуєш стабільність.
Якщо ти читаєш це і думаєш: “Нарешті нормальна задача — навести порядок у даних, зробити стандарти й автоматичний контроль, і побудувати систему, яка витримує масштаб” — пиши. Ми не шукаємо “спокійного підтримувальника існуючого процесу”. Ми будуємо data-фундамент, який прямо впливає на масштаб і гроші.
More -
· 89 views · 13 applications · 11d
Data Engineer (Airflow)
Ukraine · Product · 2 years of experience · English - NoneХочете розвивати IT-продукт, яким користуються всі українці? Впливати на архітектуру з величезним навантаженням? Шукаємо Data Engineer з Python/Airflow у відому компанію. ТОП-умови, бенефіти, страхування, проект про який буде приємно розповідати. ...Хочете розвивати IT-продукт, яким користуються всі українці?
Впливати на архітектуру з величезним навантаженням?
Шукаємо Data Engineer з Python/Airflow у відому компанію.
ТОП-умови, бенефіти, страхування, проект про який буде приємно розповідати.
Responsibilities:
– Проєктування, оптимізація та підтримка кластера Apache Airflow і Python-коду для оркестрації даних
-Розробка логіки та підтримка ETL-процесів (збір, трансформація, завантаження даних)
– Проєктування інтеграційної взаємодії між системами, створення сервісів для інтеграції та обміну даними
– Оптимізація продуктивності процесів обробки даних, виявлення та усунення вузьких місць
– Співпраця з аналітиками та розробниками для забезпечення якісної доставки данихRequirements:
– Apache Airflow: створення DAG’ів, налаштування операторів, моніторинг та оптимізація продуктивності
– Досвід роботи з Python ( акцент на бекенд та інтеграційні рішення) від 2х років
– Bash, Docker, DBT, GitLab CI/CD (автоматизація процесів, деплой, оптимізація пайплайнів)
– MS SQL Server та PostgreSQL (написання складних SQL-запитів, оптимізація, створення процедур і функцій)Буде плюсом:
– Досвід роботи з Apache Spark (розподілена обробка великих масивів даних)
– Знання інструментів Big Data або хмарних платформ (AWS/GCP/Azure)
– Розуміння принципів DataOps і CI/CDWe offer:
• Високонавантажені системи з реальними викликами масштабування
More
• Сучасний стек та свобода технологічних рішень
• Можливість впливати на архітектуру продуктів, якими користуються мільйони
Професійно:
• Менторство від сеньйорів з досвідом enterprise-рішень
• Компенсація додаткових витрат, пов’язаних з робочими завданнями, здійснюються до внутрішніх політик компаній
• Медичне страхування та страхування життя
• Корпоративні знижки від партнерів Nova
• Підтримка ментального здоровʼя. Можливість безоплатних консультацій з корпоративним психологом
• Соціальна відповідальність та волонтерський рух «Свої для своїх»
• Клуби за інтересами: біговий, шаховий та інші ініціативи для натхнення
• Соціальні відпустки та компенсації відповідно до КЗпП України