Jobs Data Engineer

162
  • · 159 views · 15 applications · 23d

    Data Engineer

    Full Remote · Countries of Europe or Ukraine · Product · 2 years of experience · English - A2
    Kiss My Apps — компанія-платформа, що об’єднує 7 продуктових вертикалей та 30+ AI-first продуктів, 100+ мільйонів користувачів, власну екосистему аналітичних, пеймент та маркетингових розробок. Продукти KMA це світові лідери в нішах utilities, lifestyle,...

    Kiss My Apps — компанія-платформа, що об’єднує 7 продуктових вертикалей та 30+ AI-first продуктів, 100+ мільйонів користувачів, власну екосистему аналітичних, пеймент та маркетингових розробок.

    Продукти KMA це світові лідери в нішах utilities, lifestyle, health&fitness — AI Remodel, Printer, Botan, Calorie Counter і не тільки. Це продукти, що займають топ-1 місця App Store й вирішують потреби комʼюніті з сотень мільйонів людей.


    Наш темп — це наш competitive advantage. KMA зростає мінімум х3 рік до року — і ми шукаємо Data Engineer, того/ту, хто допоможе масштабуватись ще швидше.


    Коротко про роль: Ти відповідатимеш за розвиток дата-платформи, забезпечуючи аналітиків якісними даними. Це можливість працювати з поточним стеком, готуючи ґрунт для впровадження сучасних підходів у аналітику.
     

    Твої задачі:

    • Підтримка та оптимізація ETL-процесів.
    • Створення нових інтеграцій та забезпечення якості даних для звітності.
    • Налагодження процесів моніторингу та алертів пайплайнів.
    • Оптимізація агрегації даних відповідно до бізнес потреб у співпраці з аналітиками.
       

    Що очікуємо від тебе:

    • Досвід роботи на позиції Data Engineer від 2х років.
    • Впевнене володіння Python або Scala / Java та глибокі знання SQL.
    • Практичний досвід роботи з PySpark та Databricks.
    • Розуміння принципів роботи з Docker та Kubernetes.
    • Досвід роботи з хмарними провайдерами.
    • Орієнтація на роботу з сучасним Data-стеком та готовність швидко опановувати нові інструменти.
       

    Буде перевагою:

    • Наявність сертифікацій (Databricks, Microsoft Certified Data Engineer, AWS/GCP).
    • Досвід роботи з Airflow, Airbyte та Terraform.
    • Розуміння роботи з Kafka та стрімінговими даними.

    Тобі до нас, якщо шукаєш:

    • Роботу з сучасним Data-стеком та можливість впливати на архітектуру платформи.
    • Участь у проєкт, що стрімко розвиваються, з фокусом на AI та ML.
    • Середовище, де цінується автономність та бізнес-орієнтованість.
       

    Ми пропонуємо:

    • Формат роботи на твій вибір: fully remote з будь-якої точки вільного світу, а також доступ до одного з наших офісів за бажанням (Київ, Варшава).
    • Умови, завдяки яким ти можеш сфокусуватись на перформансі: гідна винагорода, що відповідає твоїм скілам та досвіду. А також ми забезпечуємо технікою незалежно від формату роботи та географії.
    • Кар’єрне зростання через дію: 80%+ усіх leads в Kiss My Apps ще 2-3 роки тому були світчерами. Твій вплив тут не визначається роками в резюме — він визначається тим, як швидко ти навчаєшся, береш відповідальність та береш оунершіп за власну карʼєру.
    • Well-being програма: ми турбуємося про ментальне здоровʼя команди, а також проводимо онлайн-заняття з йоги двічі на тиждень.
    • Розвиток та професійна реалізація: проводимо внутрішні speaking clubs англійською з нейтів спікером, а також надаємо можливість виступати на внутрішніх та зовнішніх івентах від Kiss My Apps. Крім цього ти матимеш річний бюджет на покриття до 50% професійних конференцій, освітніх подій та івентів.
    • Додаткові бенефіти, де ти обираєш: надаємо фіксований бюджет на рік з якого ти сам обираєш, яку статтю витрат покрити: 50% від медстрахування, психотерапії, спорту чи стоматології. А також 40 днів оплачуваного відпочинку та лікарняних без привʼязки до дат.
    • Опора в умовах війни: забезпечуємо кожного всім необхідним для безперебійної роботи, системно підтримуємо Сили Оборони та долучаємось до ініціатив із відновлення України.


    Важливо: є опція бронювання для військовозобов’язаних після випробувального терміну, за умови наявності належно оформлених військово-облікових документів та внутрішніх можливостей компанії, визначених відповідно до вимог чинного законодавства.
     

    Як виглядає hiring процес:

    • Інтро з рекрутером
    • Технічна співбесіда з Tech Lead та Data Engineer
    • Фінальна співбесіда з CTO
       

    Якщо ти хочеш будувати сучасну дата-платформу та долучитись до впровадження AI-технологій — let’s launch the future together 💫

    More
  • · 40 views · 5 applications · 24d

    Product/Project Lead (Apps, Buying Infrastructure)

    Full Remote · Worldwide · 2 years of experience · English - None
    Adfinem — міжнародна медіабаїнгова компанія. З 2018 року ми доводимо, що Google Ads — це максимально стабільне джерело профіту, якщо за ним стоїть сильна інфраструктура та команда. Ми не просто заливаємо трафік, ми формуємо систему та технічні рішення, що...

    Adfinem — міжнародна медіабаїнгова компанія. З 2018 року ми доводимо, що Google Ads — це максимально стабільне джерело профіту, якщо за ним стоїть сильна інфраструктура та команда. Ми не просто заливаємо трафік, ми формуємо систему та технічні рішення, що дозволяють комплексно масштабуватись та досягати потрібних цілей.

    Наразі шукаємо Product/Project Lead, який стане «архітектором» наших внутрішніх процесів та нових продуктів. Нам потрібна людина, яка бачить за цифрами систему, вміє прогнозувати ризики та знає, як перетворити динамічний робочий процес на масштабований конвеєр.

     

    Твоїми задачами будуть:

    • Управління життєвим циклом інфраструктури: від автоматизації фарму акаунтів до контролю виживання мобільних додатків.
    • Кросфункціональний Project Management: налагодження взаємодії між баїнгом, розробкою, дизайнерами, технічними та операційними фахівцями.
    • R&D та масштабування: аналіз потенціалу нових вертикалей та джерел трафіку, розробка стратегій виходу на нові GEO у зв’язці з CEO та Head of Media Buying. Запуск та менеджмент нових проектів.
    • Оптимізація ресурсів та Unit-економіка: оцінка ефективності розподілення розхідників, бюджетів та додатків. Пошук ботлнеків та їх усунення.
    • Автоматизація: побудова чітких пайплайнів постановки ТЗ, щоб командні запити закривалися максимально оперативно без втрати якості.
    • Аналітика: систематичне відстеження KPI відділів, аналіз ефективності роботи співробітників та процесів, розробка та впровадження оптимизацій
    • Стратегічний контроль: ведення ключових домовленостей, фіксація Follow-up’ів та контроль виконання стратегічних цілей компанії.

       

    Чекаємо тебе в команді, якщо ти маєш:

    • Досвід 2+ роки на позиції Project/Product Manager у нішах (Gambling/Betting/Nutra/інші суміжні маркетингові вертикалі)
    • Розуміння процесів закупки трафіку, сфери арбітражу, маркетингових принципів  
    • Сильні аналітичні здібності та уважність до деталей
    • Досвід роботи з аналітичними та проєктними інструментами (Google Analytics, таск менеджери тощо)
    • Лідерські якості та готовність брати на себе відповідальність

       

    Що ми пропонуємо:

    • Конкурентну з/п, що зростає пропорційно до досвіду
    • Кар’єрний ліфт: можливість вирости до C-level (COO/CPO) всередині екосистеми.
    • Одну з найсильніших команд на ринку в напрямку роботи Google Ads, постійну підтримку колег 
    • Віддалений формат роботи з вибудованою комунікацією
    • Відкритість до змін та твоїх ініціатив. Надання бюджетів на необхідні робочі ресурси
    • Оплачувану відпустку та лікарняний
    • Відкриту корпоративну культуру без бюрократії та жорстких обмежень.

     

    More
  • · 290 views · 71 applications · 24d

    Data Engineer

    Full Remote · Worldwide · Product · 1 year of experience · English - None Ukrainian Product 🇺🇦
    Привіт! Ми — OBRIO, продуктова IT-компанія з екосистеми Genesis, яка створює Nebula — найбільший spirituality бренд із 70M+ користувачів. OBRIO — це люди й амбіції, з яких усе почалося. Уяви: від 8 ентузіастів ми виросли у команду з 300+ професіоналів,...

    Привіт! 👋

    Ми — OBRIO, продуктова IT-компанія з екосистеми Genesis, яка створює Nebula — найбільший spirituality бренд із 70M+ користувачів.

    OBRIO — це люди й амбіції, з яких усе почалося. Уяви: від 8 ентузіастів ми виросли у команду з 300+ професіоналів, які щодня створюють рішення, що впливають на життя людей у всьому світі.

    • За 6+ років Nebula виросла з ідеї у платформу і стала частиною життя мільйонів користувачів у понад 60 країнах.
    • На платформі працюють 1500+ експертів, які допомагають користувачам знайти відповіді.
    • Наш щорічний маркетинговий бюджет вимірюється десятками мільйонів доларів — і це дає нам можливість масштабуватись глобально.
    • І все це — завдяки команді, яка стала справжнім lovemark брендом із найвищим рівнем eNPS у ніші за Forbes.
       

    Зараз ми прагнемо стати першим українським юнікорном у своїй ніші, створюючи продукт, that will have our names inscribed in history.

    Щоб здійснити це, ми шукаємо Data Engineer, який/-а допоможе нам масштабувати Data-функцію, виходити на нові ринки та будувати фундамент для data-driven рішень у продукті, яким користуються мільйони людей.

    Саме команда визначає масштаб того, що ми будуємо.

    Чому наша команда — твоє сильне середовище?

    Понад 90 інженерів працюють над продуктом для 70+ мільйонів користувачів. Більшість команди — Middle+ та Senior спеціалісти.

    Ти працюватимеш разом з Daniyil Yolkin, який очолює команду та разом з нею будує Data-напрям як стратегічну функцію бізнесу.

    Які виклики тебе чекають?

    • Побудова сучасної data-системи для продукту з мільйонами користувачів.
    • Робота в умовах швидких змін бізнесу.
    • Активна взаємодія зі стейкхолдерами — від аналітиків до продуктових команд.
       

    Твій вплив ми бачимо в:

    • Проєктуванні та побудові сучасної data-архітектури.
    • Розвитку Data-функції як стратегічного ядра бізнесу.
    • Забезпеченні надійних та масштабованих пайплайнів даних.
    • Співпраці з аналітиками (15+ тіммейтів) та Data Engineering командою (4 тіммейти) для створення єдиного data-ландшафту.
    • Формуванні культури відповідальності за дані та end-to-end результат.

    Твоя робота напряму впливатиме на те, як компанія приймає рішення, масштабується та виходить на нові ринки.

    Що сприяє твоєму успіху у цій ролі?

    • Ти маєш 1+ рік досвіду в ролі Data Engineer.
    • Ти працював/-ла з Redshift, Airflow, Python, SQL.
    • Ти розумієш принципи data modeling і вмієш будувати end-to-end рішення.
    • Ти береш відповідальність за результат і не боїшся помилок.
    • Ти вмієш чітко пояснювати свої рішення та працювати зі стейкхолдерами.
    • Ти здатен/-на казати «ні», коли це необхідно для якості продукту.
    • Тобі цікаво рости в продукті, експериментувати та вчитись через практику.
       

    Що ти отримаєш в OBRIO?

    • Свободу формату роботи. Київ, Львів, Варшава або remote.
    • Команду сеньйорів. Середовище інтелектуального виклику та швидкого росту.
    • Спорт без лімітів. OBRIO Wellness Club або компенсація занять.
    • Spiritual Allowance. Бюджет на відновлення ресурсу та балансу.
    • Баланс і відновлення. 20 днів відпустки, необмежені лікарняні, sabbatical.
    • Соціальну відповідальність. Благодійні ініціативи та підтримка важливих проєктів.
    • Круті колаборації. Партнерства з топовими українськими брендами.
    • Інвестиції в розвиток. Бюджет на навчання, менторство, конференції (IT Arena, DOU Days, Web Summit тощо).

    Як виглядає наша hiring journey?

    Initial Screening with TA Specialist ➡️ Team Interview ➡️ Final Check with CTO ➡️ Job Offer

    • У нашому боті ти можеш познайомитись з TA командою, процесами та порекомендувати друзів за бонуси.

    Більше про нас у соцмережах:
    Instagram
    LinkedIn

    Do Big. Be Great!

    More
  • · 18 views · 0 applications · 24d

    MDM Engineer (Data Governance / Integration)

    Office Work · Ukraine (Kyiv) · Product · 3 years of experience · English - B2
    Ми шукаємо досвідченого та самостійного MDM Engineer-а (Data Governance & Integration), який буде вести повний цикл впровадження MDM-платформи, проєктувати модель даних, забезпечувати інтеграції з ключовими корпоративними системами (ERP/CRM/BI), керувати...

    Ми шукаємо досвідченого та самостійного MDM Engineer-а (Data Governance & Integration), який буде вести повний цикл впровадження MDM-платформи, проєктувати модель даних, забезпечувати інтеграції з ключовими корпоративними системами (ERP/CRM/BI), керувати середовищами та релізами, а також будувати політики доступу до даних і готувати компанію до відповідності ISO27701 та GDPR.

     

    Обов’язки:

    • Вести повний цикл впровадження MDM-платформи: від проєктування моделі даних (сутності, атрибути, довідники, ієрархії) до стабільної роботи в продакшні.
    • Налаштовувати та кастомізувати MDM разом з інтеграторами: правила якості даних, дедуплікація, “survivorship”, валідації та трансформації.
    • Будувати інтеграції MDM з ERP/CRM/BI: API/ETL/подієві механізми, узгодження схем і мапінгу, обробка помилок, ретраї та ідемпотентність.
    • Керувати релізами та середовищами: планування змін, оновлення, CI/CD для конфігурацій, моніторинг продуктивності, інцидент-менеджмент.
    • Адмініструвати доступи та ролі (RBAC/ABAC), проводити аудит і звітність; підтримувати й розвивати платформу MDM.
    • Розробляти та впроваджувати групові політики доступу до даних у межах компанії.
    • Готувати компанію до ISO27701/GDPR: gap-аналіз, впровадження необхідних контролів, документування процесів і відповідностей.

     

    Обов’язкові вимоги:

    • 3+ років досвіду у MDM/Data Management/інтеграціях.
    • Практичний досвід з MDM-платформами (наприклад, Informatica MDM, Semarchy xDM, SAP MDG, IBM InfoSphere MDM або аналогами).
    • Сильні навички моделювання даних та роботи з довідниками, правилами якості, дедуплікації та “survivorship”.
    • Досвід інтеграцій з ERP/CRM/BI (API/ETL/черги), взаємодія з інтеграторами.
    • Управління доступами та аудит у системах даних; знання принципів RBAC/ABAC.
    • Операційний досвід релізів і підтримки середовищ; CI/CD для даних/конфігурацій.
    • Розуміння вимог ISO27701/GDPR: PII, мінімізація даних, прав суб’єктів, журналювання.
    • Впевнене володіння SQL; досвід мапінгу даних та трансформацій.
    • Автоматизація на Python/bash; вміння швидко розбиратися з новими інструментами.
    • Комунікаційні навички, самостійність, фокус на результаті.

     

    Бажано:

    • Досвід із хмарними дата-сервісами (Azure Purview/ADF/Synapse, AWS Glue, GCP Data Catalog).
    • Інтеграції з SAP/Oracle/Microsoft Dynamics, CRM (Salesforce, Dynamics), BI (Power BI, Tableau).
    • Досвід з інструментами Data Governance/Data Catalog (Collibra, Atlan, Azure Purview).
    • Робота з чергами/шинами (Kafka, RabbitMQ) та API Gateway/Management.
    • Налаштування політик доступу на рівні груп/ролей у великих організаціях.
    • Досвід побудови метрик якості даних та спостережуваності.
    More
  • · 91 views · 6 applications · 25d

    Data Engineer

    Full Remote · Ukraine · Product · 2 years of experience · English - None
    Компанія шукає досвідченого спеціаліста з Microsoft SQL Server для участі у розробці та підтримці високонавантажених систем. Якщо ви глибоко розумієтесь на внутрішній архітектурі SQL Server, вмієте оптимізувати продуктивність запитів та маєте досвід...

    Компанія шукає досвідченого спеціаліста з Microsoft SQL Server для участі у розробці та підтримці високонавантажених систем. Якщо ви глибоко розумієтесь на внутрішній архітектурі SQL Server, вмієте оптимізувати продуктивність запитів та маєте досвід побудови ETL-процесів — будемо раді бачити вас у нашій команді!

     

    Вимоги до кандидата:

    • Досвід роботи з MS SQL Server від 3 років.
    • Робота з версіями SQL Server 2016 і вище.
    • Досвід супроводу високонавантажених або критично важливих систем.
    • Глибоке розуміння внутрішньої роботи SQL Server (query processor, execution plan, tempdb, buffer pool, indexes, statistics).
    • Досвід оптимізації запитів, процедур, індексів, аналіз execution plans.
    • Вміння налаштовувати та моніторити продуктивність СУБД.
    • Досвід створення ETL-процесів з використанням SSIS, T-SQL або сторонніх інструментів (наприклад, Airflow).
    • Знання job-менеджменту: SQL Agent Jobs, планувальники, сповіщення.
    • Досвід автоматизації завдань (знання Python буде перевагою).

     

    Технічний стек:

    • MS SQL Server,
    • T-SQL (рівень Advanced),
    • SSMS, SSIS, SQL Profiler, Query Store,
    • Git,
    • Python (бажано).

     

    Основні обов’язки:

    1. Розробка та підтримка складних T-SQL скриптів, збережених процедур, тригерів, функцій і представлень.
    2. Оптимізація продуктивності SQL-запитів, виявлення вузьких місць, робота з execution plans, індексами, статистикою.
    3. Проєктування та рефакторинг схем баз даних відповідно до бізнес-вимог.
    4. Підтримка та розвиток ETL-процесів, контроль якості даних, участь у побудові потоків даних.
    5. Співпраця з розробниками, аналітиками, архітекторами, участь у командних рішеннях.
    6. Налаштування моніторингу, створення алертів, звітність по стабільності та продуктивності систем.
    7. Менторство молодших фахівців, участь у code review, обмін знаннями.
    8. Документування рішень, участь у створенні внутрішніх стандартів і процедур.

     

    Ми пропонуємо:

    • Роботу над цікавими проєктами в стабільній компанії.
    • Можливість розвиватися професійно та впливати на технічні рішення.
    • Команду професіоналів та дружню атмосферу.
    • Гнучкий графік, можливість віддаленої роботи.
    • Конкурентну заробітну плату та бонуси за результатами роботи.
    More
  • · 115 views · 6 applications · 25d

    Senior Data Engineer (неповна зайнятість)

    Part-time · Full Remote · Countries of Europe or Ukraine · Product · 2 years of experience · English - A2
    Kiss My Apps — компанія-платформа, що об’єднує 7 продуктових вертикалей та 30+ AI-first продуктів, 100+ мільйонів користувачів, власну екосистему аналітичних, пеймент та маркетингових розробок. Продукти KMA це світові лідери в нішах utilities, lifestyle,...

    Kiss My Apps — компанія-платформа, що об’єднує 7 продуктових вертикалей та 30+ AI-first продуктів, 100+ мільйонів користувачів, власну екосистему аналітичних, пеймент та маркетингових розробок.

    Продукти KMA це світові лідери в нішах utilities, lifestyle, health&fitness — AI Remodel, Printer, Botan, Calorie Counter і не тільки. Це продукти, що займають топ-1 місця App Store й вирішують потреби комʼюніті з сотень мільйонів людей.


    Наш темп — це наш competitive advantage. KMA зростає мінімум х3 рік до року — і ми шукаємо Data Engineer на Part-Time, того/ту, хто допоможе масштабуватись ще швидше.


    Коротко про роль: Ти відповідатимеш за розвиток дата-платформи, забезпечуючи аналітиків якісними даними. Це можливість працювати з поточним стеком, готуючи ґрунт для впровадження сучасних підходів у аналітику.
     

    Твої задачі:

    • Підтримка та оптимізація ETL-процесів.
    • Створення нових інтеграцій та забезпечення якості даних для звітності.
    • Налагодження процесів моніторингу та алертів пайплайнів.
    • Оптимізація агрегації даних відповідно до бізнес потреб у співпраці з аналітиками.
       

    Що очікуємо від тебе:

    • Досвід роботи на позиції Data Engineer від 2х років.
    • Впевнене володіння Python або Scala / Java та глибокі знання SQL.
    • Практичний досвід роботи з PySpark та Databricks.
    • Розуміння принципів роботи з Docker та Kubernetes.
    • Досвід роботи з хмарними провайдерами.
    • Орієнтація на роботу з сучасним Data-стеком та готовність швидко опановувати нові інструменти.
       

    Буде перевагою:

    • Наявність сертифікацій (Databricks, Microsoft Certified Data Engineer, AWS/GCP).
    • Досвід роботи з Airflow, Airbyte та Terraform.
    • Розуміння роботи з Kafka та стрімінговими даними.


    Тобі до нас, якщо шукаєш:

    • Роботу з сучасним Data-стеком та можливість впливати на архітектуру платформи.
    • Участь у проєкт, що стрімко розвиваються, з фокусом на AI та ML.
    • Середовище, де цінується автономність та бізнес-орієнтованість.
       

    Ми пропонуємо:

    • Формат роботи на твій вибір: fully remote з будь-якої точки вільного світу, а також доступ до одного з наших офісів за бажанням (Київ, Варшава).

       

    Як виглядає hiring процес:

    • Інтро з рекрутером
    • Технічна співбесіда з Tech Lead та Data Engineer
    • Фінальна співбесіда з CTO
       

    Якщо ти хочеш будувати сучасну дата-платформу та долучитись до впровадження AI-технологій — let’s launch the future together 💫

    More
  • · 56 views · 15 applications · 25d

    Data Engineer / Data Analyst (Airflow, Kafka, Python, PostgreSQL)

    Countries of Europe or Ukraine · Product · 3 years of experience · English - None
    Про роль AM-BITS шукає Data Engineer / Data Analyst для проєкту з великою агро-компанією. Роль поєднує побудову та підтримку надійних пайплайнів обробки даних і базову аналітику для перевірки якості, узгодження бізнес-логіки та підготовки даних до...

    Про роль

     

    AM-BITS шукає Data Engineer / Data Analyst для проєкту з великою агро-компанією. Роль поєднує побудову та підтримку надійних пайплайнів обробки даних і базову аналітику для перевірки якості, узгодження бізнес-логіки та підготовки даних до подальшого використання. Основний фокус — розробка ETL/ELT-процесів, які приймають файли різних форматів, трансформують дані та завантажують їх у PostgreSQL.

     

    Основні задачі та відповідальність

    • Розробляти та підтримувати data pipelines для завантаження даних з файлів різних форматів (наприклад: CSV/Excel/JSON/XML/Parquet/GeoJSON/тощо) в PostgreSQL.
    • Реалізовувати ETL/ELT-процеси: парсинг, нормалізація, збагачення, агрегації, підготовка вітрин/таблиць під бізнес-запити.
    • Оркеструвати пайплайни в Apache Airflow: DAG-и, розклади, залежності, ретраї, алерти, backfill, параметризація.
    • Використовувати Python для парсінгу, трансформацій, інтеграцій, автоматизації та перевірок даних.
    • Працювати з Apache Kafka: розробка протоколу повідомлень, читання/публікація повідомлень, інтеграція подій у пайплайни, практичні знання топіків/партицій/консюмер-груп.
    • Налаштовувати та оптимізувати завантаження у PostgreSQL: індекси, типи даних, транзакції, batch load, upsert/merge-логіка.
    • Запроваджувати data quality перевірки: контроль повноти/валідності/унікальності, дедуплікація, контроль схем, ведення логів.
    • Співпрацювати з бізнес-стейкхолдерами та командою проєкту: уточнення вимог, інтерпретація даних, документування джерел і трансформацій.
    • Підтримувати документацію (опис джерел, мапінги, правила трансформацій, SLA для пайплайнів).

     

    Вимоги (must-have)

    • Досвід роботи з Python (функціональне та ООП програмування обробки та трансформації даних).
    • Практичний досвід використання Apache Airflow (побудова DAG, базові оператори/сенсори, best practices), створення кастомізованих цепочок обробки.
    • Розуміння ETL/ELT, принципів моделювання даних та життєвого циклу пайплайнів.
    • Впевнена робота з PostgreSQL: SQL, проєктування таблиць, оптимізація запитів, завантаження великих обсягів.
    • Розуміння Apache Kafka та комерційний досвід створення топіків та формату повідомлень.
    • Розуміння різних форматів файлів та нюансів їх обробки (кодування, локалі, великі файли, інкрементальні завантаження).

     

    Буде плюсом

    • Docker, Linux, Git, CI/CD для data-проєктів.
    • Досвід із data validation фреймворками 
    • Досвід роботи з агро-даними (поля/врожайність/техніка/елеватори/логістика) або з великими виробничими даними.
    • Досвід потокової обробки (stream processing) або побудови near-real-time ingestion.

     

    Ми пропонуємо

    • Участь у реальному прикладному проєкті для агро-сектору з відчутним бізнес-ефектом.
    • Прозорі задачі з фокусом на якість даних та стабільність пайплайнів.
    • Командну взаємодію з інженерами та аналітиками AM-BITS, можливість впливати на технічні рішення.
    More
  • SQL Development Team Lead

    Ukraine · Product · 3 years of experience · English - None
    Про компанію: Подорожник - найбільша мережа аптек України, яка швидко розвивається. Ми активно впроваджуємо нові технології та інновації у сфері фармації. Нашій команді необхідний фахівець, який допоможе нам структурувати та аналізувати великі обсяги...

    Про компанію: Подорожник - найбільша мережа аптек України, яка швидко розвивається. Ми активно впроваджуємо нові технології та інновації у сфері фармації. Нашій команді необхідний фахівець, який допоможе нам структурувати та аналізувати великі обсяги даних для забезпечення ефективної підтримки бізнес-рішень.

    Завдання на посаді:

    • Проєктування, розробка та оптимізація сховищ даних (DWH), що підтримують бізнес-аналітику та звітування.

    • Створення, налаштування та підтримка OLAP кубів для оптимізації аналітичної роботи та бізнес-звітності.

    • Впровадження рішень для покращення продуктивності при побудові звітів та аналізі даних на основі OLAP кубів.

    • Забезпечення коректного завантаження даних з різних джерел до OLAP кубів для підтримки аналітичних запитів.

    • Аналіз продуктивності та коректності обробки даних у кубах, пошук та виправлення помилок або неефективних запитів. Забезпечення оптимальної продуктивності DWH та OLAP рішень через налаштування індексів, оптимізацію запитів і процесів завантаження даних.

    • Забезпечення підтримки користувачів аналітичних систем та OLAP кубів, допомога у формулюванні запитів для отримання необхідної аналітики.

    • Моніторинг стану DWH та OLAP кубів, вирішення технічних проблем і забезпечення їхньої стабільної роботи.

     

    Вимоги до кандидата:

    • Реляційні бази даних: Глибокі знання SQL і роботи з реляційними базами даних (MS SQL Server, Oracle, MySQL).

    • DWH технології: Розуміння архітектури сховищ даних і кращих практик їхнього побудови та підтримки.

    • OLAP технології: Досвід роботи з OLAP кубами, включаючи розробку, налаштування і оптимізацію.

    • ETL процеси: Досвід роботи з інструментами для вилучення, трансформації та завантаження (ETL) даних у DWH.

    • Оптимізація запитів: Знання методів оптимізації SQL запитів і налаштування індексів для підвищення продуктивності баз даних.

     

    Ми пропонуємо:

    • Бронювання працівників;
    • Конкурентну заробітну плату;
    • Можливість професійного розвитку та навчання;
    • Гнучкий графік роботи та можливість працювати віддалено;
    • Роботу в команді професіоналів, націлених на досягнення спільних цілей.

       

    More
  • · 68 views · 8 applications · 30d

    Middle Data Engineer

    Part-time · Full Remote · Ukraine · 3 years of experience · English - B1
    Шукаємо в команду Middle-спеціаліста для розвитку та підтримки пайплайну збору даних та їх обробки. Роль передбачає роботу з існуючим рішенням (рефакторинг, стабілізація), розвиток архітектури БД під поточні потреби та операційне керування оператором бази...

    Шукаємо в команду Middle-спеціаліста для розвитку та підтримки пайплайну збору даних та їх обробки. Роль передбачає роботу з існуючим рішенням (рефакторинг, стабілізація), розвиток архітектури БД під поточні потреби та операційне керування оператором бази даних.

     

    Обов’язки

    • Побудова та розвиток архітектури бази даних під поточні потреби проєкту; рефакторинг існуючого рішення.
    • Розробка та підтримка рішень для збору даних.
    • Обробка, очищення, нормалізація даних та підготовка до подальшого використання.
    • Завантаження (імпорт) даних у бази даних та внутрішні системи.
    • Контроль якості.
    • Виконання невеликих задач з SQL (запити, оновлення, перевірки даних).
    • Керування data-оператором: постановка задач, контроль виконання, перевірка результатів.


      Вимоги 

    • Комерційний досвід роботи з Python.
    • Впевнене використання Pandas для обробки та аналізу даних.
    • Розуміння підходів до data extraction (HTML-структури, пагінація, сесії/кукі, rate limits).
    • Розуміння підходів до динамічного збору даних (робота з JS-сторінками, очікування/таймаути, стабільність сценаріїв).
    • Розуміння підходів до порівняння/матчингу даних для виявлення дублів (similarity, нормалізація рядків, пороги, правила матчинг-логіки).
    • Базові–середні знання SQL (SELECT/UPDATE, робота з таблицями).
    • Розуміння принципів роботи з базами даних.
    • Уважність до деталей, вміння працювати з великими обсягами даних.
    • Вміння підтримувати існуючі скрипти та швидко розбиратися в нових задачах.
    • Англійська B1+ 
    • Українська В2+


      Буде плюсом

    • Досвід HTML-парсингу з BeautifulSoup.
    • Досвід автоматизації та динамічного парсингу з Selenium.
    • Досвід використання fuzzywuzzy / rapidfuzz (або аналогів) для порівняння/матчингу та виявлення дублів у даних/БД.
    • Базовий досвід або розуміння Computer Vision.
    • Досвід автоматизації рутинних процесів (пайплайни, моніторинг, оркестрація).
    • Робота з proxy та ротацією проксі.
    • Досвід роботи з AWS.

       


     



     


     

    More
  • · 22 views · 0 applications · 30d

    Middle Oracle PL/SQL Developer

    Full Remote · Ukraine · 2 years of experience · English - None
    Project Description: Провідна міжнародна ІТ-компанія шукає Middle PL/SQL Developer для участі в розробці та впровадженні нової функціональності автоматизованої банківської системи (АБС) для провідного українського банку. Проєкт орієнтований на...

    Project Description:
    Провідна міжнародна ІТ-компанія шукає Middle PL/SQL Developer для участі в розробці та впровадженні нової функціональності автоматизованої банківської системи (АБС) для провідного українського банку. Проєкт орієнтований на масштабування та модернізацію ключових банківських модулів із використанням Oracle Database та сучасних підходів до розробки корпоративних систем. Команда працює у тісній взаємодії з бізнес-аналітиками, QA та інфраструктурними командами в міжнародному середовищі.

    Responsibilities:
    • Розробка, доопрацювання та підтримка бізнес-логіки АБС на базі Oracle Database.
    • Написання та оптимізація PL/SQL (packages, procedures, functions, triggers).
    • Аналіз та рефакторинг існуючого коду, участь у зворотній інженерії бізнес-логіки.
    • Оптимізація продуктивності SQL-запитів, участь у performance tuning та індексації.
    • Взаємодія з бізнес-аналітиками, QA та DevOps/DBA командами на етапах розробки та впровадження.
    • Підготовка функціоналу до тестування, усунення дефектів за результатами QA.
    • Участь у підготовці та підтримці технічної документації.

    Mandatory Skills:
    • Вища освіта в галузі ІТ або суміжних спеціальностей.
    • 2+ роки комерційного досвіду розробки на PL/SQL з використанням Oracle Database.
    • Практичний досвід роботи з packages, procedures, functions, triggers.
    • Навички оптимізації SQL-запитів та аналізу планів виконання (EXPLAIN PLAN, AWR/ASH — буде перевагою).
    • Досвід роботи в команді з аналітиками, тестувальниками та DBA/Support як 3-я лінія підтримки.
    • Розуміння принципів побудови корпоративних інформаційних систем.

    Nice-to-Have Skills:
    • Досвід роботи з банківськими АБС або фінансовими системами.
    • Розуміння банківських бізнес-процесів (платежі, кредити, рахунки, транзакції, звітність).
    • Досвід роботи з системами контролю версій (Git, SVN).
    • Досвід участі в міграціях або модернізації Oracle-систем (версії 11g/12c/19c).

    More
  • · 17 views · 0 applications · 4d

    Data Engineer (Analytics Engineer)

    Office Work · Ukraine · Product · 3 years of experience · English - None
    ViyarTech - місце, де IT-інновації зустрічаються з реальним виробництвом. Ми - продуктова IT-компанія в екосистемі Viyar, лідера українського ринку з виробництва меблевих деталей. Кожна лінійка нашого коду безпосередньо впливає на виробничі лінії. 180+... ViyarTech - місце, де IT-інновації зустрічаються з реальним виробництвом. 
    Ми - продуктова IT-компанія в екосистемі Viyar, лідера українського ринку з виробництва меблевих деталей. Кожна лінійка нашого коду безпосередньо впливає на виробничі лінії. 
    180+ спеціалістів ViyarTech створюють IT-рішення для повного циклу виробництва меблів - від управління сучасними цехами до веб сервісів для мільйонів українців.

    Ми шукаємо досвідченого Data Engineer (Analytics Engineer), в кроссфункціональну команду Growth.

    Важливо! Ми частина екосистеми виробничої компанії і працюємо в офісі.
     📍 Наша адреса: Бульвар Вацлава Гавела 6 (Метро Берестейська)


    Твої задачі:
    • Архітектура даних: Проєктування логічної структури сховища та налагодження зв'язків між розрізненими джерелами даних.
    • Data Pipelines: Налаштування автоматизованого збору та обробки даних (ETL/ELT) із зовнішніх сервісів та внутрішніх систем.
    • Data Quality: Впровадження системи автотестів та алертингу на аномальні значення для забезпечення високої якості даних.
    • Data Marts: Підготовка вітрин даних для обчислення бізнес-метрик та подальшої візуалізації.
    • Data Cleansing: Забезпечення цілісності та стандартизації даних на всіх етапах трансформації.
    • A/B Testing: Налаштування інструменту A/B тестування та підтримка інфраструктури для експериментів.
    Необхідна експертиза: 
    Шукаємо Data Engineer (Analytics Engineer) в команду Growth, напрям продуктова та маркетинг аналітика.Людина на цій позиції матиме значний вплив на розиток продуктів компанії, на залучення нових користувачів та бачитиме бізнес результати від своєї роботи.

    • Досвід: 3+ роки Data Engineer або Analytics Engineer.

    • SQL: (MSSQL)

    • Python: Досвід розробки пайплайнів для збору даних з маркетингових та внутрішніх API.

    • Досвід роботи з Airflow.

    • dbt: Розуміння принципів моделювання та тестування даних через dbt.

    • Cтек: MSSQL, Python, Airflow, dbt, BigQuery (GA4)


    Процес найму:
    • Інтервʼю з нашим рекрутером (онлайн, орієнтовно 30 хв)
    • Технічне інтервʼю (офлайн, орієнтовно 1 год хв)
    • Приймаємо рішення
    Пропонуємо:
    • Цікаві завдання та можливість впливати на продукт з всеукраїнським ім'ям.
    • Можливості для карʼєрного росту (матриця компетенцій).
    • Сучасна та потужна робоча техніка.
    • Соціальний пакет (24 к.д відпустки, лікарняні (50% від ставки)
    • Компенсація профільного навчання (50%), внутрішні тренінги.
    • Програма Mental Health (корпоративний психолог, нутриціолог).
    • Корпоративні знижки на продукцію компанії та партнерів (меблі, техніка, комплектуючі).
    • Знижки на харчування в ресторані компанії.
    • Бюджет на соціальну підтримку/допомогу працівникам.
    Хочеш дізнатися про нас більше?
    Сторінка компанії на DOU: https://jobs.dou.ua/companies/viyartech/vacancies/

    Наші напрямки:
    🎨 Власні 2D/3D CAD системи
    Core продукт компанії. Повний цикл — від проєктування меблів до автоматичної генерації креслень та оптимізації виробництва.

    ⚙️ Автоматизація виробництва
    Управління верстатами в реальному часі, логістика, планування, контроль якості. Інтеграція з обладнанням та IoT пристроями.

    💼 ERP системи
    Enterprise-рішення, яке інтегрує всі процеси: від закупівель до фінансів. Обробляємо мільйони транзакцій щомісяця.

    🌐 Веб-платформи
    Корпоративні сайти та внутрішні сервіси.

    🔬 R&D
    Експериментуємо з ML, інструментами AI, оптимізацією алгоритмів для виробництва.

    Залишай заявку та приєднуйся до команди, що створює майбутнє!

     

    More
  • · 58 views · 8 applications · 24d

    GTM Engineer

    Full Remote · Worldwide · Product · 3 years of experience · English - None
    Position: Go-To-Market Engineer (Remote) iSpeedToLead is the #1 real estate marketplace in the U.S. — a fast-scaling PropTech startup where speed isn’t just in the name, it’s in our DNA. We’re looking for a Go-To-Market Engineer — someone who connects...

    Position: Go-To-Market Engineer (Remote)

    iSpeedToLead is the #1 real estate marketplace in the U.S. — a fast-scaling PropTech startup where speed isn’t just in the name, it’s in our DNA.
    We’re looking for a Go-To-Market Engineer — someone who connects technology, sales, and marketing into one smooth, data-driven growth engine.


     What You’ll Do
    • Build and scale AI-powered GTM systems — from data sourcing and enrichment to outreach and conversion.
    • Operate a modern AI-driven tool stack: Clay, Instantly, Smartlead, Apollo, Zoominfo, Make/Zapier, ChatGPT, Perplexity, etc.
    • Scrape, clean, and structure data from platforms like LinkedIn, Crunchbase, Google Maps to build high-quality lead lists.
    • Use AI for enrichment and personalization — generate smart messaging, segment audiences, and score leads automatically.
    • Create and test creative outbound campaigns — experiment with new angles, hooks, and formats.
    • Write compelling outreach copy (emails, LinkedIn, scripts) that converts — with or without AI assistance. (better with prompting)
    • Analyze performance, run A/B tests, and iterate fast based on data-driven insights.
    What We Expect
    • Hands-on experience with modern GTM and AI tools — Clay, Instantly, Smartlead, Make/Zapier, Apollo, HubSpot, etc.
    • Strong grasp of data and automation — spreadsheets, APIs, databases, and scraping tools (PhantomBuster, Apify, Browse AI).
    • Creative mindset — ability to generate fresh campaign ideas, test hypotheses, and think beyond templates.
    • Solid copywriting skills — from cold emails to landing pages and AI prompt optimization.
    • Analytical and growth-oriented thinking — you see the story behind the numbers.
    • English — comfortable writing, experimenting, and collaborating with global teams.
    Nice to Have
    • Experience in B2B SaaS, PropTech, or marketplace growth.
    • Familiarity with AI agents or custom GPTs for GTM automation and research.
    • Interest in creative experimentation, personalization at scale, and AI content workflows.

    What We Offer
    • Remote-first, high-autonomy, and very high speed.
    • Competitive base + performance bonus + equity
    • A strong AI team (4 Prompt Engineers + Chief of AI) to automate prospecting, research, and follow-ups.
    • We’re okay with mistakes—we care about learning speed.
    • After 1 month, we fund any courses/trainings/coaching you want.
    • Room to grow — into recruiting, operations, or whatever drives you;

    Just do it

     

    More
Log In or Sign Up to see all posted jobs