Jobs Data Science
95-
· 39 views · 3 applications · 6d
Head of Data Science
Full Remote · Countries of Europe or Ukraine · Product · 6 years of experience · English - B2About Everstake Everstake is the largest decentralized staking provider in Ukraine and one of the top 5 blockchain validators worldwide. We help institutional and retail investors participate in staking across more than 85 blockchain networks, including...About Everstake
Everstake is the largest decentralized staking provider in Ukraine and one of the top 5 blockchain validators worldwide. We help institutional and retail investors participate in staking across more than 85 blockchain networks, including Solana, Ethereum, Cosmos, and many others. By building secure, scalable, and reliable blockchain infrastructure, we support the growth of the global Web3 ecosystem and enable the adoption of decentralized technologies worldwide.
About the Role
We are looking for a Head of Data Science to own and scale Everstake’s data science and analytics function. This is a hands-on leadership role with a strong technical focus. You will define the data science direction, lead senior-level engineers, and work closely with the CDO, product, engineering, and business teams to drive data-informed decisions across a complex Web3 infrastructure.
You will be responsible not only for analytics and modeling, but also for data architecture, orchestration, performance, reliability, and engineering standards in a fast-growing blockchain environment.
Key Responsibilities:- Own and evolve data science and analytics architecture across Everstake
- Design and maintain scalable data pipelines, metrics layers, and analytical models
- Lead technical decision-making across data platforms, BI, and orchestration
- Translate blockchain, product, and business problems into clear data solutions
- Define data standards, best practices, and development guidelines
- Review code, data models, and pipelines for quality, performance, and correctness
- Mentor senior data scientists and analysts, provide technical leadership
- Partner closely with product, backend, infrastructure, and finance teams
- Ensure data reliability, observability, and correctness in production
- Actively contribute hands-on where technical depth is required
Requirements (Must-Have):
Seniority & Leadership- 6+ years of professional experience in data-related roles
- Strong experience as a Senior / Lead Data Scientist or Analytics Engineer
- Proven ability to lead technically strong teams and initiatives
- Ability to balance hands-on execution with leadership responsibilities
Core Technical Skills
- Python — expert level (data processing, analytics, modeling, production code)
- Apache Airflow — 2–3+ years of hands-on experience
(DAG design, dependencies, retries, backfills, monitoring, failure handling)
Databases & Warehouses
- ClickHouse (performance tuning, large-scale analytics)
- PostgreSQL
- Snowflake
BI & Analytics- Power BI and/or Tableau
- Strong understanding of semantic layers, metrics definitions, and data modeling
Infrastructure & Observability- Docker
- Git
- Grafana (monitoring data pipelines and platform health)
Data & Systems Thinking
- Strong understanding of data modeling (facts, dimensions, slowly changing data)
- Experience designing KPIs and metrics that actually reflect business reality
- Ability to identify incorrect assumptions, misleading metrics, and data biases
- Experience working with high-volume, high-frequency, or near–real-time data
- Strong SQL skills and performance-oriented thinking
Blockchain / Crypto Domain (Required)- Practical experience in blockchain, crypto, or Web3 products
- Experience working with blockchain-derived datasets or crypto-financial metrics
- Ability to reason about probabilistic, noisy, and incomplete on-chain data
- Understanding of: Blockchain mechanics (validators, staking, rewards, transactions)
- Wallets, addresses, and transaction flows
- On-chain vs off-chain data
Soft Skills:- Systems and critical thinking
- Strong communication skills with technical and non-technical stakeholders
- Team-oriented mindset with high ownership and accountability
- Fluent English (B2+ or higher)
Nice-to-Have:- Experience in staking, DeFi, or blockchain infrastructure companies
- Background in analytics engineering or data platform teams
- Experience building data systems from scratch or scaling them significantly
- Familiarity with financial or yield-related metrics
- Experience working in globally distributed teams
What We Offer:- Opportunity to work on mission-critical Web3 infrastructure used globally
- Head-level role with real influence on data and technical strategy
- Fully remote work format
- Competitive compensation aligned with experience and seniority
- Professional growth in a top-tier Web3 engineering organization
- Strong engineering culture with focus on quality, ownership, and impact
-
· 27 views · 5 applications · 3d
Head of Data Science
Full Remote · Countries of Europe or Ukraine · Product · 6 years of experience · English - B2About Everstake Everstake is the largest decentralized staking provider in Ukraine and one of the top 5 blockchain validators worldwide. We help institutional and retail investors participate in staking across more than 85 blockchain networks, including...About Everstake
Everstake is the largest decentralized staking provider in Ukraine and one of the top 5 blockchain validators worldwide. We help institutional and retail investors participate in staking across more than 85 blockchain networks, including Solana, Ethereum, Cosmos, and many others. By building secure, scalable, and reliable blockchain infrastructure, we support the growth of the global Web3 ecosystem and enable the adoption of decentralized technologies worldwide.
About the Role
We are looking for a Head of Data Science to own and scale Everstake’s data science and analytics function. This is a hands-on leadership role with a strong technical focus. You will define the data science direction, lead senior-level engineers, and work closely with the CDO, product, engineering, and business teams to drive data-informed decisions across a complex Web3 infrastructure.
You will be responsible not only for analytics and modeling, but also for data architecture, orchestration, performance, reliability, and engineering standards in a fast-growing blockchain environment.
Key Responsibilities:- Own and evolve data science and analytics architecture across Everstake
- Design and maintain scalable data pipelines, metrics layers, and analytical models
- Lead technical decision-making across data platforms, BI, and orchestration
- Translate blockchain, product, and business problems into clear data solutions
- Define data standards, best practices, and development guidelines
- Review code, data models, and pipelines for quality, performance, and correctness
- Mentor senior data scientists and analysts, provide technical leadership
- Partner closely with product, backend, infrastructure, and finance teams
- Ensure data reliability, observability, and correctness in production
- Actively contribute hands-on where technical depth is required
Requirements (Must-Have):
Seniority & Leadership- 6+ years of professional experience in data-related roles
- Strong experience as a Senior / Lead Data Scientist or Analytics Engineer
- Proven ability to lead technically strong teams and initiatives
- Ability to balance hands-on execution with leadership responsibilities
Core Technical Skills
- Python — expert level (data processing, analytics, modeling, production code)
- Apache Airflow — 2–3+ years of hands-on experience
(DAG design, dependencies, retries, backfills, monitoring, failure handling)
Databases & Warehouses
- ClickHouse (performance tuning, large-scale analytics)
- PostgreSQL
- Snowflake
BI & Analytics- Power BI and/or Tableau
- Strong understanding of semantic layers, metrics definitions, and data modeling
Infrastructure & Observability- Docker
- Git
- Grafana (monitoring data pipelines and platform health)
Data & Systems Thinking
- Strong understanding of data modeling (facts, dimensions, slowly changing data)
- Experience designing KPIs and metrics that actually reflect business reality
- Ability to identify incorrect assumptions, misleading metrics, and data biases
- Experience working with high-volume, high-frequency, or near–real-time data
- Strong SQL skills and performance-oriented thinking
Blockchain / Crypto Domain (Required)- Practical experience in blockchain, crypto, or Web3 products
- Experience working with blockchain-derived datasets or crypto-financial metrics
- Ability to reason about probabilistic, noisy, and incomplete on-chain data
- Understanding of: Blockchain mechanics (validators, staking, rewards, transactions)
- Wallets, addresses, and transaction flows
- On-chain vs off-chain data
Soft Skills:- Systems and critical thinking
- Strong communication skills with technical and non-technical stakeholders
- Team-oriented mindset with high ownership and accountability
- Fluent English (B2+ or higher)
Nice-to-Have:- Experience in staking, DeFi, or blockchain infrastructure companies
- Background in analytics engineering or data platform teams
- Experience building data systems from scratch or scaling them significantly
- Familiarity with financial or yield-related metrics
- Experience working in globally distributed teams
What We Offer:- Opportunity to work on mission-critical Web3 infrastructure used globally
- Head-level role with real influence on data and technical strategy
- Fully remote work format
- Competitive compensation aligned with experience and seniority
- Professional growth in a top-tier Web3 engineering organization
- Strong engineering culture with focus on quality, ownership, and impact
-
· 154 views · 37 applications · 2d
Junior Data Scientist
Full Remote · Worldwide · English - B2As a Junior Data Scientist, you will contribute to the development and delivery of data science products, working alongside senior data scientists. You will be involved in implementing and refining supervised learning, bandit algorithms, and generative AI...As a Junior Data Scientist, you will contribute to the development and delivery of data science products, working alongside senior data scientists. You will be involved in implementing and refining supervised learning, bandit algorithms, and generative AI models, as well as supporting
experimentation and analysis.
You will write production-quality Python code, collaborate on cloud-based deployments, and help translate data insights into actionable recommendations that drive business impact. This role provides hands-on experience while allowing you to take ownership of well-scoped components
within larger projects.
This is a fantastic opportunity for an early-career data scientist with an analytical background to join and grow within a market leading digital content agency and media network.
CORE RESPONSIBILITIES
Model Development: Assist in developing, testing, and improving machine learning
models, with a focus on bandit algorithms and experimentation frameworks.
Experimentation: Support the setup, execution, and analysis of A/B tests and online experiments to evaluate the impact of our generative AI-driven products.
Production Support: Assist with deploying and monitoring models and experiments on GCP (Airflow, Docker, Cloud Run, SQL databases, etc.), following existing patterns and CI/CD workflows.
Data Analysis: Perform exploratory data analysis, data validation, and basic feature engineering to support modelling and experimentation efforts.
Collaboration: Work closely with senior data scientists, engineers, and product stakeholders to understand business problems and translate them into actionable tasks.
SKILLS REQUIRED FOR THIS ROLE
Essential Functional/Job-specific skills
• Bachelor’s or Master’s degree in Data Science, Computer Science, Mathematics, Statistics, or
a related field with 1+ years of relevant work experience.
• Solid foundation in SQL and Python, including experience with common libraries such as
Pandas, NumPy, Scikit-learn, Matplotlib, and Statsmodels.
• Basic understanding of supervised learning, experimentation, causal inference, and concepts in
reinforcement learning and multi-armed bandits.
• Foundational knowledge of probability, statistics, and linear algebra.
• Working knowledge of Git, including version control and collaboration through pull requests and
code reviews.
• Ability to write good documentation and ability to explain analysis results clearly to technical
and non-technical audiences
• Familiarity with deploying machine learning models in production cloud environments (GCP or
AWS).
Essential core skills:
- Communication
- Collaboration
- Organisation
- Delivering Results
- Solutions Focused
- Adaptability
-
· 11 views · 0 applications · 2d
Data Architect
Full Remote · Ukraine · 4 years of experience · English - B2PwC is a global network of more than 370,000 professionals in 149 countries that turns challenges into opportunities. We create innovative solutions in audit, consulting, tax and technology, combining knowledge from all over the world. PwC SDC Lviv,...PwC is a global network of more than 370,000 professionals in 149 countries that turns challenges into opportunities. We create innovative solutions in audit, consulting, tax and technology, combining knowledge from all over the world.
PwC SDC Lviv, opened in 2018, is part of this global space. It is a place where technology is combined with team spirit, and ambitious ideas find their embodiment in real projects for Central and Eastern Europe.
What do we guarantee?
- Work format: Remote or in a comfortable office in Lviv - you choose.
- Development: Personal development plan, mentoring, English and Polish language courses.
- Stability: Official employment from day one, annual review of salary and career prospects.
- Corporate culture: Events that unite the team and a space where everyone can be themselves.
Join us as a Data Architect / Lead and play a key role in shaping the data foundation behind our next generation of analytics and AI solutions. In this position, you’ll define the architecture vision for our modern data ecosystem, guide a growing team of Data Engineers, and build cloud‑native platforms that unlock enterprise‑wide insights. This is a high‑impact role where you’ll work closely with business and technology leaders, influence strategic decisions, and drive the adoption of advanced analytics and Generative AI across the organization.
What You’ll Do:
Lead & Strategize
- Lead and mentor Data Engineers, fostering innovation and continuous improvement.
- Own the data architecture vision aligned with business goals.
- Partner with executives and stakeholders to turn strategic needs into scalable data solutions.
Architect & Build
- Design and optimize modern data platforms using Azure Data Lake, Databricks, SQL Server, Microsoft Fabric, and NoSQL.
- Build robust, scalable data pipelines across diverse data sources.
- Implement strong data quality, governance, and security practices.
- Support advanced analytics, machine learning, and AI-based solutions.
Enable Insights
- Build solutions that deliver accurate, timely insights for decision-makers.
- Collaborate on Power BI dashboards and executive reporting.
- Integrate Generative AI into insight-generation workflows.
Requirements:
- Bachelor’s degree in Computer Science, Data Engineering, or related field.
- 4+ years in data engineering, architecture, or analytics roles.
- Experience leading Data Engineering teams in enterprise settings will be a plus.
- Strong skills in Azure data services, Databricks, SQL, NoSQL, and Microsoft Fabric.
- Hands-on Power BI and enterprise reporting experience.
- Proven ability to build data pipelines and enforce data quality.
- Excellent communication skills, especially with executive stakeholders.
- Relevant certifications (Azure Data Engineer, Databricks, Fabric Analytics, etc.) are a plus.
Policy statements:
More
https://www.pwc.com/ua/uk/about/privacy.html -
· 7 views · 1 application · 2d
Data Architect (AWS) (IRC286424)
Full Remote · Croatia, Poland, Romania, Slovakia, Ukraine · 10 years of experience · English - B2Description The client is a pioneer in medical devices for less invasive surgical procedures, ranking as a leader in the market for coronary stents. The company’s medical devices are used in a variety of interventional medical specialties, including...Description
The client is a pioneer in medical devices for less invasive surgical procedures, ranking as a leader in the market for coronary stents. The company’s medical devices are used in a variety of interventional medical specialties, including interventional cardiology, peripheral interventions, vascular surgery, electrophysiology, neurovascular intervention, oncology, endoscopy, urology, gynecology, and neuromodulation.
The client’s mission is to improve the quality of patient care and the productivity of health care delivery through the development and advocacy of less-invasive medical devices and procedures. This is accomplished through the continuing refinement of existing products and procedures and the investigation and development of new technologies that can reduce risk, trauma, cost, procedure time and the need for aftercare.Requirements
Boston Scientific is seeking a highly motivated R&D Data Engineer to support our R&D team in data management and development of complex electro-mechanical medical device systems. In this role you will use your technical and collaboration skills alongside your passion for data, innovation, and continuous improvement to help drive our product development forward.
• Design a systems level architecture for clinical, device, and imaging data and pipelines to support machine learning & classical algorithm development throughout the product lifecycle.
• Ensure architecture supports high-throughput image ingestion, indexing, and retrieval.
• Advance conceptual, logical, and physical data models for structured, semi-structured, and unstructured data.
• Help define and document data standards and definitions.
• Implement governance frameworks that enforce healthcare and data regulations to data architecture (HIPAA, FDA Part 11, GDPR, etc.).
• Performs strategic validation tasks of data management tools and platforms
• Collaborate closely with data scientists, cloud data engineers, algorithm engineers, clinical engineers, software engineers and systems engineers locally and globally.
• Investigate, research, and recommend appropriate software designs, machine learning operations, tools for dataset organization, controls, and traceability.
• In all actions, lead with integrity and demonstrate a primary commitment to patient safety and product quality by maintaining compliance to all documented quality processes and procedures.Job responsibilities
Required Qualifications
• Bachelor’s degree or higher in Computer Science, Software Engineering, Data Science, Biomedical Engineering or related field
• 6+ Years of relevant work experience with Bachelor’s degree
• 3+ Years of relevant work experience with Masters or PhD
• 4+ years of consistent coding in Python
• Strong understanding and use of relational databases and clinical data models
• Experience working with medical imaging data (DICOM) computer vision algorithms and tools
• Experience with AWS and cloud technologies and AWS DevOps tools
• Experience with creating and managing CI/CD pipelines in AWS
• Experience with Infrastructure as Code (IaC) using Terraform, CloudFormation or AWS CDK
• Excellent organizational, communication, and collaboration skills
• Foundational knowledge in machine learning (ML) operations and imaging ML pipelinesPreferred Qualifications
More
• Experience with software validation in a regulated industry
• Experience with Cloud imaging tools (ex. AWS Health Imaging, Azure Health Data Services)
• Working knowledge of data de-identification/pseudonymization methods
• Manipulating tabular metadata using SQL and Python’s Pandas library
• Experience with the Atlassian Tool Chain
• Data and annotation version control tools and processes
• Knowledge of HIPAA, FDA regulations (21 CFR Part 11), GDPR for medical device data governance. -
· 9 views · 0 applications · 2d
Data Architect (Azure Platform) IRC279265
Full Remote · Ukraine, Poland, Romania, Croatia, Slovakia · 10 years of experience · English - B2Description As the Data Architect, you will be the senior technical visionary for the Data Platform. You will be responsible for the high-level design of the entire solution, ensuring it is scalable, secure, and aligned with the company’s long-term...Description
As the Data Architect, you will be the senior technical visionary for the Data Platform. You will be responsible for the high-level design of the entire solution, ensuring it is scalable, secure, and aligned with the company’s long-term strategic goals. Your decisions will form the technical foundation upon which the entire platform is built, from initial batch processing to future real-time streaming capabilities.
Requirements
Required Skills (Must-Haves)
– Cloud Architecture: Extensive experience designing and implementing large-scale data platforms on Microsoft Azure.
– Expert Technical Knowledge: Deep, expert-level understanding of the Azure data stack, including ADF, Databricks, ADLS, Synapse, and Purview.
– Data Concepts: Mastery of data warehousing, data modeling (star schemas), data lakes, and both batch and streaming architectural patterns.
– Strategic Thinking: Ability to align technical solutions with long-term business strategy.Nice-to-Have Skills:
– Hands-on Coding Ability: Proficiency in Python/PySpark, allowing for the creation of architectural proofs-of-concept.
– DevOps & IaC Acumen: Deep understanding of CI/CD for data platforms and experience with Infrastructure as Code (Bicep/Terraform)/Experience with AzureDevOps for BigData services
– Azure Cost Management: Experience with FinOps and optimizing the cost of Azure data services.Job responsibilities
– End-to-End Architecture Design: Design and document the complete, end-to-end data architecture, encompassing data ingestion, processing, storage, and analytics serving layers.
More
– Technology Selection & Strategy: Make strategic decisions on the use of Azure services (ADF, Databricks, Synapse, Event Hubs) to meet both immediate MVP needs and future scalability requirements.
– Define Standards & Best Practices: Establish data modeling standards, development best practices, and governance policies for the engineering team to follow.
– Technical Leadership: Provide expert technical guidance and mentorship to the data engineers and BI developers, helping them solve the most complex technical challenges.
– Stakeholder Communication: Clearly articulate the architectural vision, benefits, and trade-offs to technical teams, project managers, and senior business leaders. -
· 13 views · 0 applications · 1d
ML Architect / Principal Data Scientist, Healthcare Business Unit (EMEA)
Full Remote · Poland, Romania, Slovakia, Croatia · 7 years of experience · English - C1Job Description Bachelor’s or Master’s degree in Data Science, Computer Science, Statistics, Applied Mathematics, or related field. 7+ years of experience in data science or machine learning roles, ideally with exposure to healthcare projects. Strong...Job Description
- Bachelor’s or Master’s degree in Data Science, Computer Science, Statistics, Applied Mathematics, or related field.
- 7+ years of experience in data science or machine learning roles, ideally with exposure to healthcare projects.
- Strong knowledge of ML frameworks such as scikit-learn, TensorFlow, PyTorch, XGBoost, or LightGBM.
- Proficiency in Python for data science and related libraries (NumPy, pandas, matplotlib, seaborn, etc.).
- Experience working with large datasets and data processing frameworks (e.g., Spark, Dask, SQL).
- Understanding of MLOps concepts and tools (e.g., MLflow, Kubeflow, Vertex AI, Azure ML).
- Familiarity with cloud environments (Azure, AWS, or GCP) for training and deploying models.
- Experience with model interpretability, fairness, and explainability techniques.
- Strong communication and visualization skills for storytelling with data.
- English proficiency at Upper-Intermediate level or higher.
Preferred Qualifications (Nice to Have)- Experience working with medical data (EHR, imaging, wearables, clinical trials, etc.).
- Familiarity with healthcare regulations related to data and AI (e.g., HIPAA, GDPR, FDA AI/ML guidelines).
- Knowledge of FHIR, HL7, or other healthcare interoperability standards.
- Practical experience with deep learning models (e.g., CNNs for imaging, transformers for NLP).
- Involvement in presales, proposal writing, or technical advisory work.
Job Responsibilities
- Lead the design and development of AI/ML solutions across HealthTech and MedTech projects.
- Participate in technical presales by analyzing business cases and identifying opportunities for AI/ML application.
- Build and validate predictive models, classification systems, NLP workflows, and optimization algorithms.
- Collaborate with software engineers, cloud architects, and QA to integrate models into scalable production systems.
- Define and guide data acquisition, preprocessing, labeling, and augmentation strategies.
- Contribute to the development of GlobalLogic’s healthcare-focused AI accelerators and reusable components.
- Present technical solutions to clients, both business and technical audiences.
- Support model monitoring, drift detection, and retraining pipelines in deployed systems.
- Ensure adherence to privacy, security, and compliance standards for data and AI usage.
- Author clear documentation and contribute to knowledge sharing within the Architects Team.
Department/Project Description
Join GlobalLogic’s Architects Team within the Healthcare Business Unit, supporting clients across the EMEA region. This strategic role focuses on engaging new clients, solving real-world healthcare challenges, and launching data-driven AI/ML projects. You will work closely with clients and internal stakeholders to translate complex business needs into impactful data science solutions. If you’re passionate about applying data science in a meaningful domain and want to shape the future of healthcare, we’d love to hear from you.
More -
· 19 views · 6 applications · 6h
Data Scientist
Full Remote · Worldwide · Product · 3 years of experience · English - B1Almus is looking for a Data Scientist to join our Analytics team and build production-grade machine learning models that directly impact marketing and business performance. You will work on end-to-end ML solutions, from data and features to deployment and...Almus is looking for a Data Scientist to join our Analytics team and build production-grade machine learning models that directly impact marketing and business performance.
You will work on end-to-end ML solutions, from data and features to deployment and monitoring, focusing on improving LTV prediction quality, optimizing ML-driven costs, and driving key metrics such as LTV, ROAS, retention, and CAC. This is an individual contributor role with strong ownership, close collaboration with Marketing, Product, and Data teams, and a clear focus on real business impact.
Apply to join Almus and take ownership of high-impact data initiatives!
Responsibilities
- Design, develop, and deploy machine learning models to production
- Improve product and business decision-making through data-driven approaches
- Build and evolve end-to-end ML pipelines (data → features → model → inference → monitoring)
- Drive measurable impact on key product and commercial metrics
- Standardize ML approaches within the team (best practices, documentation, reproducibility)
- Provide technical input to the architecture of analytics and ML infrastructure
- Develop and deploy models that drive growth in LTV, ROAS, retention, and CAC
- Influence performance and lifecycle marketing strategy
- Act as a domain expert and collaborate closely with Marketing, Product, and Data Engineering teams
What We Look For
- 3+ years of experience as a Data Scientist / ML Engineer
- Experience working with mobile subscription-based products
- Strong Python skills (production-level code)
- Solid knowledge of classical machine learning algorithms and practical experience applying them
- Experience with feature engineering, model evaluation, and bias–variance trade-offs
- Hands-on experience with marketing models such as LTV, churn, cohort, and funnel modeling
- Experience with attribution, incrementality, and uplift modeling
- Strong SQL skills and experience working with analytical datasets
- Experience with production ML systems and A/B testing
English level: Intermediate+
Nice to have
- Experience with BigQuery
- MLOps experience (Docker, CI/CD, model registres)
- Experience working with performance marketing data (Meta, Google Ads, Adjust)
- Knowledge of causal inference
Experience with AutoML and Bayesian models
We Offer
- Exciting challenges and growth prospects together with an international company
- High decision-making speed and diverse projects
- Flexibility in approaches, no processes for the sake of processes
- Effective and friendly communication at any level
- Highly competitive compensation package that recognizes your expertise and experience, Performance Review practice to exchange feedback and discuss terms of cooperation
- Flexible schedule, opportunity to work in a stylish and comfortable office or remotely
- Respect for work-life balance (holidays, sick days - of course)
- Bright corporate events and gifts for employees
- Additional medical insurance
- Compensation for specialized training and conference attendance
- Restaurant lunches at the company's expense for those working in the office, endless supplies of delicious food all year round
-
· 24 views · 2 applications · 13d
Senior Data Scientist (AI)
Ukraine · Product · 5 years of experience · English - None Ukrainian Product 🇺🇦В команду DataDiscovery шукаємо на розширення Senior Data Scientist. Наш ідеальний кандидат має: - 5+ роки комерційного досвіду розробки. Навички: - Python та бібліотеки машинного навчання: TensorFlow, PyTorch; - Технології Big Data: Kafka, Amazon...В команду DataDiscovery шукаємо на розширення Senior Data Scientist.
Наш ідеальний кандидат має:
- 5+ роки комерційного досвіду розробки.
Навички:
- Python та бібліотеки машинного навчання: TensorFlow, PyTorch;
- Технології Big Data: Kafka, Amazon S3, Spark;
- SQL та аналіз даних: робота з будь-якими джерелами даних (SQL, noSQL, векторні бази даних, column-oriented бази даних , тощо);
- Хмарні платформи: AWS, GCP;
Математична статистика: регресія, розподіл ймовірностей, - перевірка статистичних гіпотез тощо;
- Підходи машинного навчання: регресії, кластеризація, дерева рішень та інші;
- Алгоритми глибокого навчання: transformers, reinforcement learning, autoencoders, diffusion models, тощо;
- Досвід розробки продуктів AI: NLP, CV, Recsys, Generative AI;
- MLOps.
Що потрібно робити:
- Вирішувати продуктові та дослідницькі виклики крутого українського продукту;
- Працювати з реальними даними реальних користувачів;
- Вивчати та впроваджувати складні state-of-the-art алгоритми в області машинного навчання для вирішення практичних задач;
- Оцінювати технічні компроміси по кожному рішенню;
- Працювати в тісному співробітництві з іншими командами для дослідження нових можливостей використання інструментів AI.
Що ми пропонуємо:
- Роботу в стабільній компанії — адже ми понад 10 років на ринку;
- Дійсно цікаві завдання: бери участь у створенні медіасервісу майбутнього;
- Відносини, побудовані на довірі;
- Багато можливостей для розвитку;
- Неймовірно круті корпоративи;
- Безкоштовні уроки англійської мови;
- Заняття з плавання, а також уроки настольного тенісу;
- Корпоративного психолога;
- Для співробітників компанії знижки від брендів партнерів.
Відповідаючи на вакансію і надіславши своє резюме в Компанію (ТОВ «МЕГОГО»), зареєстровану й діючу відповідно до законодавства України, реєстраційний номер 38347009, адреса: Україна, 01011, місто Київ, вул.Рибальська, будинок 22 (далі «Компанія»), ви підтверджуєте та погоджуєтеся з тим, що Компанія обробляє ваші особисті дані, представлені у вашому резюме, відповідно до Закону України «Про захист персональних даних» та правил GDPR.
More -
· 45 views · 6 applications · 6d
Data Scientist (FinTech, AI, Payment Routing)
Full Remote · Ukraine · Product · 3 years of experience · English - B2Data Scientist (FinTech, AI, Payment Routing) — тільки для тих, хто хоче змінювати правила гри Локація: Лондон / Лісабон / Київ (гібрид/віддалено) Формат: Повна зайнятість Рівень: Middle / Senior Кого ми шукаємо? Ти втомився від нудних...Data Scientist (FinTech, AI, Payment Routing) — тільки для тих, хто хоче змінювати правила гри
📍 Локація: Лондон / Лісабон / Київ (гібрид/віддалено)
🕒 Формат: Повна зайнятість
📈 Рівень: Middle / SeniorКого ми шукаємо?
Ти втомився від нудних ML-завдань і хочеш створювати AI, який реально керує платежами?
Ми шукаємо креативного Data Scientist, який не просто аналізує дані, а будує інтелект, здатний у реальному часі приймати рішення про маршрутизацію платежів.Що ми будуємо?
- AI-движок динамічного роутингу, який аналізує тисячі транзакцій щосекунди.
- Автоматичну систему управління decline-платежами — AI сам вирішує, куди направити повторний платіж.
- Інтелектуальну аналітику, яка розуміє реальну платоспроможність клієнта.
- Нейромережу, яка самостійно навчається на живих транзакціях і підвищує конверсію.Система вже на стадії MVP, і твоя задача — довести її до рівня, коли AI керує платежами краще за людину.
Що тобі доведеться робити?
✅ Проектувати ML-моделі, що у реальному часі обирають платіжні маршрути з максимальною ймовірністю успіху.
✅ Оптимізувати declines, знаходити закономірності відмов і підвищувати конверсію.
✅ Інтегрувати AI з FinTech-інфраструктурою (PSP, еквайєри, банки, крипто-шлюзи).
✅ Автоматизувати аналітику, щоб рішення приймалися на льоту, а не "заднім числом".
✅ Аналізувати платіжні дані: карти, wallets, банки, крипта — оптимізувати все, що можна.Кого ми чекаємо?
Ти не просто Data Scientist. Ти розумієш, як AI перетворює дані на value.🔹 Глибокий ML-досвід – не просто знаєш Python (або інші мови), а реально впроваджував моделі в продакшн.
🔹 Python + Pandas, NumPy, Scikit-Learn, TensorFlow, PyTorch.
🔹 SQL і Big Data – вмієш працювати з хаосом і знаходити інсайти.
🔹 Kafka, Spark Streaming – тут усе в реальному часі.
🔹 API-інтеграції – ти знаєш, як поєднати AI з платіжними шлюзами та банками.
🔹 ETL, Data Engineering – вмієш нормалізувати й готувати дані.Буде плюсом:
➕ Досвід у FinTech, платежах, high-risk.
➕ Fraud Detection, A/B-тестування, сегментація клієнтів.
➕ Деплой ML-моделей в AWS/GCP/Azure.
➕ Сильна математика – статистика, лінійна алгебра, теорія ймовірностей.Як це буде працювати?
🚀 Фаза 1: Розбираєшся в платежах і AI-стратегії → MVP-модель, яка вже приносить користь.
🚀 Фаза 2: AI сам вирішує, куди відправляти платежі → Оптимізація даних і declines.
🚀 Фаза 3: AI керує платежами без людини → Автоматизація аналітики, зростання конверсії.Що ти отримаєш?
💰 Зарплата + бонуси – твій AI створює цінність, і це цінується.
⚡ Вплив – твої рішення визначають, як світ буде платити.
🌍 Глобальний FinTech – офіси в Лондоні, Лісабоні, Києві, ліцензії на Мальті та у Великобританії.
🛠️ Свобода – офіс або віддалено, головне результат.
🚀 Робота з топовими PSP та еквайєрами, доступ до cutting-edge технологій.
👥 Власна команда – ти не просто створюєш AI, а збираєш свою команду для його масштабування.
📈 Опціони – твоя робота має бути не просто зарплатою, а інвестицією в майбутнє.Як податися?
📩 Надсилай резюме та ML-кейсиЯкщо ти не боїшся складних задач, хочеш створювати AI, що реально керує платежами, і впливати на індустрію – це твій шанс. 🚀
More -
· 27 views · 3 applications · 14d
Game Mathematician (iGaming) - Робота безпосередньо з британською компанією
Full Remote · Worldwide · 5 years of experience · English - NoneКоманда LeaSoft шукає талановитого та досвідченого Game Mathematician для роботи безпосередньо з провідною британською компанією в індустрії iGaming. Якщо ви маєте глибоке розуміння математичних принципів, творчий підхід до розробки ігрових механік та...Команда LeaSoft шукає талановитого та досвідченого Game Mathematician для роботи безпосередньо з провідною британською компанією в індустрії iGaming. Якщо ви маєте глибоке розуміння математичних принципів, творчий підхід до розробки ігрових механік та бажання працювати в міжнародному середовищі, ця вакансія для вас.
Хто ми та що ми робимо?
LeaSoft - сервісна компанія з метою стати консалтинговою компанією у найближчий рік в області Payments eCommerce та GameDev. Ми пишаємося нашими досягненнями у галузі Game Dev та прагнемо розширити наш продуктовий напрямок.
Наш головний пріоритет – люди:
- Співробітники. Будуть гарні співробітники – будуть гарні клієнти.
- Клієнти. Будуть гарні клієнти – буде гарний прибуток та проєкти.
Чому ми це робимо?
Ми прагнемо створювати інноваційні та захоплюючі ігрові продукти, які приносять задоволення гравцям по всьому світу. Ця вакансія надає унікальну можливість працювати над передовими проєктами в індустрії iGaming.
Чим ми відрізняємось від інших?
Ми цінуємо творчий підхід, відкрите спілкування та командну роботу. У нас ви знайдете підтримку та можливість розвивати свої навички в міжнародному середовищі.
Про проєкт:
Ви будете працювати над розробкою математичних моделей та механік для інноваційних ігор в індустрії iGaming, безпосередньо співпрацюючи з британською компанією.
Що робити у проєкті?
- Тісна співпраця з керівником ігор, власником продукту або провідним математиком для визначення обсягу ігрового процесу, функцій, цільових частот виграшів та розподілу виграшів.
- Створення та розробка захоплюючих ігрових механік для азартних продуктів з використанням математики ймовірностей та методів програмування.
- Кодування ігрових симуляторів для перевірки математичних розрахунків та збору статистичних даних.
- Пояснення математичної логіки та потоку розробникам, щоб забезпечити відповідність ігор вашій роботі.
- Створення та ведення математичної документації.
- Автономна ітерація математичних моделей для створення оптимального балансу гри на основі бізнес-стратегії.
- Тісна співпраця з тестовими лабораторіями, коли це необхідно, для швидкої та ефективної сертифікації математичних розрахунків.
Які професійні навички нам важливі?
- 5+ років досвіду роботи математиком в індустрії азартних ігор.
- Відмінні комунікативні навички.
- Навички програмування на таких мовах, як Java, C або C#.
- Вміння працювати в команді, дотримуючись термінів та забезпечуючи розуміння ваших методів колегами.
- Досвід менторства інших математиків (бажано).
- Досвід роботи з різними типами слот-продуктів.
Чи потрібна англійська?
Так, англійська обов’язкова. Рівень Upper-Intermediate і вище.
Що нам важливо у людині?
- Аналітичний склад розуму.
- Творчий підхід.
- Уважність до деталей.
- Вміння працювати в команді.
- Відповідальність.
Чому відкрито позицію?
Розширення команди.
Перспектива зростання/розвитку за даною позицією?
Можливість професійного зростання в міжнародній компанії.
Розмір та структура команди?
Ви будете працювати в міжнародній команді професіоналів.
Де знаходяться люди, які приймають технічні рішення щодо проєкту?
Технічні рішення приймаються спільно з міжнародною командою.
За умовами:
- Робота безпосередньо з британською компанією.
- Графік роботи: з 9:00 до 18:00 за лондонським часом.
- Локація: Європа (розглядаємо кандидатів з інших регіонів).
- Робота у міжнародній команді.
- Можливість професійного розвитку.
-
· 441 views · 76 applications · 20d
Intern Data Scientist to $600
Full Remote · Ukraine · 1 year of experience · English - B2Ми шукаємо талановитого Intern Data Scientist, який захоплюється аналізом даних, прагне розвивати практичні навички в побудові моделей, роботі з великими масивами інформації та має бажання навчатися й зростати разом із командою. Це чудова можливість для...Ми шукаємо талановитого Intern Data Scientist, який захоплюється аналізом даних, прагне розвивати практичні навички в побудові моделей, роботі з великими масивами інформації та має бажання навчатися й зростати разом із командою. Це чудова можливість для старту кар’єри у сфері Data Science!
Основні обов’язки
- Збір, консолідація та підготовка даних з різних джерел.
- Участь у розробці та покращенні алгоритмів аналізу даних.
- Побудова базових аналітичних та прогнозних моделей.
- Створення запитів до баз даних і підготовка звітів.
- Візуалізація даних для внутрішніх команд та прийняття рішень.
- Вивчення та застосування статистичних підходів до аналізу.
- Співпраця з аналітиками, розробниками та бізнес-командами.
- Автоматизація повторюваних аналітичних задач.Вимоги до кандидата
- Наявність закінченої вищої освіти за спеціальністю
- Досвід навчання або стажування у сфері Data Science / аналітики даних.
- Базове володіння Python (pandas, numpy, sklearn тощо).
- Знання основ SQL та вміння працювати з базами даних.
- Розуміння базових статистичних методів та принципів моделювання.
- Навички візуалізації даних (Power BI, Tableau або matplotlib/seaborn).
- Бажання навчатися й розвивати навички роботи з Big Data та хмарними технологіями (Azure — буде перевагою).
- Аналітичне мислення, уважність до деталей, ініціативність.Ми пропонуємо
- Гнучкий графік та віддалений формат роботи.
- Роботу над реальними кейсами й аналітичними задачами.
- Менторство з боку досвідчених Data Scientist-ів.
- Дружню атмосферу та підтримку розвитку.Якщо ти хочеш розпочати кар’єру в Data Science, працювати з даними, що мають значення, і зростати професійно — надсилай своє резюме!
More -
· 25 views · 3 applications · 17d
Data Scientist
Hybrid Remote · Ukraine · Product · 2 years of experience · English - None Ukrainian Product 🇺🇦Що потрібно буде робити: Розробка, навчання моделей машинного навчання для задач регресії, класифікації та кластеризації. Побудова та вдосконалення рекомендаційних систем під потреби бізнесу. Написання чистого, ефективного та масштабованого коду на...Що потрібно буде робити:
- Розробка, навчання моделей машинного навчання для задач регресії, класифікації та кластеризації.
- Побудова та вдосконалення рекомендаційних систем під потреби бізнесу.
- Написання чистого, ефективного та масштабованого коду на Python.
- Написання та оптимізація SQL-запитів для отримання та аналізу даних.
- Співпраця з командою та дотримання кращих практик у версійному контролі (Git) і тестуванні.
Must-Have Skills: - 4+ років практичного досвіду в Data Science / Machine Learning.
- Впевнені знання Python, SQL та Git.
- Глибоке розуміння методів ML (регресія, класифікація, кластеризація).
- Досвід розробки production-рішень з якісним та масштабованим кодом.
Nice-to-Have Skills: - Досвід створення рекомендаційних систем.
- Знання тестування та MLOps-підходів.
Що ти отримаєш: - Self-learning бібліотеку, доступ до платних курсів.
- Групові обговорення та індивідуальні сесії з психологом.
- 20 робочих днів оплачуваної відпустки та лікарняні.
- Вихідний день на День народження.
- Медичне страхування.
- Подарунки на річниці.
- L&D центр з курсами для співробітників.
-
· 462 views · 39 applications · 5d
Machine learning engineer
Full Remote · Ukraine · Product · 2 years of experience · English - B2ПРО ПОЗИЦІЮ Вимоги: Досвід DS/MLE від 2 років Математичний бекграунд: вища математична освіта (КПІ ІПСА, МехМат Шевченко тощо), бажано олімпіадний досвід Глибокі знання алгоритмів і структур даних, глибоке розуміння ООП, глибокі теоретичні та практичні...ПРО ПОЗИЦІЮ
Вимоги:
- Досвід DS/MLE від 2 років
- Математичний бекграунд: вища математична освіта (КПІ ІПСА, МехМат Шевченко тощо), бажано олімпіадний досвід
- Глибокі знання алгоритмів і структур даних, глибоке розуміння ООП, глибокі теоретичні та практичні знання машинного та глибокого навчання
- Практичний досвід вирішення NLP та Tabular Data ML задач
- Високий рівень володіння Python, включаючи досвід роботи з бібліотеками машинного навчання і володіння принаймні одним із фреймворків глибокого навчання (Tensorflow, Keras, PyTorch)
- Вміння писати чистий, підтримуваний та ефективний код, готовий до production
- Вміння трансформувати бізнес-вимоги у технічні завдання для ML-рішень
- Досвід feature engineering
- Досвід роботи з Git та Docker
- Досвід роботи з базами даних (SQL/NoSQL) для отримання та підготовки даних для моделей
Буде плюсом:
- Досвід вирішення CV завдань
- Досвід успішних виступів на хакатонах/Kaggle
- Досвід роботи з Airflow на рівні запуску та моніторингу завдань
- Розуміння принципів паралелізму в Python та досвід роботи з відповідними бібліотеками
Приклади задач:
- Підвищення точності поточних CV, NLP та інших моделей
- Розробка нових моделей з нуля: від R&D та feature engineering до валідації
- Аналіз великих обсягів даних для пошуку інсайтів та формулювання гіпотез для моделювання
-
· 168 views · 10 applications · 24d
Data Scientist
Hybrid Remote · Ukraine · Product · 2 years of experience · English - B1 Ukrainian Product 🇺🇦Один із провідних продуктових IT-холдингів України запрошує до команди Data Scientist! Якщо тобі цікаво створювати ML-рішення, впроваджувати рекомендаційні системи та працювати з масштабними даними у професійному середовищі - будемо раді знайомству ...Один із провідних продуктових IT-холдингів України запрошує до команди Data Scientist!
Якщо тобі цікаво створювати ML-рішення, впроваджувати рекомендаційні системи та працювати з масштабними даними у професійному середовищі - будемо раді знайомству 🚀
Обов’язки:
- Розробка та навчання моделей машинного навчання (регресія, класифікація, кластеризація).
- Побудова й удосконалення рекомендаційних систем для бізнес-задач.
- Написання ефективного та масштабованого коду на Python.
- Написання та оптимізація SQL-запитів для отримання та аналізу даних.
- Співпраця з командою та дотримання кращих практик у версійному контролі (Git) та тестуванні.
Вимоги:
- 2+ роки досвіду у Data Science/Machine Learning.
- Впевнене володіння Python, SQL, Git.
- Глибоке розуміння методів ML (регресія, класифікація, кластеризація).
- Досвід розробки production-рішень з якісним та масштабованим кодом.
Буде плюсом:
- Досвід в побудові рекомендаційних систем.
- Знання тестування та MLOps-підходів.
Ми пропонуємо:
- Конкурентну зарплату та стабільні виплати.
- Медичне страхування.
- Гнучкий графік (старт з 8:00 до 11:00).
- L&D центр, self-learning бібліотека, доступ до внутрішніх та зовнішніх курсів.
- Програму ротації та кар’єрного розвитку.
- Підтримку ментального здоров’я (групові та індивідуальні сесії з психологом).
- Дружню команду експертів та продукти світового рівня.