Dillo

Dillo

Joined in 2023
25% answers

We're a young reference-based outsourcing company in the USA with transparent terms for customers and contractors.

  • · 34 views · 0 applications · 3d

    Data Engineer (GCP, Big Query, DBT, Python, Data Modeling, ML) to $6500

    Full Remote · Argentina, Bulgaria, Spain, Poland, Portugal · Product · 5 years of experience · B2 - Upper Intermediate
    Шукаємо Data Engineer з досвідом BigQuery та GCP в дуже велику і стабільну продуктову компанію. Компанія розробляє софт для найбільших страхових компаній світу. Якщо у вас є такі скіли, далі можна не читати – відправляйте резюме, будь ласка. Але якщо...

    Шукаємо Data Engineer з досвідом BigQuery та GCP в дуже велику і стабільну продуктову компанію. Компанія розробляє софт для найбільших страхових компаній світу. Якщо у вас є такі скіли, далі можна не читати – відправляйте резюме, будь ласка.

     

    Але якщо цікаво:

     

    Проект – побудова нової Data Platform (Data Lake, Lake House, Data Warehouse) на базі BigQuery з використанням DBT, Python, AI/ML + розробка цілої купи ідей по аналізу даних, RAG, LLM, etc.

     

    Шукаємо виключно українських девелоперів закордоном. Нажаль, в Україні цього разу не розглядаємо, через обмеження по доступу до критичних даних. Пропонуємо дуже гнучкі умови: віддалена робота, цікаві задачі і хороше/спокійне керівництво.

     

    Опис вакансії:

     

    What You’ll Do: 

    • Design & run pipelines – create, deploy, and monitor robust data flows on GCP. 
    • Write BigQuery SQL – build procedures, views, and functions. ● Build ML pipelines – automate training, validation, deployment, and model monitoring. 
    • Solve business problems with AI/ML – frame questions, choose methods, deliver insights. 
    • Optimize ETL – speed up workflows and cut costs. 
    • Use the GCP stack – BigQuery, Dataflow, Dataproc, Airflow/Composer, DBT, Celigo, Python, Java. 
    • Model data – design star/snowflake schemas for analytics and reporting. 
    • Guard quality & uptime – add tests, validation, and alerting; fix issues fast. 
    • Document everything – pipelines, models, and processes. 
    • Keep learning – track new tools and best practices. 

       

    What You’ll Need: 

    • 5+ yrs building data/ETL solutions; 2+ yrs heavy GCP work. 
    • 2+ yrs hands‑on AI/ML pipeline experience. 
    • Proven BigQuery warehouse design and scaling. 
    • Deep SQL, Python, DBT, Git; Talend, Fivetran, or similar ETL tools. 
    • Strong data‑modeling skills (star, snowflake, normalization).
    • Solid grasp of Data Lake vs. Data Warehouse concepts. 
    • Problem‑solver who works well solo or with a team. 
    • Clear communicator with non‑technical partners. 
    • Bachelor’s in CS, MIS, CIS, or equivalent experience. 

     

    More
Log In or Sign Up to see all posted jobs