Data Engineer

Data Engineer para startup especializada en diseño, construcción y gestión de plataformas de datos

Python scala Spark PostgreSQL MongoDB AWS Azure Terraform Jenkins Kafka

Condiciones profesionales

Lo primero de todo, comenzamos con las condiciones de trabajo que te ofrece la empresa. Así, si no te cuadra en lo más básico, no pierdes más tiempo en seguir leyendo.

  • Flexibilidad horaria y 100% remoto
  • Contrato indefinido 
  • Salario aproximado 40-60K más bonus por resultados 
  • Plan de formación anual  
  • Recursos y herramientas a tu disposición para trabajar en remoto

Si las condiciones profesionales, te han parecido atractivas y están en la línea de tus motivaciones profesionales, ¡sigue leyendo!.

Producto o servicio

Empresa especializada en el diseño, la construcción y gestión de plataformas de datos entornos analíticos, datos industriales IoT, orientadas a eventos y experiencia del empleado. 

Equipo

El equipo está formado por aproximadamente 15 profesionales especializados en ayudar a las empresas en sus procesos de digitalización. 

El stack tecnológico habitual suele ser Python, Spark, Terraform, Jenkins, AzureDevOps. Pero dependiendo del proyecto, también puedes trabajar con otras tecnologías como Scala, Ansible, GitOps, Kafka/Confluent. 

El trabajo se realiza en pequeños equipos remotos, autónomos y flexibles. Sin burocracias ni formalismos, pero con responsabilidad y madurez profesional. 

Una cultura que favorece la flexibilidad, la conciliación y el crecimiento profesional. 

Funciones y responsabilidades

Tu día a día como profesional:

Participarás diseño, construcción, operación e incluso gestión de plataformas de datos. Aprovechando, integrando y explotando el valor de los datos. 

Dependiendo de tu experiencia y tus inquietudes, irás asumiendo diferentes roles. Desde la ingeniería de datos hasta la relación con el cliente, diseño de arquitectura y guiar al equipo técnico. 

Competencias profesionales

Se le llaman Soft Skills o Hard Skills. No vamos a entrar en terminología. Lo importante es que sepas qué habilidades y experiencia se espera de ti.

Competencias necesarias para el puesto:
  • Licenciatura en Ciencias, Ingeniería o experiencia equivalente
  • Experiencia en desarrollo y análisis de datos con Python, Spark, Databricks
  • Experiencia en infraestructura como código como Terraform
  • CD/CI Jenkins e infraestructura Cloud (fundamentalmente Azure DevOps) 
  • Orientación DevOps y experiencia en automatización 
  • Interés por asumir diferentes responsabilidades y roles: ingeniería, consultoría, arquitectura, gestión de equipo
  • Autonomía, planificación y resolución 
  • Residencia en España
Competencias deseadas para el puesto:
  • Experiencia en el desarrollo y análisis de datos con Scala
  • Experiencia en diseño y arquitectura Data 
  • Experiencia en otras soluciones Cloud (AWS, Google)
  • Experiencia en el tratamiento de streams de datos con Kafka