Cloud Data Engineer

Data Engineer para startup especializada en diseño, construcción y gestión de plataformas de datos

Python scala Spark PostgreSQL MongoDB AWS Azure Terraform Jenkins Kafka

Condiciones profesionales

Lo primero de todo, comenzamos con las condiciones de trabajo que te ofrece la empresa. Así, si no te cuadra en lo más básico, no pierdes más tiempo en seguir leyendo.

  • Flexibilidad horaria y 100% remoto
  • Contrato indefinido 
  • Salario aproximado 35-45K más bonus por resultados 
  • Plan de formación anual  
  • Recursos y herramientas a tu disposición para trabajar en remoto

Si las condiciones profesionales, te han parecido atractivas y están en la línea de tus motivaciones profesionales, ¡sigue leyendo!.

Producto o servicio

Empresa especializada en el diseño, la construcción y gestión de plataformas de datos entornos analíticos, datos industriales IoT, orientadas a eventos y experiencia del empleado. 

Está activo en proyectos de streaming de datos para diferentes sectores y contextos. Además son partner certificado de soluciones en tiempo real como Confluent, RabbitMQ-Tanzu, TinyBird.io, etc.

Equipo

El equipo está formado por aproximadamente 15 profesionales especializados en ingeniería y estrategia de datos.

El stack tecnológico habitual suele ser Python, Spark, Terraform, Jenkins, AzureDevOps. Pero dependiendo del proyecto, también puedes trabajar con otras tecnologías como Scala, Ansible, GitOps, Kafka/Confluent. 

El trabajo se realiza en pequeños equipos remotos, autónomos y flexibles. Sin burocracias ni formalismos, pero con responsabilidad y madurez profesional. 

Una cultura que favorece la flexibilidad, la conciliación y el crecimiento profesional.

Funciones y responsabilidades

Tu día a día como profesional:

Administrarás los flujos de trabajo de datos, los pipeline y los procesos ETL. Aprovechando, integrando y explotando el valor de los datos. 

Dependiendo de tu experiencia y tus inquietudes, irás asumiendo diferentes responsabilidades no solo la ingeniería de datos también en el diseño, la construcción y la gestión de los proyectos de plataformas de datos.

Además, si tienes experiencia en streaming, podrás participar en proyectos de monitorización en tiempo real.

Competencias profesionales

Se le llaman Soft Skills o Hard Skills. No vamos a entrar en terminología. Lo importante es que sepas qué habilidades y experiencia se espera de ti.

Competencias necesarias para el puesto:
  • Si tu experiencia es en Azure probablemente hayas trabajado con Spark en DataBricks, DataFactory, Azure Devops.
  • Si has trabajado en AWS estás más familiarizado/a con Spark en EMR, Redshift, Athena, Airflow.
  • Y si has participado en proyectos de procesamiento en streaming, seguramente te gustaría trabajar con Kafka, KSQL, Kafka Connect, etc.

Lo más importante es que tengas experiencia o/ en diferentes tecnologías y te motive seguir aprendiendo de cada ecosistema tecnológico.

Competencias deseadas para el puesto:

El stack habitual de trabajo es con Python, pero sería estupendo si tienes experiencia/conocimientos en:

  • Desarrollo y análisis de datos con Scala
  • Despliegue con Docker y orquestación con Kubernetes
  • Infraestructura como código con Terraform
  • BBDD como MongoDB, ElasticSearch, Neo4j
  • Tratamiento de streams de datos con Kafka