Cargando proyectos…
Cargando proyectos…
Este proyecto requiere un desarrollador especializado en procesamiento de datos a gran escala utilizando Apache Spark y Scala. El rol implica diseñar e implementar pipelines de datos robustos, optimizar consultas SQL complejas y gestionar infraestructura en AWS. Se espera que el profesional desarrolle soluciones que procesen volúmenes significativos de información, garantizando rendimiento y mantenibilidad del código. El presupuesto de USD 3000-15000 para 52 semanas sugiere un proyecto con alcance variable o dedicación flexible, posiblemente con hitos definidos. El stack técnico menciona Java complementariamente, lo que indica compatibilidad con ecosistemas JVM. Dada la duración estimada y la estabilidad del cliente, se busca una relación profesional de mediano plazo con compromisos consistentes.
Buscamos Desarrollador de Spark y Scala para proyecto estable de cliente 100% remoto desde España. Tech Stack: Spark, Scala, SQL, Java, AWS.
Se requiere experiencia demostrable en proyectos con Apache Spark, preferiblemente en contextos de producción. Dominio de optimización de jobs y manejo de DataFrames es esencial.
No necesariamente. Se valora experiencia práctica en servicios AWS relevantes (EC2, S3, EMR). Las certificaciones son un plus pero no requisito excluyente.
Indica un cliente con demanda sostenida por 52 semanas. Se espera disponibilidad consistente, aunque el número de horas semanales puede variar según el acuerdo individual.