MISION DEL CARGODiseñar, construir y mantener infraestructuras de datos confiables, escalables y seguras, que permitan la integración, procesamiento y análisis eficiente de la información para apoyar la toma de decisiones estratégicas de la empresa.ESTUDIOSTítulo universitario en Ingeniería en Sistemas, Ciencias de la Computación, Matemáticas, Estadística o afines.Maestría en Ciencia de Datos o Big Data (opcional pero valorada).Experiencia 2 a 4 años en ingeniería de datos, integración de sistemas o administración de bases de datos. Experiencia en entornos de big data y cloud computing.Conocimientos técnicos Lenguajes: SQL, Python, Scala o Java. Bases de datos: PostgreSQL, MySQL, MongoDB, Cassandra. Herramientas ETL: Airflow, Talend, dbt. Plataformas en la nube: AWS (Glue, Redshift, S3), Azure Data Factory, GCP BigQuery. Experiencia en contenedores y orquestación (Docker, Kubernetes). Conocimiento de frameworks de procesamiento distribuido (Spark, Hadoop). Buen manejo de control de versiones (Git).EXCELENTE REMUNERACION Y AMBIENTE DE TRABAJO