MisiónDesarrollar, optimizar y mantener pipelines de datos que permitan mantener la constante evolución del big data institucional. Garantizar la efectividad de los diferentes componentes para la ingesta, organización, almacenamiento y publicación de datos para impulsar las soluciones analíticas y atender las necesidades de los diferentes proyectos basados en datos.Responsabilidades: Desarrollar, optimizar y mantener pipelines para el manejo de altos volúmenes de datos alineados a los principios de ETL. Identificar fuentes de información y canalizar su adecuado uso. Crear productos de datos para que los miembros del equipo de analistas y científicos de datos mejoren su productividad Implementar procesos y controles para asegurar la calidad y privaciodad de los datos de los diferentes repositorios de datos. Desarrollar reportes que agreguen valor a las diferentes unidades y apoyen la toma de decisiones impulsando la democratización de los datos. Mantener los estándares de calidad de las diferentes soluciones desarrolladas aplicando las mejores prácticas para optimización del código técnico. Generar eficiencia mediante su participación activa en equipos que actúan bajo marcos de trabajo ágiles.Tiempo de Experiencia2 añosEn áreas de gestión de la data y/o Big Data. Con conocimiento en pipelines de datos y programación SQL.Nivel de EducaciónTercer Nivel / Licenciatura en SISTEMAS INFORMATICOS, SOFTWARE O CARRERAS AFINESConocimientos Técnicos Big Data • Programación SQL Server • Herramientas de reportes • Bases de datos multidimensionales • Metodologías Ágiles • Microsoft Excel • Bases de datos NoSql • Herramientas ETL