Ingeniero de Datos en la Nube
100% remoto
Contrato: Se mantiene hasta el 30/6, previsto que se renueve cada año fiscal
Horas: 37,5 horas a la semana (7,5 horas diarias)
En consonancia con las iniciativas estatales de modernización tecnológica, la Oficina de Tecnología Educativa ha llevado a cabo un proyecto de modernización de aplicaciones y plataformas de varios años. El equipo de TI busca un Administrador de Bases de Datos en la Nube (DBA)/Ingeniero ETL que ayude a mantener, optimizar, modernizar y solucionar problemas del almacén de datos, el data mart y la cartera general de datos de la organización. Bajo la dirección de los líderes de equipo de alta dirección e ingeniería de datos, el ingeniero DBA/ETL/ELT gestionará bases de datos y servicios de datos alojados en plataformas en la nube, asegurando que sean seguros, eficientes, altamente disponibles y cumplan con las políticas de gobernanza.
El Ingeniero trabajará directamente con un equipo de ingenieros en la nube, desarrolladores ETL, responsables técnicos, DBAs, gestores de proyectos y analistas para diseñar e implementar los datos de la cartera de Educación, canalizaciones de datos y transformaciones en un conjunto de soluciones más eficientes, escalables y rentables.
Requisitos obligatorios
• Experiencia trabajando con Oracle RDS
• Experiencia trabajando con uno o más servicios en la nube de AWS como almacenamiento S3, flujo de aire gestionado (MWAA), Servicio de Migración de Datos (DMS) en apoyo a la construcción de canalizaciones de datos
• Experiencia trabajando con una variedad de fuentes de datos backend (e.g. SQL Server, Oracle, Postgres, DynamoDB,
Copo de nieve)
• Habilidades avanzadas de programación SQL y capacidad para traducir código Oracle PL SQL y Stored Procedure a plataformas SQL alternativas como Snowflake
• Familiaridad con conceptos de data warehouse y data mart como normalización, hechos, dimensiones, y poco a poco
Cambios en las dimensiones
• Familiaridad con los conceptos e implementaciones de Captura de Datos de Cambio (CDC). Conocimiento de Kafka o similares
Las herramientas de replicación son un plus
• Comprensión de los formatos de archivo comunes como JSON, XML, CSV
• Experiencia básica usando herramientas de scripting para automatizar tareas (por ejemplo: Python, Windows PowerShell, bash)
• Capacidad para escribir scripts de prueba unitaria y validar código ELT/ETL migrado
Preferible
• Experiencia configurando, gestionando y solucionando problemas con la herramienta Airflow. Conocimiento de los DAGs y conceptos de flujo de aire
para gestionar grafos dependientes y pasos complejos
• Conocimiento de funciones del almacén de datos Snowflake como streaming Snowpipe, clonación, viajes en el tiempo y control de acceso basado en roles
• Experiencia previa trabajando en otras grandes organizaciones, preferiblemente estatales o federales
• Conocimiento del ámbito empresarial en el área de Educación y gestión de datos estudiantiles.
• Experiencia trabajando con herramientas de desarrollo de software como GitHub y Jir
Las responsabilidades habituales incluyen:
• Crear y gestionar bases de datos y servicios nativos en la nube (por ejemplo, RDS Oracle, Aurora, Postgres, Snowflake).
• Rastrear y ajustar la ejecución de consultas, la escalada de cálculo y el rendimiento de almacenamiento.
• Definir políticas para instantáneas, recuperación en punto en el tiempo (PITR) y replicación entre regiones.
• Implementar cifrado, políticas de acceso, enmascaramiento y auditoría para cumplir con los estándares FERPA/PII.
• Gestionar migraciones de esquemas, pipelines de datos y despliegues versionados.
• Descubrimiento práctico, diseño de soluciones, replatforming y resolución de problemas para migrar el SSIS Legacy de EOE
Código ETL a una solución basada en SQL con Apache Airflow para planificación y gestión de dependencias.
• Las tareas pueden incluir reingeniería del enfoque global de la solución, construcción de paquetes de código, errores
corrección, pruebas unitarias de código y uso del repositorio de código de GitHub
• Desarrollar y guiar la implementación del Marco de Programación y Dependencias de Flujo de Aire Apache
• Ajuste y optimización del rendimiento de la implementación de la solución, comparar la nueva solución con el entorno local
solución para asegurar que rinda de forma comparable o mejor
• Utilizar Jira para revisar y trabajar en tareas asignadas
• Usar GitHub para hacer check-in y gestionar código, revisiones de código, pull requests
Este es un puesto remoto.
Somos un empleador con igualdad de oportunidades y todos los candidatos calificados recibirán consideración por el empleo sin distinción de raza, color, religión, sexo, origen nacional, estado de discapacidad, estado de veterano protegido o cualquier otra característica protegida por la ley.
(si ya tienes un currículum en Indeed)
