Factor IT

Ingeniero de Datos en Factor IT

Empleo finalizado - No se reciben más postulantes

En FactorIT, estamos en búsqueda de profesionales de datos que se unan a nuestro equipo para trabajar en Ciudad de México, con la posibilidad de participar en múltiples proyectos regionales a lo largo de Latinoamérica. Nos enfocamos en liderar la transformación digital de nuestros clientes, utilizando tecnologías de punta como la Inteligencia Artificial y Data & Analytics, para procesar grandes volúmenes de datos y ofrecer soluciones innovadoras y proactivas.

Buscamos expertos que deseen ser parte de esta emocionante aventura, trabajando en un ambiente que fomenta la creatividad, la colaboración y el desarrollo profesional. Si te apasiona el mundo de los datos y quieres impactar positivamente en la región, ¡únete a nosotros y sé parte de la revolución digital en Latinoamérica!

Enviar CV a través de getonbrd.com.

Funciones del cargo

Trabajarás como Ingeniero de Datos en FactorIT en Ciudad de México, en un esquema híbrido. Formarás parte de un equipo interdisciplinario de ingenieros, analistas y científicos de datos. Tu principal responsabilidad será diseñar, construir y mantener pipelines de datos robustos y eficientes que permitan a la organización tomar decisiones informadas basadas en datos confiables y procesables.

Requerimientos del cargo


Conocimientos Técnicos:

  • Herramientas ETL: Profundo conocimiento en herramientas como SSIS, ODI, SPARK, Informática y Kafka para la extracción, transformación y carga de datos.
  • Bases de Datos: Experiencia sólida trabajando con Oracle, SQL Server, DB2, Cassandra, y otros sistemas de bases de datos relacionales y no relacionales.
  • IDE de Desarrollo: Uso de herramientas como Eclipse, IntelliJ y Gitlab para el desarrollo y gestión del ciclo de vida del código.
  • Conocimiento en herramientas de gestión y colaboración: Familiaridad con JIRA para la gestión de tareas y proyectos, así como Office para la documentación y comunicación efectiva.
  • Gestión de código y despliegue: Experiencia en herramientas de CI/CD como Bitbucket, Jenkins y SonarQ.

Actividades Principales a Realizar:

  • Desarrollar soluciones de manejo de datos a medida que se adapten a las necesidades y tecnologías específicas de la compañía, asegurando la eficiencia y escalabilidad.
  • Realizar análisis de datos para la resolución de incidentes y brindar insights que contribuyan a la toma de decisiones informadas.
  • Ejecutar ingeniería inversa para identificar áreas de oportunidad y proponer mejoras en procesos de datos, enfocándose en la mejora continua.
  • Documentar procesos y soluciones implementadas, asegurando que toda la información relevante esté registrada y actualizada.
  • Diseñar e implementar flujos de datos (data pipelines) que permitan la extracción, transformación y carga de datos desde múltiples fuentes hacia el Data Warehouse de manera eficiente y normalizada.
  • Analizar el comportamiento de la información para generar KPIs, cubos de información y otros elementos que faciliten la explotación de datos.
  • Aplicar conocimientos del DAMA-DMBOK para asegurar la correcta gobernanza y calidad de los datos a lo largo del ciclo de vida.
  • Modelar datos utilizando esquemas normalizados (Snowflake/Star schemas) y asegurar la consistencia y eficiencia de los modelos.
  • Desarrollar consultas y procedimientos de datos utilizando SQL y PLSQL, manejando DML y DDL de manera eficiente.
  • Participar en la identificación, aislamiento, resolución y comunicación de problemas de datos en los distintos ambientes (DEV, QA, UAT y Producción).
  • Implementar pruebas unitarias y participar en la gestión del ciclo de desarrollo de tecnología, utilizando herramientas como Bitbucket, Jenkins y SonarQ.
  • Diseñar y desplegar ambientes basados en microservicios que soporten la arquitectura de datos de la empresa.
  • Desarrollar soluciones de Big Data utilizando tecnologías como Spark y Hadoop.
  • Identificar y ejecutar procesos de mejora continua en el manejo y calidad de datos.

Experiencia:

  • Al menos 3 años de experiencia como desarrollador ETL, con habilidades en diseño, análisis e implementación de procesos de datos.
  • Al menos 3 años de experiencia en desarrollo de código enfocado en datos utilizando lenguajes como Java, Python y/o Scala.
  • Experiencia en arquitectura y soporte para procesos de Big Data, preferentemente con Spark y Hadoop.
  • Conocimiento en la estructuración y patrones de Data Warehousing y Data Lakes, así como en la implementación de proyectos de datos de punta a punta.
  • Familiaridad con sistemas de tickets como JIRA, Trello o Redmine para la gestión y seguimiento de tareas.
  • Experiencia en implementaciones de datos utilizando metodologías ágiles.
  • Al menos 2 años de experiencia utilizando herramientas ETL como SSIS, ODI, NIFI o similares.
  • Experiencia en plataformas Cloud, preferentemente en IBM Cloud.

Deseable:

  • Experiencia en la integración de aplicaciones y datos utilizando Kafka (especialmente Confluent).
  • Conocimiento en DataFlow Manager de Cloudera para la gestión y control de flujos de datos.

Habilidades Blandas:

  • Trabajo en equipo y capacidad para colaborar con equipos multidisciplinarios
  • Orientación al detalle y capacidad para identificar y resolver problemas de datos de manera efectiva.
  • Buena comunicación y habilidad para documentar y compartir conocimientos de manera clara y efectiva.

GETONBRD Job ID: 49719

Política de trabajo remoto

Híbrido

Se trabaja algunos días de forma remota y otros en la oficina en Ciudad de México (México).

Sólo empleos que valen la pena.
Regístrate gratis y descubre empleos seleccionados para ti.