Estamos buscando un desarrollador con experiencia en java y tecnologías relacionadas! si eres ingeniero de sistemas, tecnólogo titulado o profesional afín, y cuentas con al menos 1 año de experiencia, esta oportunidad es para ti. requisitos principales: experiencia con git/git hub. bases de datos: sql, oracle. conocimientos en spring boot (back), java, java script, node.js, type script. desarrollo de integraciones vía api y webservices bajo arquitecturas soa y rest. bases de poo, lógica de programación y manejo de frameworks. deseables: experiencia en cloud (aws, azure, gcp). prácticas ágiles: tdd, bdd, clean code, refactoring, dev ops, pair-programming. pruebas unitarias (front y back). experiencia con gestor documental o bpm. ¿qué ofrecemos? proyecto innovador y dinámico. modalidad flexible (especificar si aplica). ¿te interesa? envíanos tu cv y sé parte de este equipo! tiempo: 2 meses en prestación de servicios oportunidad de aprendizaje y crecimiento....
Encargado de diseñar, construir y optimizar pipelines de datos a gran escala, integrando diversas fuentes internas y externas (api, base de datos esto es de copilot). debe trabajar con tecnologías de procesamiento distribuido y almacenamiento masivo para habilitar análisis en tiempo real y batch. habilidades clave: experiencia con spark, hadoop, kafka o herramientas similares. dominio de sql avanzado y manejo de bases de datos relacionales y nosql. conocimiento en python o scala para desarrollo de etl/elt. experiencia en entornos de nube (azure, aws o gcp)....
¡estamos buscando un desarrollador con experiencia en java y tecnologías relacionadas! si eres ingeniero de sistemas, tecnólogo titulado o profesional afín, y cuentas con al menos 1 año de experiencia, esta oportunidad es para ti. requisitos principales: experiencia con git/github. bases de datos: sql, oracle. conocimientos en spring boot (back), java, javascript, node.js, typescript. desarrollo de integraciones vía api y webservices bajo arquitecturas soa y rest. bases de poo, lógica de programación y manejo de frameworks. deseables: experiencia en cloud (aws, azure, gcp). prácticas ágiles: tdd, bdd, cleancode, refactoring, devops, pair-programming. pruebas unitarias (front y back). experiencia con gestor documental o bpm. ¿qué ofrecemos? proyecto innovador y dinámico. modalidad flexible (especificar si aplica). ¿te interesa? envíanos tu cv y sé parte de este equipo! tiempo: 2 meses en prestación de servicios oportunidad de aprendizaje y crecimiento....
5+ years of experience required on data architecture (order matters): o hands-on experience in defining and implementing data mesh principles across multiples domains o proven expertise in dimensional modeling (star and snowflake schema). o in-depth knowledge and hands-on experience with data vault 2.0 modeling. o experience designing enterprise data architecture using modern lakehouse, dalalake and warehouse patterns. o proficient in designing logica, physical, and canonical data models aligned with business domains. o experience working with metadata management and catalogs. o strong knowledge of master data management mdm, data lineage and data governance best practices. o knowledge of data privacy regulations and secure data architecture design. - technical proficiency in: o python expert. o open format table expert (delta lake or iceberg or hudi). o azure / gcp cloud professional data architect certification. o gcp dataplex expert. o databricks unity catalog expert. o spark y/o flink expert....
Encargado de diseñar, construir y optimizar pipelines de datos a gran escala, integrando diversas fuentes internas y externas (api, base de datos esto es de copilot). debe trabajar con tecnologías de procesamiento distribuido y almacenamiento masivo para habilitar análisis en tiempo real y batch. habilidades clave: experiencia con spark, hadoop, kafka o herramientas similares. dominio de sql avanzado y manejo de bases de datos relacionales y nosql. conocimiento en python o scala para desarrollo de etl/elt. experiencia en entornos de nube (azure, aws o gcp)....
• 5+ years of experience required on data architecture (order matters): o hands-on experience in defining and implementing data mesh principles across multiples domains o proven expertise in dimensional modeling (star and snowflake schema). o in-depth knowledge and hands-on experience with data vault 2.0 modeling. o experience designing enterprise data architecture using modern lakehouse, dalalake and warehouse patterns. o proficient in designing logica, physical, and canonical data models aligned with business domains. o experience working with metadata management and catalogs. o strong knowledge of master data management mdm, data lineage and data governance best practices. o knowledge of data privacy regulations and secure data architecture design. • technical proficiency in: o python expert. o open format table expert (delta lake or iceberg or hudi). o azure / gcp cloud professional data architect certification. o gcp dataplex expert. o databricks unity catalog expert. o spark y/o flink expert....
Encargado de diseñar, construir y optimizar pipelines de datos a gran escala, integrando diversas fuentes internas y externas (api, base de datos esto es de copilot). debe trabajar con tecnologías de procesamiento distribuido y almacenamiento masivo para habilitar análisis en tiempo real y batch. habilidades clave: experiencia con spark, hadoop, kafka o herramientas similares. dominio de sql avanzado y manejo de bases de datos relacionales y nosql. conocimiento en python o scala para desarrollo de etl/elt. experiencia en entornos de nube (azure, aws o gcp)....
Cree una alerta de empleo y reciba nuevas ofertas que se adaptan a su perfil desde más de 2550 sitios web de empleo