Dispara tus pipelines de Azure Data Factory mediante eventos

Azure Data Factory hace tiempo que dejó de ser una simple ETL para convertirse en un genial orquestador de procesos de datos. Es más, para mi que he tenido la oportunidad de trabajar con multitud de herramientas similares, creo que Data Factory hoy en día está, sin duda, en el top 3. Uno de losSigue leyendo «Dispara tus pipelines de Azure Data Factory mediante eventos»

A veces, no es aconsejable mezclar peras con manzanas

Esta semana, tratando de crear un pipeline de Azure Data Factory que ejecuta una actividad de Azure Databricks, que levanta un clúster pasando un conjunto de parámetros para la configuración y, además, utilizando el fichero dh-init.sh para completar la instalación de un conjunto de librerías desde la zona de configuración avanzada, he sufrido un montónSigue leyendo «A veces, no es aconsejable mezclar peras con manzanas»

Probando un ordenador con ruedas

No son ni las cinco de la mañana y tengo los ojos como platos. Desde pequeño me viene pasando que, si al día siguiente tengo algún plan genial, no soy capaz de dormir. Así que no me ha quedado otra que levantarme y ponerme a escribir esta entrada para, al menos, aprovechar que estoy enSigue leyendo «Probando un ordenador con ruedas»

How to extend your Data Security at Lakehouse

As you may already know, Lakehouse is an architecture solution developed by Databricks thanks to the Delta Lake file format and built on top of Data Lake. This new approach to data provides many benefits to data teams, but I’m not going to put the spotlight on them at this time, because I’d like toSigue leyendo «How to extend your Data Security at Lakehouse»

Preparando la certificación AZ-104 de Microsoft

Ha pasado tiempo desde que me comenzara a interesar Azure más allá del ámbito de los datos. Esto me llevó a avanzar en el estudio de diferentes componentes y soluciones que me han permitido crecer y sobre todo, disfrutar de una visión mucho más general del mundo Cloud. Sin duda, un paso importante fue elSigue leyendo «Preparando la certificación AZ-104 de Microsoft»

Tips para adoptar Data Mesh

Todo aquel que siga con atención los cambios que se llevan produciendo en lo últimos años en el ámbito de los datos, sabrá o al menos le sonará el paradigma Data Mesh. En mi blog ya he dedicado varias entradas a hablar de él y en el de hoy, lo que pretendo es sentar algunasSigue leyendo «Tips para adoptar Data Mesh»

Semantic Version Strategy es clave para caracterizar correctamente tus releases, artifacts, librerías,…

Hace tiempo escribí acerca de la estrategia de branching y hasta de los tipos de merge al crear la Pull Request, hoy toca hablar de lo que implica la Semantic Version y cómo se debe utilizar correctamente en nuestros pipelines de Azure DevOps. Esto es un básico en el desarrollo de software y ayuda aSigue leyendo «Semantic Version Strategy es clave para caracterizar correctamente tus releases, artifacts, librerías,…»

DataOps, tu primer proyecto de Datos con Visual Studio

Hoy en día, pensar en cómo reutilizar el trabajo realizado y sobre todo permitir que se ejecute de forma automática, eliminando al máximo las manualidades, es sin duda un enfoque de lo más acertado. Es por eso, que resulta especialmente interesante conocer cómo podemos utilizar Visual Studio como entorno de desarrollo, incluso, en proyectos deSigue leyendo «DataOps, tu primer proyecto de Datos con Visual Studio»

Conectando mi Repo de Databricks a Azure DevOps

Hay ocasiones en las que trabajamos directamente sobre nuestro Azure Databrick Workspace sin pararnos a pensar en aspectos clave como el versionado del código, las subidas de las ramas features y su integración en la de desarrollo, procesos de aprobación de las PR o, más importante si cabe, cómo hacer el caso de uso queSigue leyendo «Conectando mi Repo de Databricks a Azure DevOps»

Desplegando un mismo Notebook en múltiples Azure Databricks con Azure DevOps

Hay ocasiones en las que queremos extender las capacidades de un Notebook de Jupyter desarrollado sobre Visual Code a través de un repositorio de Azure DevOps a más de un Azure Databricks Workspace. Esto guarda relación con la puesta en funcionamiento del concepto Data Mesh, pues si en este ejemplo, el Notebook contuviera un procesoSigue leyendo «Desplegando un mismo Notebook en múltiples Azure Databricks con Azure DevOps»