En la primera entrada de Unity Catalog describí brevemente qué es Unity Catalog para saltar a la configuración de nuestro primer Metastore. Ahora, vamos a profundizar en los aspecto de gobernanza, comenzando por la creación de grupos. Como el primer schema que creamos es production, vamos a crear un grupo específico para ese schema. ¡Veamos!Sigue leyendo «Unity Catalog en Azure Databricks: gobernando el Lakehouse»
Archivo de categoría: Innovación
Change Data Capture en Azure SQL Database y Azure Data Factory
Azure SQL Database Change Data Capture o CDC es una capacidad que permite a los sistema de bases de datos (SQL y NoSQL) como Azure SQL Database capturar aquellos registros que han sufrido modificaciones (lo que son inserciones, borrados y actualizaciones). Dicha cualidad se apoya en elementos como la metadata y tablas de control deSigue leyendo «Change Data Capture en Azure SQL Database y Azure Data Factory»
Probando un ordenador con ruedas
No son ni las cinco de la mañana y tengo los ojos como platos. Desde pequeño me viene pasando que, si al día siguiente tengo algún plan genial, no soy capaz de dormir. Así que no me ha quedado otra que levantarme y ponerme a escribir esta entrada para, al menos, aprovechar que estoy enSigue leyendo «Probando un ordenador con ruedas»
La Santísima Trinidad
Mucho estoy escuchando hablar sobre lo cerca que estamos para la llegada de la Inteligencia Artificial General. Estos días es imposible no leer tweets y post en LinkedIn,… acerca de ChatGPT. Si bien es interesante, para mi hay un trinomio que de verdad me genera «preocupación»: Metaverso, Computación Cuántica y Superinteligencia Artificial (SIA). Pensar enSigue leyendo «La Santísima Trinidad»
How to extend your Data Security at Lakehouse
As you may already know, Lakehouse is an architecture solution developed by Databricks thanks to the Delta Lake file format and built on top of Data Lake. This new approach to data provides many benefits to data teams, but I’m not going to put the spotlight on them at this time, because I’d like toSigue leyendo «How to extend your Data Security at Lakehouse»
Tips para adoptar Data Mesh
Todo aquel que siga con atención los cambios que se llevan produciendo en lo últimos años en el ámbito de los datos, sabrá o al menos le sonará el paradigma Data Mesh. En mi blog ya he dedicado varias entradas a hablar de él y en el de hoy, lo que pretendo es sentar algunasSigue leyendo «Tips para adoptar Data Mesh»
Semantic Version Strategy es clave para caracterizar correctamente tus releases, artifacts, librerías,…
Hace tiempo escribí acerca de la estrategia de branching y hasta de los tipos de merge al crear la Pull Request, hoy toca hablar de lo que implica la Semantic Version y cómo se debe utilizar correctamente en nuestros pipelines de Azure DevOps. Esto es un básico en el desarrollo de software y ayuda aSigue leyendo «Semantic Version Strategy es clave para caracterizar correctamente tus releases, artifacts, librerías,…»
San Junípero, Matrix Resurrections o la inmortalidad 2.0
Ha pasado bastante tiempo desde que vi el episodio de San Junípero de la saga Black Mirror en Netflix y más recientemente, he tenido ocasión de ver la nueva película de Keanu Reeves, Matrix Resurrections. En ambos casos se trata el tema de la realidad virtual y también el «poder disfrutar» de dichos entornos simuladosSigue leyendo «San Junípero, Matrix Resurrections o la inmortalidad 2.0»
Desplegando un mismo Notebook en múltiples Azure Databricks con Azure DevOps
Hay ocasiones en las que queremos extender las capacidades de un Notebook de Jupyter desarrollado sobre Visual Code a través de un repositorio de Azure DevOps a más de un Azure Databricks Workspace. Esto guarda relación con la puesta en funcionamiento del concepto Data Mesh, pues si en este ejemplo, el Notebook contuviera un procesoSigue leyendo «Desplegando un mismo Notebook en múltiples Azure Databricks con Azure DevOps»
Benchmark de procesos de carga en Azure Data Factory
Hoy día los equipo de #Data están continuamente moviendo datos y aunque existen opciones como la virtualización, en muchas ocasiones al menos uno o dos saltos son necesarios. Es por ello, que en la entrada de hoy he decidido hacer cuatro supuestos para que, de un modo sencillo, se pueda comprender las ventajas de unaSigue leyendo «Benchmark de procesos de carga en Azure Data Factory»