Unity Catalog en Azure Databricks: gobernando el Lakehouse

En la primera entrada de Unity Catalog describí brevemente qué es Unity Catalog para saltar a la configuración de nuestro primer Metastore. Ahora, vamos a profundizar en los aspecto de gobernanza, comenzando por la creación de grupos. Como el primer schema que creamos es production, vamos a crear un grupo específico para ese schema. ¡Veamos!Sigue leyendo «Unity Catalog en Azure Databricks: gobernando el Lakehouse»

Unity Catalog en Azure Databricks: creando nuestro primer metastore

Hace tiempo que tenía ganas de hacer un artículo acerca de Unity Catalog profundizando en elementos como Metastore, Catalog, Schema,… Databricks a día de hoy es una de las piezas clave en el desarrollo de soluciones de Analítica Avanzada y justo por eso es por lo que este artículo cobra especial valor. Desde que haceSigue leyendo «Unity Catalog en Azure Databricks: creando nuestro primer metastore»

Change Data Capture en Azure SQL Database y Azure Data Factory

Azure SQL Database Change Data Capture o CDC es una capacidad que permite a los sistema de bases de datos (SQL y NoSQL) como Azure SQL Database capturar aquellos registros que han sufrido modificaciones (lo que son inserciones, borrados y actualizaciones). Dicha cualidad se apoya en elementos como la metadata y tablas de control deSigue leyendo «Change Data Capture en Azure SQL Database y Azure Data Factory»

Dispara tus pipelines de Azure Data Factory mediante eventos

Azure Data Factory hace tiempo que dejó de ser una simple ETL para convertirse en un genial orquestador de procesos de datos. Es más, para mi que he tenido la oportunidad de trabajar con multitud de herramientas similares, creo que Data Factory hoy en día está, sin duda, en el top 3. Uno de losSigue leyendo «Dispara tus pipelines de Azure Data Factory mediante eventos»

Probando un ordenador con ruedas

No son ni las cinco de la mañana y tengo los ojos como platos. Desde pequeño me viene pasando que, si al día siguiente tengo algún plan genial, no soy capaz de dormir. Así que no me ha quedado otra que levantarme y ponerme a escribir esta entrada para, al menos, aprovechar que estoy enSigue leyendo «Probando un ordenador con ruedas»

Los cuatro principios de Data Mesh: Datos como producto

Para quien, todavía no esté al tanto de lo que representa Data Mesh, decir que se trata de un nuevo paradigma que busca principalmente descentralizar la gestión de los Datos. Para ello se construye sobre cuatro pilares básicos que son: En esta ocasión no voy a comenzar por el primero de los pilares que apareceSigue leyendo «Los cuatro principios de Data Mesh: Datos como producto»

How to extend your Data Security at Lakehouse

As you may already know, Lakehouse is an architecture solution developed by Databricks thanks to the Delta Lake file format and built on top of Data Lake. This new approach to data provides many benefits to data teams, but I’m not going to put the spotlight on them at this time, because I’d like toSigue leyendo «How to extend your Data Security at Lakehouse»

Tips para adoptar Data Mesh

Todo aquel que siga con atención los cambios que se llevan produciendo en lo últimos años en el ámbito de los datos, sabrá o al menos le sonará el paradigma Data Mesh. En mi blog ya he dedicado varias entradas a hablar de él y en el de hoy, lo que pretendo es sentar algunasSigue leyendo «Tips para adoptar Data Mesh»

DataOps, tu primer proyecto de Datos con Visual Studio

Hoy en día, pensar en cómo reutilizar el trabajo realizado y sobre todo permitir que se ejecute de forma automática, eliminando al máximo las manualidades, es sin duda un enfoque de lo más acertado. Es por eso, que resulta especialmente interesante conocer cómo podemos utilizar Visual Studio como entorno de desarrollo, incluso, en proyectos deSigue leyendo «DataOps, tu primer proyecto de Datos con Visual Studio»