Puntos a tener en cuenta a la hora de definir tu estrategia Data Driven

En más de una ocasión, las organizaciones se focalizan en la tecnología a la hora de elegir la mejor estrategia de datos y por supuesto que la tecnología es importante, si bien es mejor poner el foco en un análisis profundo de los procesos y de las personas. Conocer en profundidad el ciclo de vidaSigue leyendo «Puntos a tener en cuenta a la hora de definir tu estrategia Data Driven»

Data Driven Day 2023, Insights

Si hace un par de semanas estuve en el Lakehouse Day, el pasado jueves tuve la oportunidad de asistir al Data Driven Day 2023 en Madrid organizado por iKN Spain y es por ello que quiero aprovechar para escribir acerca de los puntos clave que saqué del evento. Del Lakehouse Day destaqué el «simple, openSigue leyendo «Data Driven Day 2023, Insights»

Data Linaje con Unity Catalog de Databricks

Como ya mencioné en la anterior entrada, donde hice un breve resumen del Lakehouse Day de Databricks en Madrid, la incorporación de Unity Catalog suma y mucho a la hora de tomar la decisión sobre cual es la mejor herramienta con la que construir la solución de datos corporativa. Del mismo modo mencioné que, paraSigue leyendo «Data Linaje con Unity Catalog de Databricks»

Simple, Open Source y Multicloud

Hace unas semanas estuve en el Lakehouse de Databricks que se celebró en Madrid y entre las muchas cosas que aprendí, me quedo con la frase del título. Haz las cosas de un modo Simple, apuesta por proyectos Open Source y si puedes, sé Multicloud. Estos tres aspectos se mencionaron en multitud de ocasiones duranteSigue leyendo «Simple, Open Source y Multicloud»

Unity Catalog en Azure Databricks: gobernando el Lakehouse

En la primera entrada de Unity Catalog describí brevemente qué es Unity Catalog para saltar a la configuración de nuestro primer Metastore. Ahora, vamos a profundizar en los aspecto de gobernanza, comenzando por la creación de grupos. Como el primer schema que creamos es production, vamos a crear un grupo específico para ese schema. ¡Veamos!Sigue leyendo «Unity Catalog en Azure Databricks: gobernando el Lakehouse»

Los cuatro principios de Data Mesh: Datos como producto

Para quien, todavía no esté al tanto de lo que representa Data Mesh, decir que se trata de un nuevo paradigma que busca principalmente descentralizar la gestión de los Datos. Para ello se construye sobre cuatro pilares básicos que son: En esta ocasión no voy a comenzar por el primero de los pilares que apareceSigue leyendo «Los cuatro principios de Data Mesh: Datos como producto»

How to extend your Data Security at Lakehouse

As you may already know, Lakehouse is an architecture solution developed by Databricks thanks to the Delta Lake file format and built on top of Data Lake. This new approach to data provides many benefits to data teams, but I’m not going to put the spotlight on them at this time, because I’d like toSigue leyendo «How to extend your Data Security at Lakehouse»

Tips para adoptar Data Mesh

Todo aquel que siga con atención los cambios que se llevan produciendo en lo últimos años en el ámbito de los datos, sabrá o al menos le sonará el paradigma Data Mesh. En mi blog ya he dedicado varias entradas a hablar de él y en el de hoy, lo que pretendo es sentar algunasSigue leyendo «Tips para adoptar Data Mesh»

Desplegando un mismo Notebook en múltiples Azure Databricks con Azure DevOps

Hay ocasiones en las que queremos extender las capacidades de un Notebook de Jupyter desarrollado sobre Visual Code a través de un repositorio de Azure DevOps a más de un Azure Databricks Workspace. Esto guarda relación con la puesta en funcionamiento del concepto Data Mesh, pues si en este ejemplo, el Notebook contuviera un procesoSigue leyendo «Desplegando un mismo Notebook en múltiples Azure Databricks con Azure DevOps»

Aplica Cluster Policies en Azure Databricks y evita sustos

Azure Databricks en uno de los principales componentes en desarrollos de Analítica Avanzada y como pieza clave, ofrece la posibilidad de configurarse al gusto de cada uno. Algo que en entornos empresariales puede conllevar ineficiencias y sobrecostes. Con respeto al segundo punto, sólo hace falta echar un vistazo al presupuesto de abajo para entender loSigue leyendo «Aplica Cluster Policies en Azure Databricks y evita sustos»