Tips para adoptar Data Mesh

Todo aquel que siga con atención los cambios que se llevan produciendo en lo últimos años en el ámbito de los datos, sabrá o al menos le sonará el paradigma Data Mesh. En mi blog ya he dedicado varias entradas a hablar de él y en el de hoy, lo que pretendo es sentar algunasSigue leyendo «Tips para adoptar Data Mesh»

DataOps, tu primer proyecto de Datos con Visual Studio

Hoy en día, pensar en cómo reutilizar el trabajo realizado y sobre todo permitir que se ejecute de forma automática, eliminando al máximo las manualidades, es sin duda un enfoque de lo más acertado. Es por eso, que resulta especialmente interesante conocer cómo podemos utilizar Visual Studio como entorno de desarrollo, incluso, en proyectos deSigue leyendo «DataOps, tu primer proyecto de Datos con Visual Studio»

Conectando mi Repo de Databricks a Azure DevOps

Hay ocasiones en las que trabajamos directamente sobre nuestro Azure Databrick Workspace sin pararnos a pensar en aspectos clave como el versionado del código, las subidas de las ramas features y su integración en la de desarrollo, procesos de aprobación de las PR o, más importante si cabe, cómo hacer el caso de uso queSigue leyendo «Conectando mi Repo de Databricks a Azure DevOps»

Benchmark de procesos de carga en Azure Data Factory

Hoy día los equipo de #Data están continuamente moviendo datos y aunque existen opciones como la virtualización, en muchas ocasiones al menos uno o dos saltos son necesarios. Es por ello, que en la entrada de hoy he decidido hacer cuatro supuestos para que, de un modo sencillo, se pueda comprender las ventajas de unaSigue leyendo «Benchmark de procesos de carga en Azure Data Factory»

Comienzo con MLOps y continuo con Lakehouse. ¡Larga vida a Databricks!

Hace unos días obtuve mi primera insignia de Databricks, se trató de la Lakehouse Fundamental. Ciertamente no es complicada de obtener y en este caso además, el examen es gratuito, con lo que si pretendes avanzar en el conocimiento de su stack tecnológico, estás a tiempo. Tan sólo tienes que inscribirte en la Academia deSigue leyendo «Comienzo con MLOps y continuo con Lakehouse. ¡Larga vida a Databricks!»

Garantizando la seguridad del dato en Azure Data Lake Gen2

Hace unos días publiqué una entrada sobre Azure Data Lake como solución ideal sobre la que construir el almacén de datos empresarial y hoy amplio el contenido ofreciendo una visión más específica sobre las principales características que habilita con respecto a la seguridad. Hay dos aspectos básicos que definen el nivel de seguridad que seSigue leyendo «Garantizando la seguridad del dato en Azure Data Lake Gen2»

Azure Table Storage o Azure CosmosDB Table Storage

El título presenta dos componentes que suenan muy parecidos, si bien, cada una dispone de ciertas características única y es gracias a ellas, por lo que permiten cubrir un scope de casos de uso muy amplio. Si además bajamos al detalle vemos que, no son herramientas excluyentes, pues ambas se complementan de una manera muySigue leyendo «Azure Table Storage o Azure CosmosDB Table Storage»

Novedades en Azure Synapse, el multiusos de Microsoft

Si la semana pasada pude asistir al Microsoft Cloud Data Summit, hoy he tenido la oportunidad de ver un especial sobre Azure Synapse titulado «Build an Unified Analytics Platform with Azure Synapse and Power BI«. La sesión estaba grabada previamente, con lo que he podido aprovechar el rato de la comida para empaparme de susSigue leyendo «Novedades en Azure Synapse, el multiusos de Microsoft»

DataOps con Visual Code, Azure Databricks y Azure Data Factory

En la primera entrada de DataOps con Visual Code y Azure Databricks realicé un step by step para conectar nuestro IDE con Azure Databricks y así poder ejecutar en local nuestros scripts de Spark (recordar que soporta varios lenguajes como pySpark, SparkQL, Scala, R). En la entrada de hoy, hablo acerca de cómo configurar losSigue leyendo «DataOps con Visual Code, Azure Databricks y Azure Data Factory»

DataOps con VS Code y Azure Databricks

En más de una ocasión he hablado acerca de la importancia de desarrollar con calidad nuestros proyectos, algo que resulta especialmente delicado cuando de datos se trata y es ahí, por tanto, donde cobra especial relevancia la adopción de buenas prácticas y cómo éstas se ponen en valor. En mi caso, abogo por utilizar unSigue leyendo «DataOps con VS Code y Azure Databricks»