Ayer tarde tuve la oportunidad de ver el documental sobre David Bowie en Netflix. Era una de esas tardes poco movidas y en las que encadenas una película con otra y parece como si el sofá te fuera engullendo poco a poco. No me mires mal, ¡alguna vez te tienes que dar ese capricho! 😉
La verdad es que no me terminó de gustar, me esperaba algo más de conexión con sus canciones, conciertos,… lo único que quedó meridianamente claro es que fue un visionario en muchos aspectos, tanto dentro de la música como fuera, y además fue una persona sin ningún tipo de miedo a experimentar y reinventarse constantemente. Como ya he escrito en algún que otro artículo, en la Surface desde donde escribo, tengo descargada la canción «Heroes» y no hay fin de semana que no la escuche, algo que durante un largo periodo de mi vida, sucedía de modo diario al desayunar. ¡Estoy muy ligado a esa canción!
En el mundo de los datos, sucede algo parecido, hay ocasiones en las que debes salir de tu zona de confort y enfrentarte a nuevos casos de uso empresariales que, sin duda, representan todo un desafío. Ya sea por la necesidad de cumplir con diferentes reglamentos normativos, como GDPR, HIPAA,… por el crecimiento del volumen de datos, con cifras cercanas a los petabytes de información y cómo no, por la necesidad de procesamiento de eventos en tipo real. Si bien algún purista me diría que, esto se relaciona tan sólo con dos de las tres V’s fundadoras del Big Data; velocidad y volumen, a lo que le respondería que aún siendo importante, la variedad para muchos de los ecosistemas empresariales, ha quedado solventada mediante la adopción de diferentes estándares, y por ello, en este contexto, la excluyo.
Echando la vista atrás y haciendo resumen de lo leído y compartido en esta última semana, tengo que destacar dos entradas de LinkedIn. La primera fue el enfoque descrito por Bert Hoorne acerca de cómo construir una plataforma de datos para el sector salud. En ella se trabajan multitud de fuentes de datos sensibles (PII) mediante la adopción de los arriba mencionados estándares, que para el caso son FHIR, openEHR y OMOP. Pero también habla de una solución de Microsoft, Confidential Computing, que incrementa las capacidades de trabajo colaborativas con respecto a datos sensibles, gracias a un proceso de protección del dato en uso dentro del propio corazón de la aplicación. Por último, dejo aquí el link de su entrada, para que puedas echar un vistazo a su artículo.
Y la segunda, me la he encontrado esta mañana tras revisar la lista de seguidores de la RRSS y descubrir a un nuevo contacto al que he comenzado a seguir y gracias al que me he desayunado la propuesta de Zendesk para responder a las necesidades de escalado, manejando la seguridad del dato (presentes en ocho regiones de AWS) y dando respuesta a gran cantidad de eventos (hablan de 10.000 millones). Cuando digo escalado, me refiero a la necesidad de responder a volúmenes de la magnitud de petabytes, que es algo relativamente común en empresas de cierto tamaño o sector. Por cierto, te recomiendo que eches un vistazo para entender cómo lidian con ello en la entrada que dejo aquí.
La original forma de incorporar AWS Database Migration Service para extraer los datos modificados desde la nada desdeñable cifra de 1.800 MySQL, me ha resultado inspiradora. Recuerdo haber presentado un step by step de un proceso similar, que quizás pueda resultar de interés para replicar esta arquitectura sobre AWS en Azure, el título de la entrada fue «Auditando los cambios mediante tablas temporales con versión del sistema» y os la dejo aquí.
Pues la conclusión final no es otra que todo los días podemos descubrir algo nuevo, que sólo está en nuestra mano ser curiosos y querer aprender para mejorarnos ese uno por cierto diario del que habla James Clear en su libro, «Hábitos Atómicos«. ¡Feliz semana!