Capítulo 2. Primeros pasos con Delta Lake
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
En el capítulo anterior presentamos Delta Lake y vimos cómo añade garantías transaccionales, soporte DML, auditoría, un modelo unificado de streaming y batch, aplicación de esquemas y un modelo de metadatos escalable a los lagos de datos tradicionales.
En este capítulo nos pondremos manos a la obra con Delta Lake. Primero configuraremos Delta Lake en una máquina local con Spark instalado. Ejecutaremos muestras de Delta Lake en dos shells interactivos:
En primer lugar, ejecutaremos en el intérprete de comandos interactivo PySpark con los paquetes Delta Lake. Esto nos permitirá escribir y ejecutar un sencillo programa Python de dos líneas que crea una tabla Delta.
A continuación, ejecutaremos un programa similar con la shell Spark Scala. Aunque en este libro no cubrimos ampliamente el lenguaje Scala, queremos demostrar que tanto el intérprete de comandos Spark como Scala son opciones con Delta Lake.
A continuación, crearemos un programa de inicio helloDeltaLake en Python dentro de tu editor favorito y ejecutaremos el programa de forma interactiva en el intérprete de comandos PySpark. El entorno que hemos creado en este capítulo, y el programa helloDeltaLake, serán la base de la mayoría de los demás programas que creemos en este libro.
Una vez que el entorno está en funcionamiento, estamos preparados para profundizar en el ...
Get Lago Delta: En marcha now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.