Capítulo 9. Configuración de Flink para aplicaciones de streaming

Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com

Las infraestructuras actuales de datos son diversas. Los marcos de procesamiento de datos distribuidos como Apache Flink deben configurarse para interactuar con varios componentes, como gestores de recursos, sistemas de archivos y servicios para la coordinación distribuida.

En este capítulo analizamos las distintas formas de implementar clústeres de Flink y cómo configurarlos de forma segura y hacerlos altamente disponibles. Explicamos las configuraciones de Flink para distintas versiones de Hadoop y sistemas de archivos, y hablamos de los parámetros de configuración más importantes de los procesos maestro y trabajador de Flink. Después de leer este capítulo, sabrás cómo instalar y configurar un clúster Flink.

Modos de Implementación

Flink puede implementarse en distintos entornos, como una máquina local, un clúster bare-metal, un clúster Hadoop YARN o un clúster Kubernetes. En "Componentes de una configuración de Flink", presentamos los distintos componentes de una configuración de Flink: el JobManager, el TaskManager, el ResourceManager y el Dispatcher. En esta sección, explicamos cómo configurar e iniciar Flink en distintos entornos -incluidos clústeres independientes, Docker, Apache Hadoop YARN y Kubernetes- y cómo se ensamblan los componentes de Flink en cada configuración.

Clúster independiente ...

Get Procesamiento de flujos con Apache Flink now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.