Construir una plataforma con KRM: Parte 2 - Cómo funciona el modelo de recursos de Kubernetes

Construir una plataforma con KRM: Parte 2 – Cómo funciona el modelo de recursos de Kubernetes

Esta es la 2do. resumen de una serie de varios posts sobre el modelo de recursos de Kubernetes. Consulte el resumen 1 para más información.

En la 1er. resumen se mencionaron algunas características de una buena plataforma para desarrolladores. En este post se presentará el modelo de recursos de Kubernetes (KRM) y analizará cómo el diseño declarativo puede proporcionar una capa base estable para una plataforma de desarrolladores.

Para entender cómo funciona el KRM, es necesario aprender un poco sobre cómo funciona Kubernetes.

Kubernetes es un sistema de código abierto para la automatización del despliegue, ajuste de escala y manejo de aplicaciones en contenedores y permite tratar varios servidores (Nodos) como un gran ordenador, o Cluster. Entre otras cosas auto-programa sus contenedores para que se ejecuten en cualquier nodo que tenga espacio. Todos los Nodos Kubernetes reciben sus instrucciones del plano de control de Kubernetes. Y el plano de control de Kubernetes recibe las instrucciones del usuario.

Google Kubernetes Engine (GKE) es el producto Kubernetes gestionado por Google, y se muestra a continuación su arquitectura.

En el área azul del «plano de control zonal», se puede ver que el plano de control de GKE está formado por varias cargas de trabajo -controladores de recursos, un planificador y almacenamiento backend- y todas las flechas apuntan al servidor de la API.

También mencionan todo sobre la importancia de la API, dan una explicación de la vida de un recurso Kubernetes y muestran un ejemplo de KRM y GitOps trabajando juntos.

Más información en Google Cloud Blog.

Comments are closed