Saltar al contenido

Articles

Dependencia de Helm: Descubre Cómo Funciona

La dependencia de Helm es una parte crítica para entender cómo funciona Helm, ya que es la forma de establecer relaciones entre diferentes paquetes de helm. Hemos hablado mucho aquí sobre qué es Helm y algunos temas relacionados, e incluso proporcionamos algunos trucos si creas tus propios gráficos. Así que, como se comentó, el gráfico de Helm es… Leer más »

Trivy: Logra escanear imágenes locales de Docker con éxito

Escanear imágenes de Docker o, para ser más honestos, escanear las imágenes de tus contenedores se está convirtiendo en una de las tareas cotidianas a realizar como parte del desarrollo de tu aplicación. El cambio de ritmo de cuán fácilmente surgen las nuevas vulnerabilidades, la explosión de dependencias que cada una de las imágenes de contenedores tiene, y el número… Leer más »

Kiali 101: Comprender y Utilizar esta Herramienta Esencial de Gestión de Malla de Servicios Istio

¿Buscas mejorar la observabilidad y gestión de tu malla de servicios Istio? Kiali está aquí para ayudarte. Como un proyecto de código abierto desarrollado por Red Hat, Kiali proporciona una representación gráfica de tu malla, mostrando las relaciones entre los componentes de la malla de servicios y métricas clave como las tasas de solicitudes y errores. También incluye herramientas para monitorear la salud de tu malla y solucionar problemas de comunicación entre servicios. Además de sus características de observabilidad, Kiali ofrece un módulo de gestión de tráfico y un módulo de gestión de configuración para ayudarte a gestionar tu malla. Aprende cómo instalar y usar Kiali para maximizar el rendimiento de tu malla de servicios.

Asegure sus servicios con Istio: Guía paso a paso para configurar conexiones TLS de Istio

¿Buscas asegurar la comunicación entre servicios en tu clúster de Kubernetes con Istio? En este artículo, proporcionaremos una guía paso a paso sobre cómo establecer una conexión de Seguridad de la Capa de Transporte (TLS) con Istio. Cubriremos cómo exponer TLS en la puerta de enlace de ingreso de Istio, consumir SSL desde Istio y aplicar TLS mutuo (mTLS) entre diferentes servicios en el clúster. Siguiendo las instrucciones de esta guía, puedes asegurar la comunicación y proteger tus aplicaciones de amenazas cibernéticas. Con Istio, puedes centralizar y externalizar fácilmente los aspectos de seguridad, permitiendo que tus aplicaciones se concentren en su lógica de negocio y reduciendo la carga de trabajo de tu equipo de desarrollo.

Comprendiendo Istio ServiceEntry: Cómo Extender tu Malla de Servicios a Puntos de Extremo Externos

Un Istio ServiceEntry es un objeto dentro del malla de servicios de Istio que te permite extender la malla a puntos finales externos o servicios internos que no son parte del registro de servicios de la plataforma. Los ServiceEntries te permiten especificar detalles como el nombre de host, el puerto y el protocolo para el servicio externo, así como el modo de resolución a utilizar al acceder a él. Puedes usar ServiceEntries para aplicar características de Istio como balanceo de carga, cambio de protocolo y autenticación a servicios externos. También puedes ver los ServiceEntries en la representación gráfica de Kiali de la malla de servicios. Los ServiceEntries son útiles en una variedad de escenarios, incluyendo cuando deseas conectarte a servicios externos o cuando tienes múltiples clústeres y necesitas extender la malla a través de ellos.

Grafana Alerting vs AlertManager: Una Comparación de Dos Herramientas de Monitoreo Líderes

Introducción Las capacidades de alerta de Grafana continúan mejorando en cada nuevo lanzamiento que realiza el equipo de GrafanaLabs. Especialmente con los cambios realizados en Grafana 8 y Grafana 9, se han planteado muchas preguntas sobre su uso, las capacidades soportadas y la comparación con otras alternativas. Queremos comenzar a establecer el contexto sobre las alertas de Grafana basándonos en… Leer más »

Kubernetes Autoscaling 1.26: ¿Un cambio de juego para los usuarios de KEDA?

La última versión de Kubernetes, la 1.26, ha introducido varias nuevas capacidades de escalado automático que permiten a los usuarios escalar sus cargas de trabajo basándose en métricas personalizadas, múltiples métricas y una variedad de APIs. Estas características ofrecen una mayor flexibilidad y opciones para el escalado en entornos de Kubernetes. Sin embargo, el proyecto KEDA todavía proporciona características adicionales, como la capacidad de escalar «desde cero» y «a cero», lo cual puede ser útil para ciertos tipos de cargas de trabajo. En este artículo, exploraremos las nuevas capacidades de escalado automático en Kubernetes 1.26 y cómo se comparan con las características ofrecidas por KEDA.