Procesamiento por lotes de Kubernetes usando TIBCO BW

Procesamiento por lotes de Kubernetes usando TIBCO BW
Procesamiento por lotes de Kubernetes usando TIBCO BusinessWorks
Foto de Lukas Blazek en Unsplash

Todos sabemos que con el auge del desarrollo y las arquitecturas nativas de la nube, hemos visto plataformas basadas en Kubernetes como el nuevo estándar, todas enfocándose en nuevos desarrollos siguiendo los nuevos paradigmas y mejores prácticas: Microservicios, Arquitecturas impulsadas por eventos, nuevos protocolos brillantes como GraphQL o gRPC, y así sucesivamente.

Pero debemos ser conscientes de que la mayoría de las empresas que hoy están adoptando estas tecnologías no son oportunidades de campo verde. Tienen muchos sistemas ya en funcionamiento con los que todos los nuevos desarrollos en las nuevas arquitecturas nativas de la nube necesitan interactuar, por lo que las reglas se vuelven más complejas y hay muchas tonalidades de gris cuando estamos creando nuestra aplicación en Kubernetes.

Y basado en mi experiencia, cuando estamos hablando con el cliente sobre la nueva arquitectura en la nube, la mayoría de ellos traen aquí el patrón por lotes. Saben que esto ya no es una mejor práctica, que no pueden seguir construyendo sus sistemas de manera por lotes tratando de hacer por la noche lo que deberíamos estar haciendo en tiempo real. Pero, la mayoría de las veces necesitan coexistir con los sistemas que ya tienen y podría ser necesario este tipo de procedimiento. Así que necesitamos encontrar una manera de proporcionar Procesamiento por Lotes en Kubernetes.

También para los clientes que ya tienen sus aplicaciones existentes usando ese patrón y quieren moverse al nuevo mundo, es mejor para ellos que puedan hacerlo sin necesidad de re-arquitectar su aplicación existente. Algo que probablemente terminarán haciendo pero a su propio ritmo.

Los patrones de procesamiento por lotes en el desarrollo de TIBCO son un patrón bastante utilizado y tenemos clientes en todo el mundo con este tipo de desarrollo usado en producción durante muchos años. Ya sabes, este tipo de proceso que se ejecuta en un momento específico (semanalmente los lunes, cada día a las 3 PM… o simplemente cada hora para hacer algún trabajo regular).

Es un patrón sencillo aquí. Simplemente agrega un temporizador que puedes configurar cuándo se lanzará y agrega tu lógica. Eso es todo. Tan simple como eso:

Procesamiento por lotes de Kubernetes usando TIBCO BW
Patrón por Lotes Simple usando TIBCO BusinessWorks

Pero, ¿cómo se puede traducir esto a un enfoque de Kubernetes? ¿Cómo podemos crear aplicaciones que funcionen con este patrón y aún así ser gestionadas por nuestra plataforma? Afortunadamente, esto es algo que se puede hacer, y también tienes diferentes maneras de hacerlo dependiendo de lo que quieras lograr.

Principalmente hoy vamos a describir dos maneras de poder hacer eso y tratar de explicar las principales diferencias entre una y otra para que puedas saber cuál deberías usar dependiendo de tu caso de uso. A esos dos métodos los voy a llamar de esta manera: Lote gestionado por TIBCO Kubernetes y enfoque de API de Cron Job


Lote Gestionado por TIBCO

Este es el más simple. Es exactamente el mismo enfoque que tienes en tu aplicación BusinessWorks existente en las instalaciones, solo que desplegado en el clúster de Kubernetes.

Así que, no necesitas cambiar nada en tu lógica, solo tendrás una aplicación que es iniciada por un Temporizador con su configuración respecto a la programación dentro del alcance de la aplicación BusinessWorks y eso es todo.

Solo necesitas proporcionar los artefactos necesarios para desplegar tu aplicación en Kubernetes como cualquier otra aplicación de TIBCO BusinessWorks y eso es todo. Eso significa que estás creando un Despliegue para lanzar este componente y siempre tendrás un pod en ejecución evaluando cuándo la condición es verdadera para lanzar el proceso como lo tienes en tu enfoque en las instalaciones.

API de Cron-Job de Kubernetes

El patrón de procesamiento por lotes es algo que ya está cubierto de manera predeterminada por la API de Kubernetes y por eso tenemos el concepto de Cron-Job. Probablemente recuerdes los Cron Jobs que tenemos en nuestras máquinas Linux. Si eres un desarrollador o un administrador de sistemas, estoy seguro de que has jugado con estos cronjobs para programar tareas o comandos para que se ejecuten en un momento determinado. Si eres una persona basada en Windows, este es el equivalente en Linux de tus Trabajos del Programador de Tareas de Windows. Mismo enfoque.

Procesamiento por lotes de Kubernetes usando TIBCO BW
crontab en un Sistema Linux

Y esto es muy simple, solo necesitas crear un nuevo artefacto usando esta API de Cron Job que principalmente dice el trabajo a ejecutar y la programación de ese trabajo similar a lo que hemos hecho en el pasado con el cronjob en nuestra máquina Linux:

apiVersion: batch/v1beta1
kind: CronJob
metadata:
  name: hello
spec:
  schedule: "*/1 * * * *"
  jobTemplate:
    spec:
      template:
        spec:
          containers:
          - name: hello
            image: busybox
            args:
            - /bin/sh
            - -c
            - date; echo Hola desde el clúster de Kubernetes
          restartPolicy: OnFailure

Los trabajos que podemos usar aquí deben cumplir con una regla única que también se aplica en los trabajos cron de Unix: El comando debe terminar cuando el trabajo esté hecho.

Y esto es algo que es crítico, lo que significa que nuestro contenedor debe salir cuando el trabajo esté hecho para poder ser usado dentro de este enfoque. Eso significa que no podemos usar un “enfoque de servidor” como estamos haciendo en el enfoque anterior porque en ese caso, el pod nunca termina. ¿Significa eso que no puedo usar una aplicación de TIBCO BusinessWorks como parte de un Cron Job de Kubernetes? ¡Absolutamente no! Veamos cómo puedes hacerlo.

Así que, deberíamos centrarnos en dos cosas, la lógica de negocio debería poder ejecutarse tan pronto como el proceso comience y el contenedor debería terminar tan pronto como el trabajo esté hecho. Comencemos con la primera.

La primera es fácil. Usemos nuestro ejemplo anterior: Enfoque por lotes simple que escribe una traza de registro cada minuto. Necesitamos hacer que comience tan pronto como el proceso haya comenzado, pero esto es bastante de serie (OOTB) con TIBCO BusinessWorks, solo necesitamos configurar ese temporizador para que se ejecute solo una vez y eso comenzará tan pronto como la aplicación esté en ejecución:

Procesamiento por lotes de Kubernetes usando TIBCO BW

Así que, ya tenemos el primer requisito solucionado, veamos con el otro.

Deberíamos poder terminar el contenedor completamente cuando el proceso termine y eso es un desafío porque la aplicación BusinessWorks no se comporta de esa manera. Se supone que deben estar siempre en ejecución. Pero esto también se puede resolver.

Lo único que necesitamos es hacer uso de un comando al final del flujo. Es como un comando de salida en nuestro script de shell o código Java para terminar el proceso y el contenedor. Para hacer eso, deberíamos agregar una Actividad de “Ejecutar Comando Externo” y simplemente configurarla para enviar una señal al proceso BusinessWorks que se ejecuta dentro del contenedor.

La señal que vamos a enviar es SIGINT, que es similar a la que enviamos cuando presionamos CTRL+C en un Terminal para requerir que el proceso se detenga. Vamos a hacer lo mismo. Para hacer eso, vamos a usar el comando kill que se incluye en todas las máquinas Unix y en la mayoría de las imágenes base de docker también. Y el comando kill requiere dos argumentos:

kill -s <SIGNAL_NAME> <PID>
  • SIGNAL_NAME: Ya cubrimos esa parte y vamos a usar la señal llamada SIGINT.
  • PID: En cuanto al PID, necesitamos proporcionar el PID del proceso BusinessWorks que se ejecuta dentro del contenedor.

La parte de encontrar el PID para ese proceso que ejecuta BusinessWorks dentro del contenedor puede ser difícil de localizar, pero si ves los procesos en ejecución dentro de un contenedor de BusinessWorks, puedes ver que no es tan complicado de encontrar:

Procesamiento por lotes de Kubernetes usando TIBCO BW

Si entramos dentro de un contenedor en ejecución de una aplicación BusinessWorks, verificaremos que este PID siempre es el número 1. Así que ya tenemos todo listo para configurar la actividad como se muestra a continuación:

Procesamiento por lotes de Kubernetes usando TIBCO BW

Y eso es todo, con estos dos cambios podemos desplegar esto usando la API de CronJob y usarlo como parte de tu conjunto de herramientas de patrones de aplicación.

Pros y Contras de cada enfoque

Como puedes imaginar, no hay una solución única sobre cuándo usar uno u otro porque va a depender de tu caso de uso y tus requisitos. Así que intentaré enumerar aquí las principales diferencias entre ambos enfoques para que puedas elegir mejor cuando esté en tus manos:

  • El enfoque gestionado por TIBCO es más rápido porque el pod ya está en ejecución y tan pronto como se cumple la condición, la lógica comienza. Usar la API de Cron Job requiere un período de calentamiento porque el pod comienza cuando se cumple la condición, por lo que se puede aplicar algún retraso aquí.
  • El enfoque gestionado por TIBCO requiere que el pod esté en ejecución todo el tiempo, por lo que utiliza más recursos cuando la condición no se alcanza. Así que en caso de que estés ejecutando contenedores sin estado como AWS Fargate o similar, la API de Cron JOB es una mejor opción.
  • La API de CronJob es una API estándar de Kubernetes, lo que significa que se integra completamente con el ecosistema, mientras que el enfoque gestionado por TIBCO es gestionado por TIBCO usando configuraciones de aplicación.
  • El enfoque gestionado por TIBCO no es consciente de otras instancias de la misma aplicación en ejecución, por lo que gestionas mantener una sola instancia en ejecución para evitar ejecutar la misma lógica muchas veces. En el caso de la API de Cron Job, esto es gestionado por la propia plataforma de Kubernetes.

¡Bienvenido a la Revolución AsyncAPI!

¡Bienvenido a la Revolución AsyncAPI!
¡Bienvenido a la Revolución AsyncAPI!
Foto de Tarik Haiga en Unsplash

Estamos viviendo en una era donde las tecnologías están cambiando estándares todo el tiempo. Olvidas leer Medium/Stackoverflow/Reddit y descubres que hay al menos cinco (5) nuevos estándares de la industria que están reemplazando a los existentes que conoces (aquellos que han sido lanzados hace algo así como un año 🙂 ).

¿Todavía recuerdas los viejos tiempos cuando SOAP era el formato imbatible? ¿Cuánto tiempo pasamos construyendo nuestros Servicios SOAP en nuestras empresas? REST lo reemplazó como el nuevo estándar… pero solo unos pocos años y estamos de vuelta en una nueva batalla solo por la comunicación sincrónica: gRPC, GraphQL, están aquí para conquistar todo de nuevo. Es una locura, ¿eh?

Pero la situación es similar para la comunicación asincrónica. La comunicación asincrónica ha estado aquí por mucho tiempo. Incluso, mucho antes de que los términos Arquitectura Orientada a Eventos o Streaming fueran realmente un término «cool» o algo de lo que estuvieras al tanto.

Hemos estado usando estos patrones durante tanto tiempo en nuestras empresas. Las grandes empresas han estado usando este modelo en sus integraciones empresariales durante mucho tiempo. Protocolos y tecnologías basados en Pub/Sub como TIBCO Rendezvous se han estado usando desde finales de los 90, y luego también incorporamos enfoques más estándar como JMS usando diferentes tipos de servidores para tener todas estas comunicaciones basadas en eventos.

Pero ahora con la revolución nativa de la nube, la necesidad de computación distribuida, más agilidad, más escalabilidad, las soluciones centralizadas ya no son válidas, y hemos visto una explosión en el número de opciones para comunicarse basadas en estos patrones.

Podrías pensar que esta es la misma situación que estábamos discutiendo al principio de este artículo con respecto a la predominancia de REST y las nuevas tecnologías de vanguardia tratando de reemplazarlo, pero esto es algo bastante diferente. Porque la experiencia nos ha dicho que una sola talla no sirve para todos.

No puedes encontrar una sola tecnología o componente que pueda proporcionar todas las necesidades de comunicación que necesitas para todos tus casos de uso. Puedes nombrar cualquier tecnología o protocolo que desees: Kafka, Pulsar, JMS, MQTT, AMQP, Thrift, FTL, y así sucesivamente.

Piense en cada uno de ellos y probablemente encontrará algunos casos de uso en los que una tecnología funciona mejor que las otras, por lo que no tiene sentido tratar de encontrar una solución tecnológica única para cubrir todas las necesidades. Lo que se necesita es más un enfoque políglota cuando tienes diferentes tecnologías que funcionan bien juntas y usas la que mejor funciona para tu caso de uso (el enfoque de la herramienta adecuada para el trabajo adecuado) como estamos haciendo para las diferentes tecnologías que estamos desplegando en nuestro clúster.

Probablemente no vamos a usar la misma tecnología para hacer un Microservicio basado en Aprendizaje Automático, que una Aplicación de Streaming, ¿verdad? El mismo principio se aplica aquí.

Pero el problema aquí cuando intentamos hablar sobre diferentes tecnologías trabajando juntas es sobre la estandarización. Si pensamos en REST, gRPC o GraphQL, aunque son diferentes, juegan basados en algunos fundamentos comunes. Se basan en el mismo protocolo HTTP para un estándar, por lo que es fácil soportar todos ellos en la misma arquitectura.

Pero esto no es cierto con las tecnologías sobre Comunicación Asincrónica. Y me gustaría centrarme en la estandarización y especificación hoy. Y eso es lo que la Iniciativa AsyncAPI está tratando de resolver. Y para definir qué es AsyncAPI me gustaría usar sus propias palabras de su sitio web oficial:

AsyncAPI es una iniciativa de código abierto que busca mejorar el estado actual de las Arquitecturas Orientadas a Eventos (EDA). Nuestro objetivo a largo plazo es hacer que trabajar con EDA sea tan fácil como trabajar con APIs REST. Eso va desde la documentación hasta la generación de código, desde el descubrimiento hasta la gestión de eventos. La mayoría de los procesos que aplicas a tus APIs REST hoy en día también serían aplicables a tus APIs orientadas a eventos/asincrónicas.

Entonces, su objetivo es proporcionar un conjunto de herramientas para tener un mundo mejor en todas esas arquitecturas EDA que todas las empresas tienen o están comenzando a tener en este momento y todo gira en torno a una cosa: La Especificación OpenAPI.

Similar a la especificación OpenAPI, nos permite definir una interfaz común para nuestras Interfaces EDA y la parte más importante es que esto es multicanal. Así que la misma especificación puede ser utilizada para tu API basada en MQTT o tu API de Kafka. Veamos cómo se ve esta Especificación AsyncAPI:

¡Bienvenido a la Revolución AsyncAPI!
Definición AsyncAPI 2.0 (de https://www.asyncapi.com/docs/getting-started/coming-from-openapi/)

Como puedes ver, es muy similar a OpenAPI 3.0 y ya lo han hecho con el propósito de facilitar la transición entre OpenAPI 3.0 y AsyncAPI y también para tratar de unir ambos mundos: Se trata más de solo API, no importa si son sincrónicas o asincrónicas y proporcionar los mismos beneficios con respecto al ecosistema de una a otra.

¡Muéstrame el código!

Pero dejemos de hablar y comencemos a codificar y para hacer eso me gustaría usar una de las herramientas que en mi opinión tiene el mayor soporte para AsyncAPI, y eso es Project Flogo.

Probablemente recuerdes algunas de las diferentes publicaciones que he hecho con respecto a Project Flogo y TIBCO Flogo Enterprise como una gran tecnología para usar en el desarrollo de tus microservicios (enfoque de bajo código/todo código, basado en Golang, muchos conectores y extensiones de código abierto también).

Pero hoy vamos a usarlo para crear nuestro primer microservicio compatible con AsyncAPI. Y vamos a confiar en eso porque proporciona un conjunto de extensiones para apoyar la iniciativa AsyncAPI como puedes ver aquí:

Así que lo primero que vamos a hacer es crear nuestra definición AsyncAPI y para hacerlo más simple, vamos a usar la muestra que tenemos disponible en el OpenAsync API con un simple cambio: Vamos a cambiar del protocolo AMQP al protocolo Kafka porque esto es genial en estos días, ¿no? 😉

asyncapi: '2.0.0'
info:
  title: Aplicación Hola Mundo
  version: '0.1.0'
servers:
  production:
    url: broker.mycompany.com
    protocol: kafka
    description: Este es el broker de "Mi Empresa".
    security:
      - user-password: []
channels:
  hello:
    publish:
      message:
        $ref: '#/components/messages/hello-msg'
  goodbye:
    publish:
      message:
        $ref: '#/components/messages/goodbye-msg'
components:
  messages:
    hello-msg:
      payload:
        type: object
        properties:
          name:
            type: string
          sentAt:
            $ref: '#/components/schemas/sent-at'
    goodbye-msg:
      payload:
        type: object
        properties:
          sentAt:
            $ref: '#/components/schemas/sent-at'
  schemas:
    sent-at:
      type: string
      description: La fecha y hora en que se envió un mensaje.
      format: datetime
  securitySchemes:
    user-password:
      type: userPassword

Como puedes ver, algo simple. Dos operaciones «hello» y «goodbye» con carga útil sencilla:

  • name: Nombre que vamos a usar para el saludo.
  • sentAt: La fecha y hora en que se envió un mensaje.

Así que lo primero que vamos a hacer es crear una Aplicación Flogo que cumpla con esa especificación AsyncAPI:

git clone https://github.com/project-flogo/asyncapi.git
cd asyncapi/
go install

Ahora tenemos el instalador del generador, así que solo necesitamos ejecutar y proporcionar nuestro YML como entrada en el siguiente comando:

asyncapi -input helloworld.yml -type flogodescriptor

Y crearemos una aplicación HelloWorld para nosotros, que necesitamos ajustar un poco. Solo para que puedas estar en funcionamiento rápidamente, solo estoy compartiendo el código en mi repositorio de GitHub que puedes tomar de allí (Pero realmente te animo a que te tomes el tiempo para echar un vistazo al código para ver la belleza del Desarrollo de Aplicaciones Flogo 🙂 )

https://github.com/project-flogo/asyncapi

Ahora, que ya tenemos la aplicación, tenemos solo una aplicación simple que nos permite recibir el mensaje que cumple con la especificación, y en nuestro caso solo registrar la carga útil, lo que puede ser nuestro punto de partida para construir nuestros nuevos Microservicios Orientados a Eventos compatibles con AsyncAPI.

Así que, probémoslo, pero para hacerlo, necesitamos algunas cosas. Primero que nada, necesitamos un servidor Kafka en funcionamiento y para hacerlo de manera rápida vamos a aprovechar el siguiente archivo docker-compose.yml:

version: '2'
services:
  zookeeper:
    image: wurstmeister/zookeeper:3.4.6
    expose:
    - "2181"
  kafka:
    image: wurstmeister/kafka:2.11-2.0.0
    depends_on:
    - zookeeper
    ports:
    - "9092:9092"
    environment:
      KAFKA_ADVERTISED_LISTENERS: PLAINTEXT://localhost:9092
      KAFKA_LISTENERS: PLAINTEXT://0.0.0.0:9092
      KAFKA_ZOOKEEPER_CONNECT: zookeeper:2181

Y para ejecutar eso solo necesitamos lanzar el siguiente comando desde la misma carpeta donde tenemos este archivo llamado docker-compose.yml:

docker-compose up -d

Y después de hacer eso, solo necesitamos una aplicación de muestra y qué mejor que usar Flogo nuevamente para crearla, pero esta vez, usemos el Visor Gráfico para crearla de inmediato:

¡Bienvenido a la Revolución AsyncAPI!
Aplicación Flogo Simple para enviar un mensaje compatible con AsyncAPI cada minuto usando Kafka como protocolo

Así que solo necesitamos configurar la actividad Publicar Kafka para proporcionar el broker (localhost:9092), el tema (hello) y el mensaje :

{
"name": "hola mundo",
"sentAt": "2020-04-24T00:00:00"
}

¡Y eso es todo! ¡Ejecutémoslo!:

Primero iniciamos el Microservicio Flogo AsyncAPI:

¡Bienvenido a la Revolución AsyncAPI!
¡Microservicios Flogo AsyncAPI Iniciados!

Y luego solo lanzamos el probador, que va a enviar el mismo mensaje cada minuto, como puedes ver en la imagen a continuación:

¡Bienvenido a la Revolución AsyncAPI!
Probador de Muestra enviando mensajes de muestra

Y cada vez que enviamos ese mensaje, va a ser recibido en nuestro Microservicio Flogo AsyncAPI:

¡Bienvenido a la Revolución AsyncAPI!

Así que, espero que esta primera introducción al mundo AsyncAPI haya sido de tu interés, pero no olvides echar un vistazo a más recursos en su propio sitio web:

Aplicaciones Flogo ejecutándose como Funciones de Azure

Aplicaciones Flogo ejecutándose como Funciones de Azure
Aplicaciones Flogo ejecutándose como Funciones de Azure

Serverless ya está aquí. Lo sabemos. Incluso para las empresas que están comenzando su viaje en la nube moviéndose a plataformas basadas en contenedores, ya saben que serverless está en su visión futura al menos para algunos casos de uso específicos.

Su simplicidad sin necesidad de preocuparse por nada relacionado con la plataforma solo se enfoca en el código y también la economía que viene con ellos hace que este modelo de computación sea un cambio de juego.

La plataforma principal para este enfoque en este momento es AWS Lambda de Amazon, hemos leído y escuchado mucho sobre AWS Lambda, pero todas las plataformas van por ese camino. Google con sus Google Functions, Microsoft con su Azure. Esto no es solo una cosa para los proveedores de nube pública, también si estás operando en un enfoque de nube privada puedes usar este modo de implementación usando frameworks como KNative o OpenFaaS. Si necesitas más detalles al respecto, también tuvimos algunos artículos sobre este tema:

[visual-link-preview encoded=»eyJ0eXBlIjoiaW50ZXJuYWwiLCJwb3N0IjoxMDcsInBvc3RfbGFiZWwiOiJQb3N0IDEwNyAtIERlcGxveWluZyBGbG9nbyBBcHAgb24gT3BlbkZhYVMiLCJ1cmwiOiJodHRwczovL21lZGl1bS5jb20vQGFsZXhhbmRyZXYvZGVwbG95aW5nLWZsb2dvLWFwcC1vbi1vcGVuZmFhcy04M2NkMzIwYWRiNjkiLCJpbWFnZV9pZCI6MjYxMiwiaW1hZ2VfdXJsIjoiaHR0cDovL2FsZXhhbmRyZS12YXpxdWV6LmNvbS93cC1jb250ZW50L3VwbG9hZHMvMjAyMi8wMS9pbWdfNjFlZDE0MGM3N2FhMC5qcGciLCJ0aXRsZSI6IkRlcGxveWluZyBGbG9nbyBBcHAgb24gT3BlbkZhYVMiLCJzdW1tYXJ5IjoiT3BlbkZhYVMgaXMgYW4gYWx0ZXJuYXRpdmUgdG8gZW5hYmxlIHRoZSBzZXJ2ZXJsZXNzIGFwcHJvYWNoIGluIHlvdXIgaW5mcmFzdHJ1Y3R1cmUgd2hlbiB5b3XigJlyZSBub3QgcnVubmluZyBpbiB0aGUgcHVibGljIGNsb3VkIGFuZCB5b3UgZG9u4oCZdCBoYXZlIGF2YWlsYWJsZSB0aG9zZSBvdGhlciBvcHRpb25zIGxpa2UgQVdTIExhbWJkYSBGdW5jdGlvbnMgb3IgQXp1cmUgRnVuY3Rpb25zIG9yIGV2ZW4gaW4gcHVibGljIGNsb3VkLCB5b3XigJlkIGxpa2UgdGhlIGZlYXR1cmVzIGFuZCBjdXN0b21pemF0aW9ucyBvcHRpb24gaXQgcHJvdmlkZXMuIE9wZW5GYWFTwq4gKEZ1bmN0aW9ucyBhcyBhIFNlcnZpY2UpIGlzIFsmaGVsbGlwO10iLCJ0ZW1wbGF0ZSI6InVzZV9kZWZhdWx0X2Zyb21fc2V0dGluZ3MifQ==»]

Todas estas plataformas están actualizando y mejorando su opción para ejecutar cualquier tipo de código que desees en ellas, y esto es lo que Azure Function acaba de anunciar hace unas semanas, el lanzamiento de un enfoque de Custom Handler para soportar cualquier tipo de lenguaje que puedas imaginar:

[visual-link-preview encoded=»eyJ0eXBlIjoiZXh0ZXJuYWwiLCJwb3N0IjowLCJwb3N0X2xhYmVsIjoiIiwidXJsIjoiaHR0cHM6Ly9kb2NzLm1pY3Jvc29mdC5jb20vZW4tZ2IvYXp1cmUvYXp1cmUtZnVuY3Rpb25zL2Z1bmN0aW9ucy1jdXN0b20taGFuZGxlcnMiLCJpbWFnZV9pZCI6LTEsImltYWdlX3VybCI6Imh0dHBzOi8vZG9jcy5taWNyb3NvZnQuY29tL2VuLXVzL21lZGlhL2xvZ29zL2xvZ28tbXMtc29jaWFsLnBuZyIsInRpdGxlIjoiQXp1cmUgRnVuY3Rpb25zIGN1c3RvbSBoYW5kbGVycyIsInN1bW1hcnkiOiJMZWFybiB0byB1c2UgQXp1cmUgRnVuY3Rpb25zIHdpdGggYW55IGxhbmd1YWdlIG9yIHJ1bnRpbWUgdmVyc2lvbi4iLCJ0ZW1wbGF0ZSI6InVzZV9kZWZhdWx0X2Zyb21fc2V0dGluZ3MifQ==»]

Y vamos a probar eso haciendo lo que más nos gusta ………..

…. ¡Ejecutar una aplicación Flogo sobre eso!

Así que, ¡empecemos a trabajar!

Aplicaciones Flogo ejecutándose como Funciones de Azure
Foto de Serghei Trofimov en Unsplash

Lo primero que necesitamos hacer es crear nuestra aplicación Flogo. Voy a usar Flogo Enterprise para hacer eso, pero puedes hacer lo mismo usando la versión de código abierto también:

Vamos a crear una aplicación simple, solo un servicio REST de Hello World. Como puedes ver aquí:

Aplicaciones Flogo ejecutándose como Funciones de Azure

El archivo JSON de la aplicación Flogo puedes encontrarlo en el repositorio de GitHub que se muestra a continuación:

[visual-link-preview encoded=»eyJ0eXBlIjoiZXh0ZXJuYWwiLCJwb3N0IjowLCJwb3N0X2xhYmVsIjoiIiwidXJsIjoiaHR0cHM6Ly9naXRodWIuY29tL2FsZXhhbmRyZXYvZmxvZ28tYXp1cmUtZnVuY3Rpb24iLCJpbWFnZV9pZCI6LTEsImltYWdlX3VybCI6Imh0dHBzOi8vb3BlbmdyYXBoLmdpdGh1YmFzc2V0cy5jb20vODY1NzhmODRiN2NmMjAwMzI1ODFmMmRhYjA5NjBjYWNmZTdmYzdmMzNhNjA2NjhhOGEzMWZkMWJlMmFmOTM5MC9hbGV4YW5kcmV2L2Zsb2dvLWF6dXJlLWZ1bmN0aW9uIiwidGl0bGUiOiJHaXRIdWIgLSBhbGV4YW5kcmV2L2Zsb2dvLWF6dXJlLWZ1bmN0aW9uOiBTYW1wbGUgb2YgRmxvZ28gQXBwbGljYXRpb24gcnVubmluZyBhcyBhIEF6dXJlIEZ1bmN0aW9uIiwic3VtbWFyeSI6IlNhbXBsZSBvZiBGbG9nbyBBcHBsaWNhdGlvbiBydW5uaW5nIGFzIGEgQXp1cmUgRnVuY3Rpb24gLSBHaXRIdWIgLSBhbGV4YW5kcmV2L2Zsb2dvLWF6dXJlLWZ1bmN0aW9uOiBTYW1wbGUgb2YgRmxvZ28gQXBwbGljYXRpb24gcnVubmluZyBhcyBhIEF6dXJlIEZ1bmN0aW9uIiwidGVtcGxhdGUiOiJ1c2VfZGVmYXVsdF9mcm9tX3NldHRpbmdzIn0=»]

Pero las configuraciones principales son las siguientes:

  • El servidor escuchará en el puerto especificado por la variable de entorno FUNCTIONS_HTTPWORKER_PORT
  • El servidor escuchará una solicitud GET en la URI /hello-world
  • La respuesta será bastante simple “Invocando una aplicación Flogo dentro de Azure Functions”

Ahora, que tenemos el archivo JSON, solo necesitamos comenzar a crear los artefactos necesarios para ejecutar una función de Azure.

Necesitaremos instalar el paquete npm para las Azure Functions. Para hacer eso necesitamos ejecutar el siguiente comando:

npm i -g azure-functions-core-tools@3 --unsafe-perm true

Es importante tener el “@3” porque de esa manera hacemos referencia a la versión que tiene esta nueva lógica de Custom Handler para poder ejecutarla.

Crearemos una nueva carpeta llamada flogo-func y ejecutaremos el siguiente comando dentro de esa carpeta:

func init --docker

Ahora deberíamos seleccionar node como el entorno de ejecución a usar y javascript como el lenguaje. Eso podría ser algo extraño porque no vamos a usar ni node, ni dotnet ni python ni powershell. Pero seleccionaremos eso para mantenerlo simple ya que solo intentamos enfocarnos en el enfoque de Docker para hacerlo.

Después de eso solo necesitamos crear una nueva función, y para hacer eso necesitamos escribir el siguiente comando:

func new

En la interfaz basada en CLI que nos muestra las Azure Function Core Tools, solo necesitamos seleccionar HTTP trigger y proporcionar un nombre.

Aplicaciones Flogo ejecutándose como Funciones de Azure

En nuestro caso, usaremos hello-world como el nombre para mantenerlo similar a lo que definimos como parte de nuestra aplicación Flogo. Terminaremos con la siguiente estructura de carpetas:

Aplicaciones Flogo ejecutándose como Funciones de Azure

Ahora necesitamos abrir la carpeta que se ha creado y necesitamos hacer varias cosas:

  • Primero que todo, necesitamos eliminar el archivo index.js porque no necesitamos ese archivo ya que esta no será una función de node JS.
  • Necesitamos copiar el HelloWorld.json (nuestra aplicación Flogo) a la carpeta raíz de la función.
  • Necesitamos cambiar el archivo host.json al siguiente contenido:
{
  "version": "2.0",
  "httpWorker": {
     "description": {
            "arguments": ["-app"],
            "defaultExecutablePath": "engine-windows-amd64.exe",
            "defaultWorkerPath": "HelloWorld.json"
      }
   }
}

Ahora, necesitamos generar el engine-windows-amd64.exe y para poder hacer eso necesitamos ir al FLOGO_HOME en nuestra máquina e ir a la carpeta FLOGO_HOME/flogo/<VERSION>/bin y lanzar el siguiente comando:

./builder-windows-amd64.exe build

Y deberías obtener el engine-windows-amd64.exe como salida como puedes ver en la imagen a continuación:

Aplicaciones Flogo ejecutándose como Funciones de Azure

Ahora, solo necesitas copiar ese archivo dentro de la carpeta de tu función, y deberías tener la siguiente estructura de carpetas como puedes ver aquí:

Aplicaciones Flogo ejecutándose como Funciones de Azure

Y una vez que tengas eso, solo necesitas ejecutar tu función para poder probarla localmente:

func start

Después de ejecutar ese comando deberías ver una salida similar a la que se muestra a continuación:

Aplicaciones Flogo ejecutándose como Funciones de Azure

¡Solo me gustaría resaltar el tiempo de inicio para nuestra aplicación Flogo alrededor de 15 milisegundos! Ahora, solo necesitas probarlo usando cualquier navegador y solo ir a la siguiente URL:

http://localhost:7071/api/hello-world
Aplicaciones Flogo ejecutándose como Funciones de Azure

Este ha sido solo el primer paso en nuestro viaje, pero fueron los pasos necesarios para poder ejecutar nuestra aplicación Flogo como parte de tu entorno serverless alojado por la plataforma Microsoft Azure!

Estamos haciendo mal el enfoque del trabajo remoto

Estamos haciendo mal el enfoque del trabajo remoto
Estamos haciendo mal el enfoque del trabajo remoto

Sé que todos vivimos en una situación muy complicada que nos ha obligado a trabajar bajo un conjunto diferente de reglas, tratando de ponernos al día para ser productivos y trabajar como solíamos hacerlo, pero en modo de trabajo completamente remoto.

Para algunos de nosotros, esto ha sido bastante fácil porque las personas que trabajan en la industria tecnológica, en cierto nivel, ya trabajan de forma remota. Especialmente las personas, como yo, que trabajan para empresas internacionales con equipos de diferentes ubicaciones, zonas horarias, etc., estábamos acostumbrados a algunas partes del proceso. Las herramientas que usábamos como Slack, Zoom, Microsoft Team o Google Meet no eran algo nuevo para nosotros.

Además, estábamos acostumbrados a gestionar diferentes zonas horarias en nuestras reuniones para poder encontrar un momento adecuado para todos nosotros y poder compartir nuestra experiencia, etc. Así que parecía que íbamos a hacerlo perfectamente. Pero, ese no es el caso, y ha sido bastante para todos.

Solo déjame hacerte una pregunta: ¿Cómo está tu calendario ahora comparado con cómo estaba antes de la pandemia? ¿Cuántas horas tienes dedicadas solo a reuniones internas?

Si buscas un poco, incluso aquí en Medium, podrías encontrar muchos ejemplos sobre esto, también si escuchas el podcast ya estás al tanto de esta situación, cada uno de nosotros sabe sobre esa situación o simplemente la hemos experimentado nosotros mismos.

Parece que estábamos tratando de cambiar de las conversaciones habituales que teníamos en la oficina o con clientes a una conferencia en línea de unos 30 minutos para ponernos al día sobre cualquier otro tema que solíamos manejar en un café rápido en la oficina o simplemente una llamada rápida de 2 minutos.

Aunque la mayoría de nosotros hemos crecido en el mundo de la mensajería instantánea y no quiero hablar de las «nuevas cosas» si podemos llamar a WhatsApp, Telegram o Slack de esa manera, lo estábamos haciendo desde hace mucho tiempo, con AOL, ICQ o IRC.

Nos hemos entrenado en la comunicación asincrónica, pero parece que no aprendimos nada de ella. ¿Cuántas reuniones podrían ser reemplazadas por un hilo de correo electrónico? ¿Cuántas reuniones podrían ser reemplazadas por un canal de Slack?

Estamos acostumbrados a pensar de la otra manera, que la reunión es mucho más efectiva que un hilo de correo, y eso posiblemente sea cierto en algunos casos. Finalmente, tenemos a todos los interesados al mismo tiempo en el mismo lugar hablando sobre el mismo tema, lo que hace que el tiempo dedicado al asunto sea menor.

Pero el problema es cuando el número de conversaciones y temas crece exponencialmente porque también necesitamos trabajar en base a eso. Acabamos de escuchar a un colega mío hace unos días decir algo como esto:

  • Ahora tengo todo el día bloqueado con reuniones
  • Para cada una de estas reuniones, termino con tareas que necesito trabajar.
  • Pero basado en lo lleno que está mi calendario, tengo menos tiempo para trabajar en ellas
  • Cada día tengo más trabajo por hacer y no puedo cumplir con mis plazos

Y este ciclo se repite una y otra vez y empeora la situación cada día, porque es cierto que estamos pasando mucho tiempo en reuniones, pero no solo eso, también las reuniones son bastante más agotadoras, lo que te deja con menos energía para trabajar en esos puntos de acción que recopilaste.

Además, está el horario del calendario, ya que tienes tantas reuniones que no puedes bloquear parte de tu tiempo más productivo para trabajar en esos elementos, y te ves obligado a trabajar en ellos solo en los espacios libres que tienes disponibles entre todas esas reuniones. Eso significa que no estás eligiendo lo que vas a hacer ahora, solo necesitas luchar para poder encontrar algún espacio para poder despejar un poco tu escritorio de esas tareas pendientes.

Entonces, ¿parece que el correo electrónico y la comunicación asincrónica son la respuesta a todo lo que estamos sufriendo ahora? No. Probablemente no, pero al menos la comunicación asincrónica se centra en varios conceptos clave que son importantes tener en cuenta:

Tu tiempo es tan valioso como el de cualquier otro.

Cuando eres el organizador de una reunión y tienes una lista de asistentes, probablemente la importancia del tema a discutir no será la misma para cada uno de ellos. Probablemente para ti como organizador eres el más interesado en organizar esa reunión y obtener algún resultado de ella, pero otros probablemente tengan otras cosas importantes en sus mentes también a esos niveles.

Por lo tanto, la comunicación asincrónica permite a todos manejar sus prioridades y actuar sobre cada elemento según puedan basarse en su lista de prioridades.

La flexibilidad es la clave

No estoy obligado a estar a las 9 PM mi hora para poder reunirme con mis colegas de EE. UU. o mis colegas indios no están obligados a hacerlo al mismo tiempo conmigo. La comunicación asincrónica permite a cualquiera atender los asuntos importantes durante el tiempo en que son más productivos y también poder gestionar su propio horario y tiempo.

Para mí puede ser mejor responder a esas preguntas durante mis horas de la mañana o al revés, prefiero centrarme en algunas tareas al comienzo de mi día y usar la tarde para cubrir esas.

La gestión también es necesaria para las conversaciones asincrónicas

El problema de la comunicación asincrónica, como sabemos, es que las cosas pueden ralentizarse porque, basándonos en los temas anteriores, las preguntas podrían necesitar más tiempo para responderse, pero esto se puede resolver utilizando la gestión de esas conversaciones. Cosas como plazos, recordatorios, conversaciones de seguimiento 1 a 1 podrían ayudar a cerrar los temas. El rol es el mismo que el del organizador de la reunión en la reunión en línea, pero utilizando herramientas asincrónicas.

Malentendidos entre lo escrito y lo hablado

Usualmente decimos que es más fácil no captar el significado completo de la conversación en un mundo asincrónico porque carecemos de muchos recursos que tenemos en nuestra reunión en línea o incluso mejor en nuestras reuniones cara a cara. Y eso es cierto. Incluso, con emojis y demás, no tenemos la misma caja de herramientas que tenemos usando nuestra voz o nuestro cuerpo para hacerlo, pero esto no es algo que no se resuelva también en los otros tipos de comunicación. ¿Cuántas veces pensamos que lo que otra persona estaba diciendo usando su voz tiene un significado diferente comparado con lo que realmente intentó decir? Tratamos de resolver eso con las actas de la reunión y tratando de ponerlo por escrito para poder tener un entendimiento común. Y probablemente esto es algo que evitamos en la comunicación asincrónica porque esto ya está escrito, pero esto no debería evitarse ya que también nos ayuda a poner todo junto nuevamente en la misma página sobre nuestro entendimiento común.

Conclusión

Así que, espero que todos aprendamos de esta situación para tratar de mejorar la forma en que nos comunicamos entre nosotros para ser más productivos y más eficientes y también para mejorar nuestro propósito de gestión del tiempo. Y soy consciente de que probablemente esta no sea la situación para todos nosotros, pero esto es bastante común y es importante tenerlo en cuenta incluso si somos capaces de tener éxito durante este tsunami de reuniones que enfrentamos cada día.

Además, mis expectativas son que probablemente todo lo que aprendamos en esta situación pueda ayudarnos a estar más preparados para la próxima o para nuestro trabajo diario cuando volvamos a la nueva situación normal si esto va a suceder en algún momento.

Por qué deberíamos preocuparnos menos por pagar por servicios en línea

Por qué deberíamos preocuparnos menos por pagar por servicios en línea

Cuatro argumentos que cambian tu forma de pensar sobre esos gastos.

Los servicios en línea son parte de nuestra nueva vida y deberíamos evaluarlos como lo hacemos con los físicos.
Los servicios en línea son parte de nuestra nueva vida, y deberíamos evaluarlos como lo hacemos con los físicos.

Si estás en tus treinta y tantos, probablemente seas como yo, y deberías recordar la vieja época de este mundo donde cada servicio en línea era gratuito. Vivíamos en un mundo donde la piratería era una situación normal. Todo, desde películas hasta música, desde libros hasta software era gratis. Podías encontrar rápidamente un torrent, un enlace de descarga directa, o incluso si eres más viejo, un enlace de Mule. ¿Todavía recuerdas Mule? Jaja, sí, yo también.

Nuestra generación se alejó de una era de «todo gratis sin la mejor calidad» a un enfoque de «pago por servicio». Y esta transición está siendo complicada. Así que, si ese es tu caso o conoces a alguien que usualmente tiene este tipo de pensamiento, intentaré explicar por qué deberías preocuparte menos por el costo de esos servicios.

1. No estamos evaluando esos gastos de la misma manera que lo hacemos con los servicios físicos

Ese es el primer tema, y me gustaría explicarlo un poco más. Imagina la suscripción a Medium, si no me equivoco, son 50€ al año por acceso ilimitado a esos artículos, y conozco a mucha gente que piensa que es caro, que no vale lo que ofrecen.

Las mismas personas pueden gastar 50€ al mes en una suscripción al gimnasio y no piensan que esto sea caro en absoluto. Así que, ahora, probablemente estés pensando algo como esto: ¡Vamos! ¡No eres justo! ¿Cómo te atreves a comparar la suscripción a Medium con una suscripción al gimnasio?

El gimnasio tiene una infraestructura física que necesitan mantener. Tienen personas trabajando allí, en la recepción, servicios de limpieza, entrenadores personales, etc. También tienen costos adicionales debido al uso de la infraestructura como electricidad, agua, impuestos, etc.

¡Sí, eso es cierto! ¿Y qué hay de Medium? ¿No tiene la misma situación? Tienen una infraestructura en la nube que necesitan mantener, servidores, red, almacenamiento, copias de seguridad, etc. También tienen personas trabajando en ello: en el sitio mismo, curadores, pero también desarrolladores, administradores de sistemas, etc., para realizar todas las tareas de mantenimiento para mantener el lugar al mejor nivel posible para que lo uses. Así que, esto no es diferente en absoluto en ambos casos. Pero este no es el único argumento.

2. ¡Los servicios en línea son increíblemente más baratos!

Ahora, en lugar de hablar de Medium, hablemos de una aplicación que podrías pensar que es cara. Hablemos de Netflix, que dependiendo de tu país puede tener una tarifa mensual de unos 15–20€.

Y puedes argumentar, pero no veo ni el 0.1% de su catálogo, ¿por qué debería pagar por todo si no voy a usar todo lo que ofrece?

Pero piensa en cuánto te costaron las entradas de cine la última vez que pudiste salir (Sí, sí, lo sé, este no es el mejor momento para hablar de cines y salir en esta situación, pero aguanta conmigo en esta).

Hagamos las cuentas conmigo: Dos personas yendo al cine, 10 € cada uno por las entradas. Si tienes algo más para beber o comer, podrías rápidamente gastar 35 € solo por una sesión de 2 horas.

Por supuesto, incluso con el mejor sistema de cine en casa, no es comparable en absoluto con lo que puedes sentir en una sesión de cine, pero ese no es el tema. El argumento es que si puedes permitirte una sesión de cine al mes (Sí, solo una al mes) y no sientes que estás desperdiciando tu dinero, puedes permitirte Netflix + Disney + Prime Video al mismo ritmo.

Y esto se aplica a todo. Siempre recomiendo cuando hablo de esto con otras personas comparar con algo físico que hacen sin pensarlo mucho, por ejemplo, un café matutino. Muchos de nosotros tomamos una taza de café para llevar cada día de nuestra vida laboral. Imagina un costo promedio de 1.5€, y cada mes tiene 20 días laborables, eso significa que estás gastando 30 € al mes solo en tu café matutino. Una vez más, la misma cantidad para tres servicios de streaming de video de primera.

La idea principal de este argumento no es que dejes de tomar esa primera taza de café que necesitas para que tu cuerpo funcione y se prepare para el día. Aún así, piensa que si no sientes mucho por ese café matutino, no deberías preocuparte tanto por la tarifa del servicio en línea también.

3. Puedes reevaluar tu decisión en cualquier momento

Además, otro argumento para no preocuparse mucho por esto es porque puedes revisarlo cada vez que quieras. El procedimiento aquí no es el mismo que usas para evaluar la compra de tu nuevo iPad, o si necesitas una laptop o un coche. Que necesitas estar muy seguro de que vas a sacarle el máximo provecho.

En este caso, esta es una tarifa recurrente que puedes cancelar en cualquier momento si crees que no la vas a usar o ves que no es tan útil como pensabas. Así que, no hay problema en probarlo por unos meses, y si no funciona, simplemente cancélalo. Así que, si tienes ese poder y opciones en tus manos, ¿por qué estás tan preocupado por dar ese paso de pagar por primera vez solo para probar?

Lo hacemos todo el tiempo en otros aspectos de la vida. Imagina la siguiente situación en el mercado, cuando ves una nueva marca de algo que vas a comprar. Puede ser yogur fresco, jugo fresco, o incluso una nueva cerveza. ¿Cuántas veces obtienes algo de una nueva marca, solo para probar? ¡Probablemente la respuesta sea TODO EL TIEMPO! Y sí, estás pagando por ello, no es como si fueras al cajero y le dijeras: No, no, déjame solo probar esto por varios meses y probablemente el próximo año pueda ver si vale la pena.

4. Estamos invirtiendo en nosotros mismos

Este argumento puede parecer extraño al principio porque parece más: No, no, no. Estoy invirtiendo en esta empresa, sus desarrolladores, y puedo sentirme feliz por ello, pero esto es una transacción. Sí, eso también es cierto, pero imagina eso. ¿Qué te pasa si todos los servicios que estás usando en línea desaparecen porque ya no es un negocio sustancial para ellos? ¿Va a afectar tu vida? Sí, seguro.

Solo recuerdo la primera aplicación que usé mucho que fue descontinuada y eliminada. Siempre he sido un chico de Linux, y he usado mucho una herramienta de gestión de tareas llamada BasKet como parte del entorno KDE que era similar a lo que hoy es OneNote. Podías juntar muchos tipos de contenido y gestionarlo como quisieras.

Era increíble, pero finalmente decidieron dejar de trabajar en la herramienta, y la herramienta no fue actualizada, y sí, eliminaron la herramienta. Mi vida cambió mucho. Necesitaba encontrar otra herramienta para hacer el mismo trabajo e imagina qué: No había ninguna en ese momento (estaba hablando de 2006 🙂 ). Así que mi vida fue peor porque nadie apoyó su esfuerzo al nivel que necesitaban para seguir haciéndolo. Así que, también deberías pensar eso, ¿cuánto me costará si esta aplicación X desaparece?

Conclusión

Así que, espero que estos argumentos puedan ayudarte a cambiar de opinión o ser útiles en tus conversaciones con otras personas que tienen esta idea de que todo debería ser gratis en el mundo en línea para ser más coherentes con la realidad en la que vivimos ahora. Así que, probemos nuevos servicios en línea, ¡y probablemente descubramos que nuestra vida en línea puede ser mejor!

Métricas de Prometheus: ¿Cómo cambiar el nombre de la métrica?

Métricas de Prometheus: ¿Cómo cambiar el nombre de la métrica?

Encuentra una manera de redefinir y reorganizar el nombre de tus métricas de Prometheus para cumplir con tus requisitos

Métricas de Prometheus: ¿Cómo cambiar los nombres de una métrica?
Foto de Chris Ried en Unsplash

Prometheus se ha convertido en el nuevo estándar cuando hablamos de monitorear nuestra nueva arquitectura de aplicaciones modernas, y necesitamos asegurarnos de conocer todas sus opciones para asegurarnos de obtener lo mejor de él. Lo he estado usando durante algún tiempo hasta que me di cuenta de una característica que estaba desesperado por saber cómo hacer, pero no pude encontrar en ningún lugar claramente definido. Así que como no lo encontré fácilmente, pensé en escribir un pequeño artículo para mostrarte cómo hacerlo sin necesidad de gastar el mismo tiempo que yo.

Tenemos mucha información sobre cómo configurar Prometheus y usar algunos de los complementos de configuración habituales, como podemos ver en su página web oficial [1]. Incluso ya escribí sobre alguna configuración y usándolo para varios propósitos, como también puedes ver en otras publicaciones [2][3][4].

Uno de estos complementos de configuración es sobre el reetiquetado, y esto es algo genial. Tenemos que cada uno de los exportadores puede tener sus etiquetas y significado para ellas, y cuando intentas gestionar diferentes tecnologías o componentes hace complejo que todos ellos coincidan juntos incluso si todos ellos siguen la convención de nombres que tiene Prometheus [5].

Pero tuve esta situación, y estoy seguro de que tú también has pasado o pasarás por eso, que tengo métricas similares para diferentes tecnologías que para mí son las mismas, y necesito mantenerlas con el mismo nombre, pero como pertenecen a otras tecnologías no lo son. Así que necesito encontrar una manera de renombrar la métrica, y lo genial es que puedes hacer eso.

Para hacer eso, solo necesitas hacer una configuración de metric_relabel. Esta configuración se aplica para reetiquetar (como el nombre ya indica) etiquetas de tus métricas de prometheus en este caso antes de ser ingeridas, pero también nos permite usar algunos términos notables para hacer diferentes cosas, y uno de estos términos notables es __name__. __name__ es una etiqueta particular que te permitirá renombrar tus métricas de prometheus antes de ser ingeridas en la Base de Datos de Series Temporales de Prometheus. Y después de ese punto, esto será como si tuviera ese nombre desde el principio.

Cómo usar eso es relativamente fácil, es como cualquier otro proceso de reetiquetado, y me gustaría mostrarte un ejemplo sobre cómo hacerlo.

- source_labels: [__name__]
regex:  'jvm_threads_current'
target_label: __name__
replacement: 'process_thread_count'

Aquí hay un ejemplo simple para mostrar cómo podemos renombrar un nombre de métrica jvm_threads_current para contar los hilos dentro de la máquina JVM para hacerlo más genérico y poder incluir los hilos para el proceso en una métrica de prometheus process_thread_count que ahora podemos usar como si fuera el nombre original.


Referencias

[1] Prometheus: Configuración https://prometheus.io/docs/prometheus/latest/configuration/configuration/

[2] https://medium.com/@alexandrev/prometheus-monitoring-in-tibco-cloud-integration-96a6811416ce

[3] https://medium.com/@alexandrev/prometheus-monitoring-for-microservices-using-tibco-772018d093c4

[4] https://medium.com/@alexandrev/kubernetes-service-discovery-for-prometheus-fcab74237db6

[5] Prometheus: Nomenclatura de Métricas y Etiquetas https://prometheus.io/docs/practices/naming/

Guerras tecnológicas: Solución de Gestión de API vs Malla de Servicios

Guerras tecnológicas: Solución de Gestión de API vs Malla de Servicios

Service Mesh vs. Solución de Gestión de API: ¿es lo mismo? ¿Son compatibles? ¿Son rivales?

Guerras tecnológicas: Solución de Gestión de API vs Malla de Servicios
Foto de Alvaro Reyes en Unsplash

Cuando hablamos de comunicación en un mundo distribuido nativo de la nube y especialmente cuando hablamos de arquitecturas basadas en contenedores basadas en la plataforma Kubernetes como AKS, EKS, Openshift, etc., dos tecnologías generan mucha confusión porque parecen estar cubriendo las mismas capacidades: Esas son Service Mesh y Soluciones de Gestión de API.

Ha sido un tema controvertido donde se han hecho diferentes declaraciones audaces: Personas que piensan que esas tecnologías trabajan juntas de manera complementaria, otras que creen que están tratando de resolver los mismos problemas de diferentes maneras e incluso personas que piensan que una es solo la evolución de la otra hacia la nueva arquitectura nativa de la nube.

Soluciones de Gestión de API

Las Soluciones de Gestión de API han sido parte de nuestras arquitecturas durante mucho tiempo. Es un componente crucial de cualquier arquitectura hoy en día que se crea siguiendo los principios de la Arquitectura Guiada por API, y son una evolución del Gateway de API preexistente que hemos incluido como una evolución de los proxies puros a finales de los 90 y principios de los 2000.

La Solución de Gestión de API es un componente crítico de su Estrategia de API porque permite a su empresa trabajar en un Enfoque Guiado por API. Y eso es mucho más que el aspecto técnico de ello. Usualmente tratamos de simplificar el Enfoque Guiado por API al lado técnico con el desarrollo basado en API y los microservicios que estamos creando y el espíritu colaborativo en mente que usamos hoy para hacer cualquier pieza de software que se despliega en el entorno de producción.

Pero es mucho más que eso. Las Arquitecturas Guiadas por API se tratan de crear productos a partir de nuestra API, proporcionando todos los artefactos (técnicos y no técnicos) que necesitamos para hacer esa conversión. Una lista rápida de esos artefactos (pero no es una lista exhaustiva) son los siguientes:

  • Soporte de Documentación de API
  • Definición de Planes de Paquetes
  • Capacidades de Suscripción
  • Capacidades de Monetización
  • Descubrimiento de API de Autoservicio
  • Capacidades de Versionado

Tradicionalmente, la solución de Gestión de API también viene con capacidades de Gateway de API integradas para cubrir incluso el aspecto técnico de ello, y que también proporcionan algunas otras capacidades más a nivel técnico:

  • Exposición
  • Enrutamiento
  • Seguridad
  • Limitación

Service Mesh

Service Mesh es más una palabra de moda en estos días y una tecnología que ahora está en tendencia porque ha sido creada para resolver algunos de los desafíos que son inherentes al enfoque de microservicios y contenedores y todo bajo la etiqueta de nativo de la nube.

En este caso, proviene del lado técnico, por lo que es mucho más un enfoque de abajo hacia arriba porque su existencia es para poder resolver un problema técnico e intentar proporcionar una mejor experiencia de usuario a los nuevos desarrolladores y administradores de sistemas en este nuevo mundo mucho más complicado. ¿Y cuáles son los desafíos que se han creado en esta transición? Echemos un vistazo a ellos:

El Registro y Descubrimiento de Servicios es una de las cosas críticas que necesitamos cubrir porque con el paradigma elástico del mundo nativo de la nube hace que los servicios cambien su ubicación de vez en cuando comenzando en nuevas máquinas cuando sea necesario, eliminándolos cuando no hay suficiente carga para requerir su presencia, por lo que es esencial proporcionar una manera de gestionar fácilmente esa nueva realidad que no necesitábamos en el pasado cuando nuestros servicios estaban vinculados a una máquina específica o conjunto de dispositivos.

La seguridad es otro tema importante en cualquier arquitectura que podamos crear hoy, y con el enfoque poliglota que hemos incorporado en nuestras arquitecturas es otra cosa desafiante porque necesitamos proporcionar una manera segura de comunicar nuestros servicios que son compatibles con cualquier tecnología que estemos usando y cualquiera que podamos usar en el futuro. Y no estamos hablando solo de Autenticación pura sino también de Autorización porque en una comunicación de servicio a servicio también necesitamos proporcionar una manera de verificar si el microservicio que está llamando a otro está permitido para hacerlo y hacerlo de una manera ágil para no detener todas las nuevas ventajas que su arquitectura nativa de la nube proporciona debido a su concepción.

Los requisitos de enrutamiento también han cambiado en estas nuevas arquitecturas. Si recuerdas cómo solíamos desplegar en arquitecturas tradicionales, normalmente intentamos encontrar un enfoque de cero tiempo de inactividad (cuando es posible) pero un procedimiento muy estándar. Desplegar una nueva versión, validar su funcionamiento y abrir el tráfico para cualquiera, pero hoy los requisitos exigen paradigmas mucho más complejos. Las tecnologías de Service Mesh soportan estrategias de implementación como Pruebas A/B, Enrutamiento basado en peso, Implementaciones Canary.

¿Rival o Compañero?

Entonces, después de hacer una vista rápida del propósito de estas tecnologías y el problema que intentaron resolver, ¿son rivales o compañeros? ¿Deberíamos elegir una u otra o intentar colocar ambas en nuestra arquitectura?

Como siempre, la respuesta a esas preguntas es la misma: «¡Depende!». Depende de lo que estás tratando de hacer, lo que tu empresa está tratando de lograr, lo que estás construyendo…

  • Se necesita una solución de Gestión de API siempre que estés implementando una Estrategia de API en tu organización. La tecnología de Service Mesh no está tratando de llenar ese vacío. Pueden proporcionar capacidades técnicas para cubrir lo que tradicionalmente ha hecho el componente de Gateway de API, pero este es solo uno de los elementos de la Solución de Gestión de API. Las otras partes que proporcionan las capacidades de gestión y gobernanza no están cubiertas por ningún Service Mesh hoy en día.
  • Se necesita Service Mesh si tienes una arquitectura nativa de la nube basada en la plataforma de contenedores que se basa firmemente en la comunicación HTTP para la comunicación sincrónica. Proporciona tantas capacidades técnicas que harán tu vida mucho más manejable que tan pronto como lo incluyas en tu arquitectura, no podrás vivir sin él.
  • Service Mesh solo va a proporcionar sus capacidades en un enfoque de plataforma de contenedores. Entonces, si tienes un panorama más heterogéneo como muchas empresas tienen hoy en día, (tienes una plataforma de contenedores pero también otras plataformas como aplicaciones SaaS, algunos sistemas aún en las instalaciones y arquitecturas tradicionales que todas ellas están proporcionando capacidades que te gustaría aprovechar como parte de los productos de API), necesitarás incluir una Solución de Gestión de API.

Por lo tanto, estas tecnologías pueden jugar juntas en una arquitectura completa para cubrir diferentes tipos de requisitos, especialmente cuando estamos hablando de arquitecturas heterogéneas complejas con la necesidad de incluir un enfoque Guiado por API.

En próximos artículos, cubriremos cómo podemos integrar ambas tecnologías desde el aspecto técnico y cómo fluye la información entre los diferentes componentes de la arquitectura.

Registro de Harbor: ¿Cómo usarlo para aumentar la seguridad en tu plataforma?

Registro de Harbor: ¿Cómo usarlo para aumentar la seguridad en tu plataforma?

Aprende cómo puedes incluir el registro de Harbor en tu conjunto de herramientas DevSecOps para aumentar la seguridad y gestión en tu plataforma basada en contenedores

Registro de Harbor: ¿Cómo usarlo para aumentar la seguridad en tu plataforma?
Foto de Youngje Park en Unsplash

Con la transición a un proceso de desarrollo más ágil donde el número de implementaciones ha aumentado de manera exponencial. Esa situación ha hecho que sea bastante complejo mantener el ritmo para asegurarnos de que no solo estamos implementando código más a menudo en producción que proporciona las capacidades requeridas por el negocio. Sino que, al mismo tiempo, podemos hacerlo de manera segura y confiable.

Esa necesidad está llevando hacia la idea de DevSecOps para incluir la seguridad como parte de la cultura y prácticas de DevOps como una forma de garantizar la seguridad desde el principio en el desarrollo y a lo largo de todos los pasos estándar desde la máquina del desarrollador hasta el entorno de producción.

Además de eso, debido al paradigma de los contenedores, tenemos un enfoque más políglota con diferentes tipos de componentes ejecutándose en nuestra plataforma utilizando una imagen base diferente, paquetes, bibliotecas, etc. Necesitamos asegurarnos de que sigan siendo seguros de usar y necesitamos herramientas para poder gobernar eso de manera natural. Para ayudarnos en esa tarea es donde componentes como Harbor nos ayudan a hacerlo.

Harbor es un proyecto de CNCF en la etapa de incubación en el momento de escribir este artículo, y proporciona varias capacidades sobre cómo gestionar imágenes de contenedores desde una perspectiva de proyecto. Ofrece un enfoque de proyecto con su registro de docker y también un museo de gráficos si queremos usar Helm Charts como parte de nuestro desarrollo de proyectos. Pero también incluye características de seguridad, y esa es la que vamos a cubrir en este artículo:

  • Escaneo de Vulnerabilidades: te permite escanear todas las imágenes de docker registradas en los diferentes repositorios para verificar si tienen vulnerabilidades. También proporciona automatización durante ese proceso para asegurarse de que cada vez que empujamos una nueva imagen, esta se escanea automáticamente. Además, permitirá definir políticas para evitar extraer cualquier imagen con vulnerabilidades y también establecer el nivel de vulnerabilidades (bajo, medio, alto o crítico) que nos gustaría tolerar. Por defecto, viene con Clair como el escáner predeterminado, pero también puedes introducir otros.
  • Imágenes firmadas: el registro de Harbor proporciona opciones para desplegar notary como parte de sus componentes para poder firmar imágenes durante el proceso de empuje para asegurarse de que no se realicen modificaciones a esa imagen
  • Inmutabilidad de Etiquetas y Reglas de Retención: el registro de Harbor también proporciona la opción de definir la inmutabilidad de etiquetas y reglas de retención para asegurarse de que no haya ningún intento de reemplazar imágenes con otras usando la misma etiqueta.

El registro de Harbor se basa en docker, por lo que puedes ejecutarlo localmente usando docker y docker-compose siguiendo el procedimiento disponible en su página web oficial. Pero también admite ser instalado sobre tu plataforma Kubernetes usando el helm chart y el operador que están disponibles.

Una vez que la herramienta está instalada, tenemos acceso al Portal Web de la UI, y podemos crear un proyecto que tenga repositorios como parte de él.

Registro de Harbor: ¿Cómo usarlo para aumentar la seguridad en tu plataforma?
Lista de Proyectos dentro del Portal UI de Harbor

Como parte de la configuración del proyecto, podemos definir las políticas de seguridad que nos gustaría proporcionar a cada proyecto. Eso significa que diferentes proyectos pueden tener diferentes perfiles de seguridad.

Registro de Harbor: ¿Cómo usarlo para aumentar la seguridad en tu plataforma?
Configuraciones de seguridad dentro de un Proyecto en el Portal UI de Harbor

Y una vez que empujamos una nueva imagen al repositorio que pertenece a ese proyecto, vamos a ver los siguientes detalles:

Registro de Harbor: ¿Cómo usarlo para aumentar la seguridad en tu plataforma?

En este caso, he empujado una aplicación de TIBCO BusinessWorks Container Edition que no contiene ninguna vulnerabilidad y solo muestra eso y también dónde se verificó.

Además, si vemos los detalles, podemos verificar información adicional como si la imagen ha sido firmada o no, o poder verificarla nuevamente.

Registro de Harbor: ¿Cómo usarlo para aumentar la seguridad en tu plataforma?
Detalles de la imagen dentro del Portal UI de Harbor

Resumen

Así que, estas son solo algunas características que Harbor proporciona desde la perspectiva de seguridad. Pero Harbor es mucho más que solo eso, así que probablemente cubramos más de sus características en futuros artículos. Espero que, basado en lo que leíste hoy, te gustaría darle una oportunidad y comenzar a introducirlo en tu conjunto de herramientas DevSecOps.

Plataforma de Contenedores Gestionada: Las 3 principales razones por las que deberías elegirla

Plataforma de Contenedores Gestionada: Las 3 principales razones por las que deberías elegirla

La Plataforma de Contenedores Gestionada ofrece ventajas a cualquier sistema dentro de cualquier empresa. Echa un vistazo a las tres críticas.

Plataforma de Contenedores Gestionada: Las 3 principales razones por las que deberías elegirla
Foto de frank mckenna en Unsplash

La Plataforma de Contenedores Gestionada está revolucionando todo. Estamos viviendo en una época donde el desarrollo y el panorama de TI están cambiando, nuevos paradigmas como microservicios y contenedores parecen estar presentes desde hace algunos años, y si confiamos en la realidad que los blogs y artículos muestran hoy, todos los usuarios ya los estamos usando todo el tiempo.

¿Has visto alguna publicación de blog sobre cómo desarrollar una aplicación J2EE que se ejecute en tu servidor Tomcat local? Probablemente no. El artículo más similar probablemente debería ser cómo contenerizar tu aplicación basada en Tomcat.

¿Pero sabes qué? La mayoría de las empresas todavía están trabajando de esa manera. Así que incluso si todas las empresas tienen un nuevo enfoque digital en algunos departamentos, también tienen otros que son más tradicionales.

Entonces, parece que necesitamos encontrar una manera diferente de traducir las principales ventajas de una plataforma basada en contenedores a un tipo de discurso que puedan ver y darse cuenta de los beneficios tangibles que pueden obtener de allí y tener el espíritu de «¡Hey, esto puede funcionar para mí!».

1. Obtendrás todos los componentes aislados y actualizados más rápidamente

Esa es una de las grandes cosas sobre las plataformas basadas en contenedores en comparación con enfoques anteriores como las plataformas basadas en servidores de aplicaciones. Cuando tienes un clúster de servidores de aplicaciones, todavía tienes un clúster con varias aplicaciones. Así que usualmente haces algo de aislamiento, mantienes aplicaciones relacionadas, proporcionas infraestructura independiente para las críticas, y así sucesivamente.

Pero incluso con eso, a algún nivel, la aplicación continúa estando acoplada, por lo que algunos problemas con algunas aplicaciones podrían derribar otra que no se esperaba por razones comerciales.

Con una plataforma basada en contenedores, obtienes cada aplicación en su burbuja, por lo que cualquier problema o error afectará a esa aplicación y nada más. La estabilidad de la plataforma es una prioridad para todas las empresas y todos los departamentos dentro de ellas. Solo pregúntate: ¿Quieres terminar con esas «cadenas de dominó» de fallos? ¿Cuánto mejorarán tus operaciones? ¿Cuánto aumentará tu felicidad?

Además, basado en el enfoque de contenedores, obtendrás componentes más pequeños. Cada uno de ellos realizará una sola tarea proporcionando una única capacidad a tu negocio, lo que significa que será mucho más fácil de actualizar, probar y desplegar en producción. Así que, al final, generará más despliegues en el entorno de producción y reducirá el tiempo de comercialización de tus capacidades empresariales.

Podrás desplegar más rápido y tener operaciones más estables al mismo tiempo.

2.- Optimizarás el uso de tu infraestructura

Costos, todo se trata de costos. No hay conversaciones con clientes que no estén tratando de pagar menos por su infraestructura. Así que, enfrentémoslo. Deberíamos poder ejecutar operaciones de manera optimizada. Así que, si el costo de nuestra infraestructura está aumentando, eso necesita significar que nuestro negocio está creciendo.

Las plataformas basadas en contenedores permitirán optimizar la infraestructura de dos maneras diferentes. Primero, si se utilizan dos conceptos principales: Elasticidad y Compartición de Infraestructura.

La elasticidad está relacionada porque solo voy a tener la infraestructura que necesito para soportar la carga que tengo en este momento. Así que, si la carga aumenta, mi infraestructura aumentará para manejarla, pero después de que ese momento pase, volverá a lo que necesita ahora después de que ese pico haya ocurrido.

La compartición de infraestructura se trata de usar cada parte del servidor que está libre para desplegar otras aplicaciones. Imagina un enfoque tradicional donde tengo dos servidores para mi conjunto de aplicaciones. Probablemente no tengo un uso del 100% de esos servidores porque necesito tener algo de capacidad de reserva para poder actuar cuando la carga aumente. Probablemente tengo un 60–70% de uso. Eso significa un 30% libre. Si tenemos diferentes departamentos con diferentes sistemas, y cada uno tiene su infraestructura con un 30% libre, ¿cuánta de nuestra infraestructura estamos simplemente desperdiciando? ¿Cuántos dólares/euros/libras estás simplemente tirando por la ventana?

Las plataformas basadas en contenedores no necesitan herramientas o software específicos instalados en la plataforma para ejecutar un tipo diferente de aplicación. No es necesario porque todo reside dentro del contenedor, por lo que puedo usar cualquier espacio libre para desplegar otras aplicaciones haciendo un uso más eficiente de esos.

3.- No necesitarás infraestructura para administración

Cada sistema que es lo suficientemente grande tiene algunos recursos dedicados para poder gestionarlo. Sin embargo, incluso la mayoría de las arquitecturas recomendadas recomiendan colocar esos componentes aislados de tus componentes de tiempo de ejecución para evitar cualquier problema relacionado con el administrador o el mantenimiento que pueda afectar tus cargas de trabajo de tiempo de ejecución, lo que significa infraestructura específica que estás usando para algo que no está ayudando a tu negocio. Por supuesto, puedes explicar a cualquier usuario de negocio que necesitas una máquina para ejecutar que proporcione las capacidades requeridas. Pero es más complejo que usar infraestructura adicional (y generar costo) para colocar otros componentes que no están ayudando al negocio.

Así que, las plataformas de contenedores gestionadas eliminan ese problema porque vas a proporcionar la infraestructura que necesitas para ejecutar tus cargas de trabajo, y se te proporcionarán de forma gratuita o por una tarifa tan baja las capacidades de administración. Y además de eso, ni siquiera necesitas preocuparte de que las funciones de administración estén siempre disponibles y funcionando bien porque esto se apoya en el propio proveedor.

Conclusión y próximos pasos

Como puedes ver, describimos beneficios muy tangibles que no están basados en la industria o enfocados en el desarrollo. Por supuesto, podemos tener muchos más para agregar a esta lista, pero estos son los críticos que afectan a cualquier empresa en cualquier industria en todo el mundo. Así que, por favor, tómate tu tiempo para pensar en cómo estas capacidades pueden ayudar a mejorar tu negocio. Pero no solo eso, tómate tu tiempo para cuantificar cómo eso mejorará tu negocio. ¿Cuánto puedes ahorrar? ¿Cuánto puedes obtener de este enfoque?

Y cuando tengas frente a ti un caso de negocio sólido basado en este enfoque, obtendrás todo el apoyo y el coraje que necesitas para avanzar en esa ruta. ¡Así que te deseo una transición pacífica!

Mayor agilidad a través de la conectividad digital moderna

Mayor agilidad a través de la conectividad digital moderna

Descubra cómo TIBCO Cloud Integration puede ayudarle a aumentar la agilidad empresarial conectando todas sus aplicaciones, dispositivos y datos sin importar dónde estén alojados

Vivimos en un mundo donde el número de activos digitales que necesitan ser integrados, los tipos de activos y dónde están alojados están explotando. Hemos pasado de un panorama empresarial simple donde todos nuestros sistemas estaban alojados en un solo centro de datos, y el número de sistemas era pequeño. Si aún recuerda esos días, probablemente podría nombrar todos los sistemas que mantenía. ¿Podría imaginarse haciendo eso hoy?

Esto ha cambiado completamente. Las empresas hoy en día operan cada vez más en aplicaciones y datos en lugar de en procesos manuales documentados, y eso ha aumentado las demandas para tenerlos conectados para apoyar las operaciones del negocio. ¿Cómo puede un equipo de TI tradicional mantenerse al día con todas las solicitudes de conectividad provenientes de todas las áreas del negocio para asegurar que estos activos estén completamente integrados y funcionen sin problemas?

Además, el entorno empresarial ha cambiado completamente. Hoy en día todo está hiperacelerado. Ya no puede esperar seis meses para poner en línea sus nuevas promociones de marketing o para introducir nuevos servicios digitales.

Esto se debe a que los mercados cambian constantemente con el tiempo. A veces crecen, y otras veces se contraen. Esto obligó a las empresas a cambiar rápidamente la forma en que hacen negocios.

Entonces, si necesitamos resumir todo lo que necesitamos de una arquitectura de aplicaciones para asegurarnos de que pueda ayudarnos a cumplir con nuestros requisitos empresariales, esa palabra es «agilidad». Y la agilidad arquitectónica crea agilidad empresarial.

Se han adoptado diferentes paradigmas de TI para ayudar a aumentar la agilidad arquitectónica desde diferentes perspectivas que proporcionan una forma rápida de adaptarse, conectarse y ofrecer nuevas capacidades a los clientes:

  • Agilidad de Infraestructura: Basada en la adopción de la nube, los proveedores de nube ofrecen una forma ágil de aprovechar inmediatamente la capacidad de infraestructura requerida, permitiendo una rápida innovación al crear rápidamente nuevos entornos y desplegar nuevos servicios bajo demanda.
  • Agilidad de Operación y Gestión: Las aplicaciones basadas en SaaS le permiten adoptar suites empresariales de mejor calidad sin tener que adquirir y gestionar la infraestructura subyacente, como lo hace en su enfoque local. Esto le permite agilizar y acelerar las operaciones de su negocio.
  • Agilidad de Desarrollo: Basada en las tecnologías de aplicaciones que crean componentes de software pequeños y altamente escalables que pueden evolucionarse, desplegarse y gestionarse de manera autónoma. Este enfoque integra capacidades de integración directamente dentro de las aplicaciones desplegadas, haciendo que la integración ya no sea una capa separada, sino algo que está incorporado dentro de cada componente. Los conceptos de microservicios, desarrollo liderado por API y arquitectura impulsada por eventos juegan un papel esencial y expanden las personas involucradas en el proceso de desarrollo.

Entonces, todas estas formas de agilidad ayudan a construir una arquitectura de aplicaciones que es altamente ágil, capaz de responder rápidamente a los cambios en el entorno en el que opera. Y puede lograr todas ellas con TIBCO® Cloud Integration (TCI).

TCI es una Plataforma de Integración como Servicio (iPaaS), una solución de integración basada en la nube que hace extremadamente fácil para usted conectar todos sus activos sin importar dónde estén alojados. Es una oferta SaaS que se ejecuta tanto en AWS como en Microsoft Azure, por lo que no tiene que gestionar la infraestructura subyacente para asegurarse de que los activos de integración que son críticos para su negocio estén siempre disponibles y se escalen a cualquier nivel de demanda.

Desde la perspectiva del desarrollo, TCI le proporciona todas las herramientas necesarias para que su negocio desarrolle y conecte todos sus activos digitales, incluidas sus aplicaciones, fuentes de datos, dispositivos, suites empresariales, procesos y soluciones SaaS, utilizando los estándares más modernos dentro de una experiencia inmersiva.

Mayor agilidad a través de la conectividad digital moderna
Acceda fácilmente a todas sus aplicaciones dentro de una experiencia de usuario inmersiva.

Aborda patrones de integración desde enfoques tradicionales, como en la replicación de datos, hasta enfoques modernos, incluyendo arquitecturas lideradas por API e impulsadas por eventos. También admite los últimos estándares de conectividad como REST, GraphQL, AsyncAPI y gRPC. Y para reducir el tiempo de comercialización de sus integraciones, también incluye un número significativo de conectores preempaquetados que simplifican la conectividad a suites empresariales heredadas y modernas, fuentes de datos y más, sin importar si residen en su centro de datos o en la nube. Estos conectores son fácilmente accesibles dentro de un mercado de conectores integrado directamente en la experiencia del usuario para ser utilizados en toda la plataforma.

TCI mejora el desarrollo basado en equipos. Con TIBCO® Cloud Mesh, accesible a través de TCI, sus integradores pueden compartir, descubrir y reutilizar fácilmente activos digitales creados en toda la empresa dentro de TIBCO Cloud, como APIs y aplicaciones, y utilizarlos muy rápidamente dentro de las integraciones de manera segura sin necesidad de preocuparse por aspectos técnicos.

Esta capacidad promueve la reutilización de activos existentes y una mejor colaboración entre equipos. Combinado con conectores preempaquetados que son directamente accesibles dentro de TCI, el tiempo de desarrollo para introducir nuevas integraciones se reduce significativamente.

Mayor agilidad a través de la conectividad digital moderna
Acceda fácilmente a conectores preempaquetados dentro de un mercado de conectores integrado

TCI también amplía el número de personas en su negocio que pueden crear integraciones, con múltiples experiencias de desarrollo que están adaptadas para diferentes roles, proporcionando su propia experiencia y habilidades. Ahora no solo los especialistas en integración pueden participar en el proceso de integración, sino también los desarrolladores, propietarios de productos API e integradores ciudadanos.

Esto aumenta drásticamente la agilidad empresarial porque sus diversas unidades de negocio pueden crear integraciones de manera autoservicio, colaborar para proporcionar soluciones incluso si abarcan diferentes unidades de negocio, y reducir sus dependencias en equipos de TI sobrecargados. Esto libera a sus especialistas en integración para que se concentren en proporcionar las mejores prácticas de integración para su empresa y en diseñar una arquitectura de aplicaciones receptiva.

TCI aborda una serie de casos de uso de integración, incluyendo:

  1. Conectar aplicaciones, datos y dispositivos que residen en cualquier lugar (por ejemplo, en las instalaciones, SaaS, nube privada/pública)
  2. Diseñar, orquestar y gestionar APIs y microservicios
  3. Rearquitecturar aplicaciones monolíticas inflexibles en aplicaciones nativas de la nube altamente escalables.
  4. Construir aplicaciones impulsadas por eventos que procesan flujos de datos (por ejemplo, de dispositivos IoT o Apache Kafka)

TCI también proporciona información detallada sobre el rendimiento y el estado de ejecución de sus integraciones para que pueda optimizarlas según sea necesario o detectar y resolver fácilmente cualquier problema potencial con ellas. Esto asegura que los procesos empresariales que dependen de sus integraciones se vean mínimamente interrumpidos.

Mayor agilidad a través de la conectividad digital moderna
Obtenga vistas rápidas de la ejecución de aplicaciones y detalles de rendimiento.
Mayor agilidad a través de la conectividad digital moderna
Profundice para obtener información ampliada sobre los historiales de ejecución de aplicaciones y las tendencias de rendimiento.

Al incorporar a más personas en su proceso de integración, empoderándolas con una vista inmersiva que les ayuda a trabajar juntos sin problemas en sus integraciones, proporcionando capacidades como TIBCO Cloud Mesh y conectores preempaquetados dentro de un mercado de conectores unificado que acelera el desarrollo de integraciones, su negocio digital puede conectarse y reconectarse muy rápidamente para responder a los mercados cambiantes, lo que aumenta enormemente su agilidad empresarial.

Para experimentar lo fácil que es conectar todos sus activos digitales para aumentar su agilidad empresarial, regístrese hoy para una prueba gratuita de 30 días de TIBCO Cloud Integration.

Regístrese para la prueba gratuita en https://www.tibco.com/products/cloud-integration

TIBCO Cloud Integration es un servicio proporcionado dentro de la Plataforma de Inteligencia Conectada de TIBCO, que proporciona un conjunto completo de capacidades para conectar su negocio.