<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Scaling on Jorge's notebook</title><link>https://jorgesnotebook.com/es/tags/scaling/</link><description>Recent content in Scaling on Jorge's notebook</description><generator>Hugo</generator><language>es</language><lastBuildDate>Sat, 18 Apr 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://jorgesnotebook.com/es/tags/scaling/index.xml" rel="self" type="application/rss+xml"/><item><title>Diseñando un pipeline de OpenTelemetry para escalar (no para observabilidad)</title><link>https://jorgesnotebook.com/es/posts/designing-otel-pipeline-for-scaling/</link><pubDate>Sat, 18 Apr 2026 00:00:00 +0000</pubDate><guid>https://jorgesnotebook.com/es/posts/designing-otel-pipeline-for-scaling/</guid><description>&lt;p&gt;Estamos usando Grafana Cloud para observabilidad — Mimir, Tempo, Loki, todo el paquete. Funciona bien, sin quejas. Antes de todo esto solo escalábamos con CPU y memoria con el HPA normal. Que está bien hasta que no lo está — la CPU y la memoria son indicadores con retraso, cuando suben ya estás en problemas. Asi que me puse a mirar KEDA porque quería escalar sobre algo que tuviera más sentido, como la profundidad de la cola. Nadie me lo pidió, simplemente pensé que era lo correcto.&lt;/p&gt;</description></item></channel></rss>