- Incidente se nalazi u centru US-EAST-1 i problema sa DNS ligadom u DynamoDB-u, s efektom kaskadnih kritičnih usluga.
- AWS mitigó el núcleo del fallo i comunicó la recuperación progresiva, con atrasos en CloudTrail/Lambda i errores al lanzar new EC2.
- Millones de reportes y cientos de compañías afectadas, desde bancos y administraciones hasta juegos, medios y e-commerce.
- Para comprobar el estado: panel público de AWS Health, página oficial de estado y rastreadores comunitarios como apoyo.
Cuando un servicio de Amazon Web Services deja de responder, medio internet lo nota al instante y la pregunta salta sola: ¿está AWS caído o es cosa de mi app? En las últimas horas se ha vivido una interrupción de gran alcance que ha afectado a redes sociales, bancos, juegos online, comercios electrónicos y administraciones públicas, poniendo en evidencia lo dependientes que somos de la nube.
A continuación encontrarás una guía clara para comprobar el estado de AWS en tiempo real, un repaso detallado de lo que ha pasado, qué servicios se han visto afectados, por qué un problem de DNS en DynamoDB puede derivar en un efecto dominó, y qué dicen empresas, expertos y autoridades. Todo explicado en español de España, sin rodeos y con contexto para entender el alcance real.
Cómo comprobar i AWS está caído ahora mismo
La forma más directa y fiable es consultar los paneles oficiales. Javna ploča AWS Health y la página de estado de AWS muestran incidentes activos, mitigaciones y servicios impactados por región. Desde septiembre de 2023 hay un cambio importante en la navegación: si haces clic en cualquier evento public, la URL del navegador je kompletan sa unlace directo za ovaj događaj, y al abrirlo accederás a la vista de lista de eventos con la ventana emergente del incidente seleccionada para ir al grano.
Además del panel oficial, puedes cruzar señales con herramientas de terceros como los rastreadores de caídas. Plataformas como Downdetector agregan avisos de usuarios en tiempo real, útiles para detectar picos de fallos en servicios concretos. Eso sí, recuerda que son reportes comunitarios y pueden incluir falsos positivos; toma estos datos como complemento, no como veredicto definitivo.
Si gestionas sistemas, conviene que monitorices las regiones que más usas. Regija US-EAST-1 (Norte de Virginia) je una de las más críticas porque aloja servicios troncales y muchísimas cargas de trabajo. Una incidencia allí puede sentirse en todo el mundo por su peso en la arquitectura global.
Por último, revisa el alcance del problema en tus propias dependencias: tu aplikaciju ovisi o DynamoDB, Lambda, CloudWatch, Route 53 ili CloudFront, cualquier anomalía en estos componentes puede explicar latencias y errores. Neophodne su vam informacije o historiji incidenta, pregled liste AWS Health-a te usluge koje osiguravaju vremensku liniju komunikacija i ublažavanja.
Qué ha ocurrido en la última caída de AWS
En la mañana del lunes, miles de usuarios en múltiples países comenzaron a reporter fallos al usar servicios de internet. Downdetector registró más de 4 millones de avisos en todo el mundo y más de 500 compañías afectadas, con problemas intermitentes que se extendieron durante horas. En Estados Unidos, el foco estuvo en Virginia del Norte, epicentro de la region US-EAST-1.
Las comunicaciones de AWS fueron escalando a lo largo de la mañana con hitos muy concretos. Primero se investigaron tasas elevadas de errores y latencias en múltiples servicios, más tarde se identificó una posible causa en las API de DynamoDB za US-EAST-1, después llegaron las primeras mitigaciones y señales de recuperación, y por último la confiración de que el problem de DNS se había compulet.
- 08:11 (sat u Ujedinjenom Kraljevstvu): AWS ukazuje na to da istražuje sve greške i kašnjenja i različite usluge.
- 10:01: može se identificirati uzročnik iz API-ja DynamoDB u US-EAST-1.
- 10:22: se aplican mitigaciones iniciales y aparecen señales tempranas de recuperación; algunos fallos pueden persistir.
- 10:27: se observan señales significativas de recuperación; la mayoría de solicitudes debería funcionar mientras se procesa el atraso.
- 12:35: el problema subyacente de DNS se deklarira completamente mitigado; la mayoría de servicios vuelve a operar con normalidad.
A pesar de la mitigación del núcleo del incidente, AWS avisó de errores persistentes al lanzar nuevas instancias EC2 y de processos atrasados en servicios como CloudTrail y Lambda, normales tras una interrupción de este tipo cuando hay que digerir una montaña de eventos acumulados.
Servicios que se han visto afectados
El impacto ha sido transversal. Entre los servicios y plataformas con problems se han contado redes sociales, juegos, banca, e-commerce y herramientas de trabajo. Esta es una muestra representativa de lo que han reportado usuarios y empresas:
- Mreže i razmjena poruka: Snapchat, Signal y También Dificultades Puntuales en Reddit.
- Posao i saradnja: Slack y Zoom con incidencias intermitentes.
- Ekosistem AmazonaAmazon.com, Alexa y dispositivos Ring con fallos de respuesta.
- Videoigre i oči: Roblox, Fortnite, Clash Royale, Clash of Clans, Wordle, Pokémon Go, Rocket League i Peloton con cortes ili retrasos.
- Obrazovanje i kreativnostDuolingo i Canva s prekidima.
- Banca y sector público (Reino Unido): Halifax, Lloyds Bank, Bank of Scotland, HMRC y secciones de Gov.uk, además de operadores i servisi kao Sky, BT, EE, Vodafone i Virgin Media.
- Pagos i financije: Mercado Pago, Venmo con incidencias reportadas por usuarios, Coinbase y la app de inversiones Robinhood con afectación.
- Međunarodni medijiweb stranice The Wall Street Journal y The New York Times s problemima pristupa.
- Problemi i asistenti: la platforma de IA Perplexity reconoció caída por problems de AWS.
En España también se notaron efectos. BBVA i ING registar incidenata, y Movistar i Orange eksperimentaron problemas en determinados momentos. Además, Ticketmaster comunicó errores temporales en la compra de entradas, con Live Nation señalando que estaban monitorizando para restablecer la venta lo antes posible.
Conviene aclarar que, aunque hubo ruido sobre problemas de pagos con tarjeta, Redsys indicó que su caída fue puntual y ajena a la incidencia de AWS, limitada a un fallo parcial de su infraestructura de comunicaciones. Es decir, no todo lo que falló ese día estaba relacionado con la nube de Amazon.
Causas técnicas: DNS y el papel de DynamoDB
El eje del incidente estuvo en el Sistema de Nombres de Dominio. El DNS je "guía telefónica" na internetu: traduce nombres readibles (como un dominio) en direcciones IP que los navegadores y servicios pueden usar. Si el DNS falla, es como perder el mapa: los clientes no encuentran a dónde ir, por muy sano que esté el servicio detrás.
Tokom incidenta, Las API de DynamoDB i US-EAST-1 pregledava sve greške y se identificó un problem de DNS como causa subyacente. La combinación de un servicio tan utilizado, con una región crítica, provocó un efecto cascada que acabó afectando a decenas de servicios. En una de las perspectivas disponibles se llegó a apuntar que ima 113 komponenti AWS-a zavisnih od DynamoDB-a vidi se kao da su zaslijepljene.
Una vez applicada la mitigación de DNS, la plataforma empezó a recuperar operaciones. Eso no impide que queden colas por processar (zaostaci), que se arrastren latencias y que algunas solicitudes sigan fallando temporalmente mientras se normaliza la carga. Es lo esperable tras un corte a gran escala.
Además, AWS comunicó que, pese a la recuperación general, las peticiones para lanzar nuevas instancias EC2 seguían arrojando tasas de error mayores a las habituales. Con el paso de las horas, estos flecos operativos fueron reduciéndose a medida que los equipos despejaban el atasco.
Una infraestructura que sostiene un tercio de internet
Para entender el alcance de un evento así hay que dimensionar a AWS. Millones de sitios y aplicaciones dependen diariamente de su infraestructura (computación, almacenamiento, bases de datos, redes, IA…). Análisis de BuiltWith sitúan a više od 76 miliona AWS mreža, y otras cifras apuntan a 76,8 millones en recuentos más recientes, con alrededor de 200.000 mjesta u Španiji.
El músculo de negocio de Amazon también habla por sí solo: AWS generira 107.600 miliona dolara u ingres i el último año, consolidándose kao prodajni proizvod za Microsoft Azure i Google Cloud. Esa hegemonía implica que un tropiezo puntual, aunque esté acotado geográficamente, se note en medio mundo.
Periodistas tecnológicos han señalado que la relativa frecuencia de estos eventos revela la fragilidad del ecosistema. Cuando una pieza central falla, las repercusiones son amplias porque “tenemos más huevos en menos cestas”. Y como apuntó un profesor de la Universidad de Notre Dame, la recuperación puede provocar “fallos en cascada” durante la tarde a medida que se restablecen subsistemas, un comportamiento parecido al de un gran apagón eléctrico.
Este episodio también ha traído recuerdos recientes de otros fallos masivos, como el de 2024 con un proveedor de seguridad empresarial que, tras una actualización, acabó colgando equipos Windows en hospitales y aeropuertos. Diferentes causas, mismo patrón: vínculos críticos que, al fallar, interrumpen funciones clave en cadena.
Respuestas de empresas y administraciones
La cascada de comunicados fue extensa. Slobodna tržnica i Tržnica Pago reconocieron inestabilidad provocada por un problem generalizado en AWS y aseguraron que trabajaban para restablecer el servicio. En el Reino Unido, HMRC indicó que sus usuarios tenían dificultades para acceder a servicios online por la incidencia global y recomendó paciencia hasta su resolución.
Iz Britanske banke, Lloyds Bank lamentó las molestias y señaló que sus servicios volvían gradualmente a estar en línea. Halifax većina objašnjenja greške nije podían procesar solicitudes por problemas técnicos. Conforme avanzó el día, las entidades fueron confirmando el regreso a la normalidad.
En el terreno de los medios y el entretenimiento, Live Nation avisó de interrupciones que afectaban a Ticketmaster, impidiendo temporalmente la compra de entradas, mientras que publicaciones kao što su The Wall Street Journal i The New York Times sufrieron problems de acceso.
El ecosistema Amazon no quedó al margen: clientes reportaron fallos al completar compras en Amazon.com s tipom "algo salió mal", y altibajos en dispositivos Alexa. Aunque la mitigación de DNS llegó al mediodía, la recuperación plena tardó algo más por el volume de solicitudes pendientes.
Expertos, responsabilidades y resiliencia
¿De quién es la culpa cuando falla la nube? La respuesta es matizada. Parte recae en el proveedor cuando el origen es interno, pero los expertos recuerdan que los clientes deben diseñar sus system para tolerar fallos: utilizar redundancias, desplegar en varias zonas y regiones, y tener planes de continuidad y copias de seguridad para servicios críticos.
Glasovi kao profesor Ken Birman (Universidad de Cornell) subrayan que muchas compañías no incorporan suficientes salvaguardas en sus aplicaciones. También se destaca el papel de la diversidad tecnológica: la resiliencia mejora cuando no se depende en exclusiva de un único proveedor, aunque a la escala que maneja AWS las alternativas reales se reducira a un puñado (Azure y Google Cloud, principalmente).
Desde el ángulo jurídico y de negocio, la búsqueda de responsabilidades puede acabar en los tribunales. Tras otra gran interrupción en el pasado, una gran aerolínea estadounidense reclamó más de 500 millones de dólares por pérdidas derivadas. La complejidad de estas infraestructuras hace que aislar la causa raíz y cuantificar daños sea una tarea difícil y prolongada.
Analistas y académicos consultados se podudaraju: la interdependencia es enorme y los “pequeños” errores humanos o de configuración pueden tener un impacto sistémico. Desarrollar resiliencia, garantizar diversidad y practicar planes de contingencia no es opcional para mantener la confianza y la continuidad de negocio.
España: cronologia, impacto local y aclaraciones
Poluostrvo po satu, la detección del fallo se situó alrededor de las 9:00. AWS informacije o autentifikaciji kašnjenja i greškama i uslugama na estados Unidos que utjecaja na globalne klijente, apoyándose i “múltiples alternativas en paralelo” za ubrzavanje recuperacióna.
Prolazite u skladu sa satima, el volumen de incidencias notificadas fue bajando casi a la mitad y, en torno a cuatro horas después de los primeros avisos, la compañía dio por mitigado el problem de DNS. Aun así, muchas plataformas siguieron recuperándose de manera escalonada por la carga acumulada.
Mientras tanto, en el debato public se attribuyeron a AWS algunas caídas que no tenían relación. Fue el caso de los pagos con tarjeta en la red Redsys, que aclaró que su incidente fue un problema puntual y parcial de su propia infraestructura de comunicaciones, sin vínculo con la avería de Amazon.
El balance final deja una lección clara: aunque un evento esté acotado geográficamente, su impacto puede ser global si afecta a servicios troncales ya una region tan relevantno kao US-EAST-1. Para el usuario final, se traduce en apps que no abren, pagos que no pasan y webs que no cargan.
Qué es AWS y por qué un fallo se nota tanto
Amazon Web Services es la division de nube de Amazon, un vasto entramado de centros de datos y servicios administrados que las empresas alquilan en vez de construir por su cuenta. En su catálogo conviven S3, EC2, SQS, RDS, DynamoDB, IAM, CloudFormation, AWS CDK, Route 53, CloudFront, Lambda, VPC, CloudWatch i Glacier, između mnogih drugih.
Este modelo permite a compañías grandes y pequeñas lanzar productos globales con menos inversión inicial, delegando en AWS la compra de hardver, la conectividad, la replicación entre regiones y la operación 24/7. La contrapartida es la exposición a dijeljeni incidenti: cuando algo crítico falla en el proveedor, lo sufren miles de clientes a la vez.
Es tan común trabajar con estas herramientas que abundan sitios dedicados a noticias, artículos y utilidades sobre AWS, cubriendo desde buenas prácticas de seguridad hasta despliegues con CDK o la configuración avanzada de Route 53. Algunas de estas comunidades distinguen a sus članovi (miembros), reforzando el intercambio de conocimiento entre profesionales.
Preguntas rápidas para detectar el alcance cuando “todo falla”
Si notas que varias apps distintas and errores similares a la vez, piensa en una incidencia de plataforma. Comprueba AWS Health y el estado oficial y compara con un rastreador comunitario para ver si hay picos de reportes. Si usas servicios en US-EAST-1, pon el foco ahí.
Cuando el panel oficial confirme mitigación, recuerda que la recuperación no es instantánea: los backlogs tardan en vaciarse, los DNS necesitan propagarse y las nuevas instancias pueden devolver errores un rato hasta que todo se estabilice.
Si eres responsable técnico, pon en tu plan de continuidad una lista clara de dependencias y conmutaciones. Replicar datos y servicios críticos en varias zones ili regiones y dokumentarni “runbooks” ahorra sustos cuando el reloj corre en tu contra.
Tampoco descartes problemas locales tuyos. Un fallo de red del ISP, una mala configuración de DNS ili despliegue reciente en tu propia aplicación pueden tener síntomas parecidos a una caída global. La confirmación cruzada evita Zaključci precipitadas.
Por último, si necesitas compartir un incidente concreto con tu equipo, aprovecha la función de enlace profundo: Septembra 2023, odabrao sam javni događaj AWS Health, la URL del navegador ya incorpora el enlace directory i al abrirlo verás la list con la ventana emergente de ese evento. Más fácil para poner a todos en la misma página.
Lo que dicen los números y las voces del sector
En el pico de la interrupción, Downdetector superó los 6,5 miliona denuncias globalni nivo y señaló a más de 1.000 empresas afectadas en distintas franjas horarias. Aunque no es una fuente oficial, da una idea del ruido que provoca un evento de este calibre.
Expertos consultados insisten en que, aunque el problema de base se solucione, persisten “errores significativos” de recuperación en algunos servicios mientras el sistem digiere el atasco. La analogía del apagón es acertada: la luz puede volver, pero el restablecimiento integral lleva tiempo.
También se han planteado interrogantes sobre la responsabilidad compartida. Algunos señalan que muchas empresas confían demasiado en un único proveedor sin desplegar protecciones suficientes. Otras replican que, a la escala de AWS, la diversificación total es complicada. Entre ambas posiciones, la clave es elevar la madurez operativa y la arquitectura de resiliencia.
Na pravnom planu, no es descabellado que aparezcan reclamaciones por pérdidas cuando una gran parte de la actividad se ve frenada. Pero atribuir la causa precisa y su impacto económico raramente es simple, porque los sistemas están altamente integrados y la cadena de efectos no siempre es lineal.
Como comunidad técnica y de negocio, la conclusión operativa es inequívoca: hay que diseñar para el fallo. La pregunta no es si volverá a ocurrir algo, sino cuándo y con qué impacto. Prepararse marca la diferencia entre un susto y una Crisis seria.
El episodio deja claro que comprobar si AWS está caído exige mirar fuentes oficiales y cruzar señales, entender que un fallo de DNS en una región crítica kao US-EAST-1 puede sacudir medio internet, y aceptar que la recuperación conlleva colas, límites temporales y ajustes progresivos. La nube de Amazon sostiene buena parte de la red global, y aunque la la arquitectura de internet resiste y se recupera, su interdependencia implica que los pequeños desajustes pueden tener efectos enormes. Conviene tenerlo presente y, sobre todo, prepararse en serio para el próximo sobresalto.