Back to Blog
awscloudserverlessblog

AWS re:Invent 2025: ¡La computación sin servidor y el almacenamiento reciben una renovación impulsada por la IA!

DataFormatHub profundiza en los anuncios más impactantes de AWS re:Invent 2025 relacionados con Lambda y S3, revelando un futuro donde la computación sin servidor es más duradera, el almacenamiento es más inteligente y la IA reina suprema.

DataFormatHub Team
December 17, 20259 min read
Share:
AWS re:Invent 2025: ¡La computación sin servidor y el almacenamiento reciben una renovación impulsada por la IA!

Bueno, amigos, otro AWS re:Invent ha llegado y se ha ido, ¡y déjenme decirles que fue un torbellino absoluto de innovación! Como periodista tecnológico apasionado de DataFormatHub, estoy emocionado con los últimos desarrollos, especialmente aquellos que están sacudiendo los mundos de AWS Lambda y Amazon S3. Si pensaba que la computación sin servidor estaba madura o que el almacenamiento de objetos era 'solo almacenamiento', piénselo de nuevo. AWS está superando los límites en 2025, haciendo que nuestras vidas como desarrolladores y administradores de datos sean increíblemente más eficientes y, me atrevo a decir, ¡divertidas! Aquí está mi opinión sobre los anuncios revolucionarios que hemos visto este año.

Una Nueva Era para los Flujos de Trabajo sin Servidor y el Almacenamiento Inteligente

Vamos al grano: los titulares de re:Invent 2025 son nada menos que transformadores para cualquiera que esté construyendo en AWS. Dos servicios, en particular, recibieron mucho cariño que alterará fundamentalmente la forma en que abordamos la arquitectura de aplicaciones y la gestión de datos: AWS Lambda y Amazon S3.

Para Lambda, la noticia más importante, y francamente, un verdadero cambio de juego, es la introducción de Lambda Durable Functions. Esto no es solo un ajuste; ¡es un cambio monumental! Tradicionalmente, Lambda ha sido una superestrella para tareas de corta duración y basadas en eventos. Pero, ¿qué pasa con esos molestos flujos de trabajo de varios pasos que necesitan pausarse, esperar la entrada externa o recuperarse con elegancia de los fallos? Anteriormente, probablemente recurriría a AWS Step Functions o implementaría su propia gestión de estado compleja. ¡Ya no! Durable Functions permite que sus funciones Lambda marquen su progreso, suspendan la ejecución durante hasta un año y se recuperen automáticamente de los fallos, todo sin que tenga que gestionar ni una pizca de infraestructura adicional o escribir lógica de estado personalizada. Esto es enorme para el procesamiento de pedidos, la incorporación de usuarios y especialmente para esos intrincados flujos de trabajo asistidos por IA que a menudo implican la revisión humana o cálculos de larga duración. Actualmente está disponible para los entornos de ejecución de Python (3.13 y 3.14) y Node.js (22 y 24).

¡Pero espera, hay más para Lambda! También vimos la presentación de Lambda Managed Instances. Este movimiento brillante combina la simplicidad operativa que amamos de Lambda con la potencia y la rentabilidad de Amazon EC2. Imagine ejecutar sus funciones Lambda en una infraestructura dedicada respaldada por EC2, obtener acceso a hardware especializado como AWS Graviton4 o GPU y beneficiarse de los modelos de precios basados en compromisos de EC2 como Savings Plans y Reserved Instances, lo que podría ahorrarle hasta un 72% en costos para cargas de trabajo estables. ¿Lo mejor de todo? AWS gestiona toda la gestión de la infraestructura subyacente, el parcheo, el equilibrio de carga y el escalado automático. Incluso aborda los inicios en frío enrutando las solicitudes a entornos preprovisionados. Esto es un sueño hecho realidad para aplicaciones consistentes y de alto rendimiento donde los inicios en frío son inaceptables.

En el frente del almacenamiento, Amazon S3 ha consolidado su posición como la columna vertebral definitiva del data lake nativo de la IA. El titular aquí es la disponibilidad general de S3 Vectors. Este es un gran salto adelante, que lleva la búsqueda de vectores a gran escala directamente a S3. Estamos hablando de soporte para hasta 2 mil millones de vectores por índice con impresionantes latencias de consulta de 100 ms, todo mientras se reducen significativamente los costos: hasta un 90% en comparación con las bases de datos de vectores dedicadas. Para cualquiera que esté construyendo agentes de IA, sistemas de Generación Aumentada por Recuperación (RAG) o aplicaciones de búsqueda semántica, S3 Vectors, integrado a la perfección con Amazon Bedrock Knowledge Bases y Amazon OpenSearch Service, es un cambio de paradigma. Democratiza el almacenamiento y la consulta de vectores a escala.

S3 también recibió una gran cantidad de otras mejoras fantásticas: soporte para objetos de 50 TB para esos conjuntos de datos verdaderamente masivos; S3 Batch Operations 10 veces más rápidas con una nueva opción 'sin manifiesto', que le permite procesar miles de millones de objetos simplemente apuntando a un bucket o prefijo; y actualizaciones significativas a S3 Tables, que ahora incluyen Intelligent-Tiering automático para hasta un 80% de ahorro de costos según los patrones de acceso, y una replicación entre cuentas y Regiones simplificada. Oh, y no olvidemos los controles de acceso basados en etiquetas para S3, lo que hace que la gestión de la seguridad sea mucho más simple e intuitiva que lidiar con políticas de bucket complejas.

El Cambio de Panorama: La Nube Nativa de la IA Está Aquí

Estos anuncios no son solo características aisladas; representan una tendencia clara y convincente: la nube se está volviendo inherentemente nativa de la IA. AWS ya no solo proporciona los componentes básicos; están integrando capacidades de IA directamente en los servicios básicos que usamos todos los días. S3, una vez una simple tienda de objetos, ahora está evolucionando hacia un sustrato de datos sofisticado y consciente de la IA capaz de manejar índices de vectores a escala de petabytes y datos tabulares con una optimización de costos inteligente. Esto señala una convergencia donde el almacenamiento de datos, el procesamiento y la inferencia de la IA se están convirtiendo en un tejido interconectado y sin problemas.

La evolución de Lambda, particularmente con Durable Functions, reconoce la creciente complejidad de las aplicaciones modernas, especialmente aquellas impulsadas por la IA. Muchos flujos de trabajo de IA no son instantáneos; requieren orquestación, bucles de retroalimentación humana y procesos de larga duración. Al hacer que Lambda sea 'duradero', AWS permite a los desarrolladores aprovechar el modelo sin servidor para una clase completamente nueva de aplicaciones complejas y con estado sin sacrificar los beneficios de la computación gestionada. Es un reconocimiento pragmático de que no todas las tareas encajan en el modelo de función de corta duración tradicional, y AWS nos está dando las herramientas para expandir el servidor sin servidor a dominios más intrincados.

Profundizando en los Matices Técnicos

Vamos a ponernos un poco técnicos, ¿de acuerdo? Lambda Durable Functions son fascinantes. La capacidad de suspender la ejecución hasta por un año y mantener el estado es un diferenciador importante. Esto probablemente implica una máquina de estado interna robusta y una capa de persistencia que abstrae las complejidades de coordinar múltiples invocaciones de Lambda o mecanismos de almacenamiento externo como DynamoDB o SQS que los desarrolladores previamente tenían que unir. Esto compite directamente con, y en muchos casos más simples, simplifica lo que podría haber usado AWS Step Functions para, ofreciendo una experiencia de desarrollador Lambda más nativa para ciertos patrones de orquestación. Para los desarrolladores, esto significa menos código repetitivo, menos partes móviles que administrar y un modelo de programación más cohesivo para procesos complejos.

Lambda Managed Instances son igualmente convincentes. El mecanismo subyacente aquí suena como AWS que aprovisiona y gestiona un grupo de instancias EC2 (potencialmente incluyendo hardware especializado como Graviton4 o GPU) específicamente para sus funciones Lambda. Esto permite múltiples solicitudes concurrentes por entorno de ejecución, lo que puede mejorar drásticamente la utilización de los recursos y reducir el consumo de cómputo, especialmente para funciones con altas tasas de invocación y tráfico constante. Efectivamente, cierra la brecha entre la elasticidad del servidor sin servidor y la predictibilidad de los costos y el acceso al hardware especializado de las instancias aprovisionadas, ofreciendo un escenario de 'lo mejor de ambos mundos' que muchos usuarios empresariales han estado anhelando.

Para S3, S3 Vectors es un triunfo de la ingeniería de sistemas distribuidos. Construir una búsqueda de vectores de alto rendimiento directamente en un servicio de almacenamiento de objetos a esta escala no es una tarea fácil. Sugiere mecanismos de indexación y recuperación altamente optimizados distribuidos en la vasta infraestructura de S3, lo que convierte la búsqueda de vectores en una primitiva fundamental del almacenamiento de datos en lugar de una adición. El ahorro de costos es un gran incentivo, lo que hace que las capacidades avanzadas de la IA sean accesibles a una gama más amplia de organizaciones. De manera similar, las mejoras de S3 Tables, especialmente Intelligent-Tiering, son cruciales para la eficiencia del data lake. Al automatizar el movimiento de datos de la tabla Iceberg a clases de almacenamiento más baratas según los patrones de acceso, AWS está ofreciendo una optimización de costos del mundo real que puede ahorrar capital significativo con el tiempo. Y el control de acceso basado en etiquetas? Una gran victoria para simplificar la seguridad a escala, pasando de la complejidad a nivel de objeto a la claridad a nivel de recurso.

Lo Que Esto Significa Para Los Desarrolladores (¡Y Sus Flujos de Trabajo DataFormatHub!)

Bien, hablemos de lo concreto. ¿Cómo impactan estos anuncios en tu día a día como desarrollador, especialmente si estás inmerso en conversiones de formatos de datos y orquestación de pipelines?

Primero, Lambda Durable Functions abre un tesoro de nuevas posibilidades. Imagine un pipeline de transformación de datos complejo donde una función Lambda inicia un proceso externo de larga duración (como un trabajo de limpieza de datos a gran escala o un entrenamiento de modelo de IA), luego espera su finalización. En lugar de sondear o depender de un orquestador separado, la función Lambda simplemente se pausa y se reanuda cuando el evento externo la activa. Esto simplifica drásticamente la arquitectura de muchos pipelines de integración de datos e inferencia de IA que los usuarios de DataFormatHub enfrentan, haciendo que las aplicaciones sin servidor con estado y de larga duración sean una realidad. Puede decir adiós a muchos dolores de cabeza de gestión de estado manual.

Lambda Managed Instances son una bendición para la optimización de costos y el rendimiento constante. Si tiene esas tareas de procesamiento de datos de estado estable (piense en trabajos ETL nocturnos, validación continua de datos o backends de API siempre activos) que anteriormente se sentían un poco incómodos (o costosos) en Lambda estándar, estas instancias gestionadas proporcionan una alternativa convincente. Obtiene el modelo de programación Lambda que ama, pero con el perfil de rendimiento predecible y el costo de la computación dedicada, y sin la sobrecarga operativa de EC2. Esto podría cambiar las reglas del juego para mover más cargas de trabajo a un paradigma similar al servidor sin servidor.

Para S3, las implicaciones son profundas. S3 Vectors significa que si está construyendo cualquier tipo de enriquecimiento de datos, búsqueda o sistema de recomendación que se base en incrustaciones de vectores, S3 ahora es un ciudadano de primera clase para esos datos. Puede almacenar sus datos vectorizados directamente junto con sus datos sin procesar, realizando búsquedas semánticas sin necesidad de configurar y administrar una base de datos de vectores separada y costosa para cada caso de uso. Esto simplificará sus arquitecturas de datos y acelerará el desarrollo de funciones impulsadas por la IA dentro de sus aplicaciones. Si está ingiriendo y procesando varios formatos de datos, generando incrustaciones como parte de sus flujos de trabajo DataFormatHub, S3 Vectors será su nuevo mejor amigo.

Y las mejoras de S3 Tables? Son oro puro para los data lakes. El nivel automático reducirá significativamente sus facturas de almacenamiento para los datos a los que se accede con poca frecuencia sin requerir ninguna intervención manual. La replicación optimizada significa data lakes globales más robustos y distribuidos. Y el control de acceso basado en etiquetas facilitará mucho la gestión y auditoría de la seguridad de los datos confidenciales en sus vastos repositorios S3. Estas mejoras hacen de S3 una base aún más convincente para construir data lakehouses potentes y rentables que estén listos para análisis de última generación e IA.

El Veredicto: AWS Sigue Superando Los Límites

Mi opinión honesta? AWS realmente se ha superado en re:Invent 2025. Estos anuncios no son solo mejoras iterativas; representan movimientos estratégicos para simplificar patrones complejos e integrar capacidades de vanguardia directamente en los servicios básicos. Los temas son claros: la IA se está volviendo omnipresente, el servidor sin servidor está madurando para manejar cargas de trabajo más sofisticadas y el almacenamiento se está volviendo más inteligente y rentable.

Estoy particularmente entusiasmado con Lambda Durable Functions porque aborda un desafío de larga data en el desarrollo sin servidor, expandiendo efectivamente la utilidad de Lambda a flujos de trabajo previamente considerados demasiado complejos o con estado para el servicio. Permite a los desarrolladores aprovechar el modelo sin servidor para una clase completamente nueva de aplicaciones complejas y escalables con una sobrecarga operativa mínima. Junto con Lambda Managed Instances, AWS nos brinda una flexibilidad sin precedentes para optimizar el rendimiento y el costo para cualquier tipo de carga de trabajo sin servidor.

Y S3 Vectors? Eso es pura genialidad. Hacer que la búsqueda de vectores sea una capacidad nativa de S3 es una genialidad que acelerará la adopción de la IA y simplificará las arquitecturas de datos en general. Las mejoras en S3 Tables consolidan aún más el papel de S3 como la solución líder de data lake, haciéndola aún más robusta, inteligente y rentable.

Estos desarrollos significan que como desarrolladores, podemos concentrarnos aún más en escribir código innovador y menos en lidiar con la infraestructura. AWS está abstrayendo más complejidad, proporcionando primitivas nuevas y potentes y cambiando fundamentalmente lo que es posible con su nube. Si no ha revisado su arquitectura recientemente, ahora es absolutamente el momento. El futuro del desarrollo en la nube, fuertemente influenciado por la IA, está aquí en 2025, ¡y se ve increíblemente emocionante!


Fuentes


🛠️ Herramientas Relacionadas

Explore estas herramientas de DataFormatHub relacionadas con este tema:


📚 También Podría Gustarle