Si buscas las noticias del día anterior, puedes encontrarlas aquí. O si lo que buscas son las noticias del día siguiente, haz clic aquí.
OpenAI ha publicado una actualización pública sobre la relación contractual con Microsoft que aclara y modifica términos clave de la asociación. El comunicado señala que Microsoft seguirá siendo el “primary cloud partner” de OpenAI, pero la licencia de propiedad intelectual que Microsoft mantiene será no exclusiva y se extiende con condiciones hasta 2032. La nueva redacción permite a OpenAI ofrecer sus productos en otros proveedores de nube cuando Microsoft no pueda o no elija hacerlo, y simplifica ciertos aspectos financieros y operativos entre ambas compañías. El anuncio representa un cambio importante en el panorama de proveedores cloud para la distribución de modelos de frontier AI.
Fuente
Amazon Web Services anunció en su blog que, en vista de la revisión del acuerdo entre OpenAI y Microsoft, Bedrock ofrecerá en vista limitada los últimos modelos de OpenAI, la herramienta de codificación Codex y una nueva oferta llamada Amazon Bedrock Managed Agents. Estas incorporaciones permiten a clientes de AWS acceder a modelos y agentes de OpenAI dentro de las mismas capacidades de gobernanza, IAM y auditoría que ofrece Bedrock, y alinean el despliegue de agentes con controles empresariales ya existentes. AWS destaca que las integraciones se ofrecerán en preview limitado y que la ejecución y el logging se realizan dentro de la infraestructura de Bedrock.
Fuente
Microsoft publicó detalles sobre una nueva actualización de Azure Local (versión 2604) que amplía la plataforma para soportar despliegues soberanos de mayor tamaño, incluyendo arquitecturas disgregadas y mayor integración con ecosistemas de almacenamiento. La nota describe la capacidad de escalar desde nodos aislados en el edge hasta implementaciones multinodo y multi‑rack en entornos regulados, soporte para cargas de IA con aceleradores GPU en infraestructuras controladas por el cliente y mejoras en la gestión de identidad y políticas para escenarios de soberanía. Microsoft pone de ejemplo despliegues en telecom y registros públicos como casos de uso.
Fuente
Google publicó un resumen oficial de los anuncios presentados en Cloud Next ‘26, donde se consolidó el mensaje de “agentic enterprise”: la plataforma Gemini Enterprise Agent Platform, nuevas TPUs de octava generación (TPU 8t y 8i) y arquitectura de red/almacenamiento para cargas de agentes a gran escala. El resumen oficial detalla además capacidades de gestión, gobernanza y despliegue para agentes, y subraya la prioridad de Google en infraestructura optimizada para entrenamiento e inferencia con nuevas familias de hardware y soluciones de almacenamiento de alto rendimiento. Este compendio actúa como guía para equipos que diseñan soluciones de RAG y agentes a producción.
Fuente
Samsung SDS anunció una ampliación de su alianza con Google Cloud enfocada en la entrega de soluciones agenticas empresariales y en mercados regulados, aprovechando Gemini Enterprise como plataforma central. El comunicado destaca la intención de ofrecer soluciones con enfoque en seguridad y cumplimiento para sectores como finanzas y administración pública, usando Google Distributed Cloud y capacidades de orquestación de agentes. La nota refleja la tendencia de integrar plataformas de agentes con socios locales para acelerar adopción en entornos con requisitos de soberanía y cumplimiento.
Fuente
Broadcom informó de una expansión de colaboración con Google Cloud para ofrecer Cloud Network Insights, una solución que combina la telemetría y observabilidad de red de Broadcom (AppNeta) con la infraestructura de Google Cloud. La asociación fue presentada en el marco de Cloud Next y pretende dar visibilidad end‑to‑end del rendimiento de red para aplicaciones distribuidas y entornos multicloud, facilitando diagnóstico y optimización de experiencia de usuario en aplicaciones críticas.
Fuente
Microsoft anunció la llegada de “Expense Agent” en Dynamics 365 Business Central, un agente impulsado por IA diseñado para simplificar la captura, presentación y gestión de gastos de empleados. La funcionalidad promete automatizar tareas comunes del flujo de gastos manteniendo controles de cumplimiento y auditoría necesarios en entornos empresariales. Microsoft posiciona este lanzamiento como parte de su estrategia para introducir agentes prácticos en procesos de negocio repetitivos, reduciendo fricción administrativa.
Fuente
Un reporte del ecosistema RISC‑V describe cómo paquetes comunitarios y pipelines automatizados han permitido la disponibilidad de Docker Engine, CLI, Compose y Buildx para RISC‑V64 en un corto espacio de tiempo. El artículo destaca el trabajo comunitario para compilar nativamente en hardware RISC‑V y entregar paridad funcional con otras arquitecturas, lo que facilita despliegues containerizados en plataformas emergentes y en dispositivos enfocados a edge y homelab basados en RISC‑V.
Fuente
Varios medios han recogido rumores de la industria que sitúan a la futura arquitectura GPU “Fenyman” de NVIDIA utilizando componentes producidos en foundries de Intel para ciertas partes del diseño (por ejemplo I/O die), mientras que el die principal seguiría siendo fabricado por TSMC. La información, atribuida a cadenas de suministro y reportes sectoriales, sugiere una mayor cooperación en empaquetado avanzado y procesos entre proveedores de semiconductores de cara a próximas generaciones de GPUs para IA. Son rumores no confirmados oficialmente por NVIDIA ni Intel.
Fuente
En entrevistas y reportes recientes se recogen declaraciones de ejecutivos de NVIDIA indicando que la asignación comercial de GPUs se gestiona por orden de llegada (first‑come, first‑served) y no por subasta al mejor postor. La nota busca aclarar mecanismos de distribución ante alta demanda de hardware para IA y responde a preocupaciones sobre favoritismos en asignación a grandes compradores. Algunas publicaciones del sector recogen la explicación y contextualizan estrategias de NVIDIA frente a demanda sostenida.
Fuente
En los foros de usuarios de Roon se ha intensificado la discusión tras cambios en los requisitos mínimos del nuevo Roon Server que afectan a determinados dispositivos QNAP/QTS. Usuarios reportan incompatibilidades en versiones de QTS y hablan de la necesidad de migrar a contenedores Docker o a hardware más moderno para mantener la funcionalidad. La conversación está activa en la comunidad y refleja tensiones habituales entre software que sube requisitos y plataformas NAS con ciclos de actualización de bibliotecas del sistema más lentos.
Fuente