Noticias del viernes 6 de marzo de 2026

Si buscas las noticias del día anterior, puedes encontrarlas aquí. O si lo que buscas son las noticias del día siguiente, haz clic aquí.

Microsoft Build 2026 regresa a San Francisco

Microsoft confirma que la edición 2026 de Build se celebrará el 2 y 3 de junio en el Fort Mason Center, regresando la conferencia a San Francisco tras varios años en Seattle y Washington. El cambio de fecha apunta a un formato más íntimo y orientado a desarrolladores con “real code, real systems, real workflows.” La capacidad del evento se limitó a 2.500 asistentes para favorecer el contacto entre equipos de producto y la comunidad y reducir el ruido de grandes anuncios. La agenda combinará keynotes (incluyendo a Satya Nadella), talleres prácticos y áreas dedicadas a IA, Azure y GitHub. Aunque habrá streaming, la idea es que los asistentes vivan sesiones más técnicas y centradas en la experiencia real de desarrollo. Build 2026 quiere recuperar su esencia developer-first sin perder el pulso innovador del ecosistema Microsoft. Fuente: Fuente (theverge.com)

GopherCon 2026 cierra convocatorias y celebra comunidad Go

La página oficial de GopherCon recuerda que la convocatoria de ponencias para la edición estadounidense cerró el 4 de marzo, manteniendo el foco en una comunidad Go inclusiva y colaborativa. El evento, que se organiza desde Denver, sigue apostando por un programa variado que abarca Go core, infraestructura, seguridad y debates de futuro. Se incentiva la participación de voces diversas con entradas especiales para estudiantes, organizaciones sin ánimo de lucro y profesionales que construyen para empresas emergentes. La organización mantiene la filosofía de “Go como comunidad” con talleres prácticos, espacios para networking y un fuerte componente de soporte mutuo entre asistentes. GopherCon 2026 promete seguir siendo la cita de referencia para quienes producen servicios Go escalables y responsables. Fuente: Fuente (gophercon.com)

GPT-5.4 llega con Thinking y Pro para trabajo profesional

OpenAI anunció GPT-5.4 como su modelo de frontera más capaz, disponible en variantes estándar, Thinking y Pro para cubrir desde flujos de trabajo conversacionales profundos hasta cargas de alto rendimiento. La API ofrece ventanas de contexto de hasta 1 millón de tokens además de una nueva capa de Tool Search que carga definiciones de herramientas solo cuando se necesitan, reduciendo latencia y costo en entornos agenticos. El modelo mejora la eficiencia de tokens y registra fortalezas en benchmarks como OSWorld-Verified, WebArena Verified y Mercor’s APEX-Agents, donde supera a competidores en tareas legales y financieras. GPT-5.4 también reduce un 33 % los errores factuales frente a GPT-5.2 y disminuye la probabilidad de alucinaciones complejas. La nueva evaluación de cadena de pensamiento revela menores tendencias a ocultar razonamientos, lo que refuerza los controles de seguridad. Fuente: Fuente (techcrunch.com)

Phi-4-Reasoning-Vision-15B aterriza en Microsoft Foundry

Microsoft lanzó Phi-4-Reasoning-Vision-15B en Foundry y Hugging Face como modelo multimodal open-weight de 15.000 millones de parámetros que equilibra percepción de alta resolución y razonamiento selectivo. El modelo adapta dinámicamente entre modos de pensamiento profundo para problemas complejos y modos de respuesta directa para tareas simples, aprovechando un encoder visual SigLIP-2 y un diseño de fusión media. La publicación destaca que Phi-4-Reasoning-Vision-15B permite análisis de diagramas, interfaces gráficas y tareas científicas con menos datos de entrenamiento que modelos más grandes. Microsoft comparte el peso, el código y los logs de evaluación para que la comunidad estudie cómo entrenar modelos multimodales compactos. La disponibilidad demuestra que modelado eficiente puede competir en razonamiento sin consumir la misma cantidad de tokens ni potencia. Fuente: Fuente (techcommunity.microsoft.com)

Microsoft Sentinel introduce generación de playbooks en lenguaje natural

La actualización de marzo de Microsoft Sentinel trae un generador de playbooks capaz de traducir peticiones en lenguaje natural a flujos SOAR listos para ejecutarse, lo que acelera la automatización de respuestas desde la ventana de mando del SOC. También se añade soporte para ingestión en tiempo real mediante CCF Push y un nuevo conector dedicado para visibilidad de clusters GKE, ampliando la cobertura en nubes híbridas. La nota recuerda que la mejora coincide con la preparación de Microsoft para su presencia en RSAC 2026 y que la idea es reducir fricción al incorporar nuevas fuentes de datos y orquestar acciones. Estas funciones buscan que los equipos de seguridad construyan gobernanza sobre agentes e infraestructuras sin necesidad de escribir playbooks desde cero. Adicionalmente, se publicaron recursos para impulsar la adopción del dashboard de seguridad y acelerar escenarios de threat hunting. Fuente: Fuente (techcommunity.microsoft.com)

Microsoft reescribe varios términos de producto para Azure Arc y Entra

La actualización de marzo de Product Terms redefine los requisitos de licencias para Windows Server pay-as-you-go vía Azure Arc, eliminando la necesidad de una licencia previa y clarificando el consumo por suscripción. Windows 10 ESU Cloud Managed ya no exige ediciones Enterprise/Education ni planes Entra P1/P2, lo que simplifica la extensión de parches de seguridad para organizaciones con dispositivos legacy. Microsoft también renombró Microsoft Entra ID Governance for External Identities a Governance for Guests, buscando alinearlo con escenarios de cooperación con terceros. Estas modificaciones entraron en vigor el 1 de marzo y se acompañan de documentación para partners que gestionan servicios híbridos y soluciones cloud. El ajuste mejora la flexibilidad para partners y clientes que despliegan Arc o gobiernan identidades invitadas en entornos distribuidos. Fuente: Fuente (samexpert.com)

CVS Health y Google Cloud lanzan la plataforma Health100

CVS Health y Google Cloud presentaron Health100, una plataforma de consumo sanitaria nativa de IA que se apoyará en los servicios de Google Cloud para personalizar experiencias y ofrecer un punto de encuentro entre farmacias, aseguradores y proveedores. Health100 combina datos de múltiples orígenes (farmacias MinuteClinic, PBMs, proveedores y aseguradoras) para predecir riesgos, coordinar cuidados y facilitar recomendaciones proactivas con sistemas generativos. El entorno aprovechará capacidades de AI de Google Cloud (Lambda, Vertex AI, Gemini) y generará insights contextualizados en tiempo real, incluidos chatbots asistidos con verificación de hechos y registros federados. Asimismo, se construye sobre el ecosistema de Google Cloud para garantizar elasticidad, cumplimiento HIPAA y escalado de agentes de IA que conecten todos los canales de experiencia. El lanzamiento deja claro que CVS quiere posicionarse como hub tecnológico que abra la puerta a servicios de salud personalizados en la nube. Fuente: Fuente (cvshealth.com)

Rakuten Cloud y Google Distributed Cloud Connected Server se integran

En el MWC 2026 Rakuten Symphony y Google Cloud anunciaron que Rakuten Cloud-Native Storage ahora forma parte estándar de los Google Distributed Cloud Connected Servers. La integración ofrece pilas validadas con almacenamiento definido por software preconfigurado, operaciones coordinadas y soporte conjunto para reducir la complejidad de cada despliegue edge. Clientes pueden comprar el stack completo (compute más almacenamiento) bajo un mismo contrato y recibir soporte de Google Cloud, manteniendo los niveles de resiliencia exigidos por sectores regulados. El acuerdo refuerza la estrategia de Google Cloud de facilitar procurement y acelerar implementaciones distribuidas con componentes preprobados. Para entornos que requieren data locality, la oferta busca eliminar la fase de diseño conjunto y minimizar los ciclos de validación. Fuente: Fuente (storagenewsletter.com)

La gran migración de AI hacia Kubernetes entra en el debate

El blog de la CNCF destaca cómo el auge de plataformas AI está empujando a organizaciones a considerar múltiples clusters como un único pool gestionado, con soluciones como Armada que balancean cargas, gestionan colas globales y permiten schedulers tipo gang. La comunidad propone ahora un concepto de “AI conformance” para asegurar que los clusters Kubernetes puedan ejecutar workloads de IA de forma consistente y portable, mientras se estandarizan métricas de tokens/segundo/dólar. La necesidad de observabilidad se amplía para rastrear cadenas de pensamiento, llamadas a herramientas y rutas de prompts, y se revisan los planos de control para evitar que etcd sea un cuello de botella en despliegues de decenas de miles de nodos. La publicación también señala nuevas operadoras y agentes que simplifican el despliegue y mantenimiento de flujos con GPUs, redes y datos dispares. En general, la CNCF ve a Kubernetes como substrate de referencia para AI, no solo un orquestador de contenedores. Fuente: Fuente (cncf.io)

Fibocom y du muestran NAS inteligente AI en MWC 2026

Fibocom y du revelaron su ALL-IN-ONE AI CPE, una unidad que integra FWA 5G, AI NAS inteligente, interacción por voz y sensores ambientales para convertir el almacenamiento doméstico en un asistente activo. El dispositivo aprovecha el motor AI SkyEngine de Fibocom para gestionar perfiles familiares, priorizar tráfico 5G y ejecutar tareas de seguridad y automatización de hogar conectadas. También combina capacidades de análisis de datos, gestión de contenido personalizado y logging de eventos, para que el NAS no solo guarde archivos sino que proponga acciones (backups proactivas, detección de anomalías en red, recomendaciones de energía). Gracias a la integración con el sistema del operador, se comercializa como una solución lista para instalar y mantener, con soporte de updates remotos y control centralizado. El anuncio ejemplifica cómo el homelab interoperable con 5G y AI puede emerger del segmento CPE. Fuente: Fuente (prnewswire.com)

IREN adelanta sus GPU para escalar su AI Cloud a 150.000 unidades

IREN acordó la compra de más de 50.000 GPUs NVIDIA B300 para ampliar su flota a 150.000 unidades y alcanzar una capacidad anual proyectada de 3.700 millones de dólares a finales de 2026. El despliegue se realizará en fases durante la segunda mitad del año en sus centros de datos de British Columbia y Texas, todos con arquitecturas air-cooled listas para alta densidad de IA. La compra anticipada permite a la plataforma AI Cloud garantizar disponibilidad y reducir el tiempo de espera en contratos en curso, además de mitigar cuellos de botella de suministro. IREN combina financiamiento, leasing y prepagos de clientes para acelerar la llegada de las máquinas e incrementar su capacidad de inferencia y entrenamiento. Fuente: Fuente (pr.comtex.com)

AxonDAO y ICC despliegan infraestructura GPU con NVIDIA Blackwell

AxonDAO, en colaboración con ICC, desplegó el nuevo entorno “Science Discovery” basado en nodos NVIDIA Blackwell B200 y RTX PRO 6000, dual Intel Xeon 6952P y memoria DDR5 ECC de terabytes, apuntando a workloads de ciencia descentralizada y salud. El clúster cumple con los requisitos de NVIDIA Certified Systems y ofrece red 400 Gb/s para entrenar modelos exigentes, mientras que AxonOS gestiona cuotas de acceso y tokenización vía $AXGT. La plataforma combina inferencia y gráficos profesionales para acelerar investigación, análisis y simulaciones complejas, y permite que colaboradores sujeten sus datos a políticas de gobernanza antes de participar. Fuente: Fuente (pr.comtex.com)

← día anterior día siguiente →