Noticias del sábado 14 de marzo de 2026

Si buscas las noticias de ayer, puedes encontrarlas aquí.

Fireworks AI llega a Microsoft Foundry (Azure)

Microsoft anuncia la integración de “Fireworks AI” en Microsoft Foundry para ofrecer inferencia de modelos abiertos con alta performance y baja latencia en Azure. La iniciativa está orientada a clientes empresariales que buscan ejecutar modelos abiertos en infraestructuras administradas, con énfasis en control de costos, latencia y compatibilidad con cargas de trabajo a escala. La entrada detalla escenarios de uso para ingeniería, análisis y personalización de modelos, y subraya la intención de Azure de proveer opciones de inferencia optimizadas para modelos open (incluyendo capacidades para casos de uso empresariales). Fuente. (azure.microsoft.com)

Azure anuncia solución agentica para modernización a escala

Azure publica una propuesta de “agentic modernization” que combina agentes de IA con flujos de trabajo para acelerar migraciones y modernización de aplicaciones hacia la nube. El post explica una solución end‑to‑end que integra GitHub Copilot, Copilot for Azure y agentes especializados para tareas como descubrimiento de dependencias, planificación de modernización y acciones controladas en entornos de producción. Microsoft pone énfasis en gobernanza, seguridad y escalabilidad para equipos de TI grandes que necesitan automatizar pasos repetitivos sin perder control. Fuente. (azure.microsoft.com)

Argo Workflows publica parches críticos y versión 4.0.2

Se han publicado correcciones de seguridad críticas en Argo Workflows y se destaca la versión 4.0.2 (y 3.7.11) que corrige vulnerabilidades que permitían divulgación de WorkflowTemplates y bypass de las restricciones de seguridad mediante podSpecPatch. Las advertencias públicas y CVE asociados instan a los operadores a actualizar inmediatamente los controladores Argo para evitar filtración de plantillas y escalado de privilegios en clusters Kubernetes. Si gestionas Argo en producción, planifica la actualización y revisa configuraciones de templateReferencing y control de acceso. [Fuente (resumen y CVE/NVD)].(https://nvd.nist.gov/vuln/detail/CVE-2026-31892). (nvd.nist.gov)

.NET: novedades recientes en el blog oficial (.NET 11 Preview 2 y actualizaciones de marzo)

El blog oficial de .NET destaca las últimas entradas públicas del equipo: entre ellas la disponibilidad de previews (por ejemplo .NET 11 Preview 2) y actualizaciones de mantenimiento publicadas en marzo que incluyen correcciones y mejoras en runtime, SDK y ASP.NET Core. Las notas del blog recuerdan el calendario de soporte y las recomendaciones para equipos que planifiquen migraciones a versiones más recientes; se aconseja probar las previews en entornos de desarrollo antes de migrar producción. Fuente. (devblogs.microsoft.com)

Vulnerabilidades y parches en Go (varios CVE publicados)

Durante los últimos días se han publicado varios CVE que afectan a componentes del ecosistema Go (por ejemplo problemas en url.Parse, verificación de certificados y escapes en File.ReadDir/File.Readdir). Distintas distribuciones (incluyendo listados de Ubuntu) y repositorios de issues del proyecto Go documentan parches y CLs asociados; los mantenedores recomiendan actualizar las versiones empaquetadas de Go y aplicar backports en distribuciones que aún no hayan recibido parches. Los equipos que compilan software con Go deberían revisar avisos de seguridad y desplegar actualizaciones del runtime y herramientas. [Fuente (Ubuntu CVE index y referencias Go issues)].(https://ubuntu.com/security/CVE-2026-27142). (ubuntu.com)

Google Cloud / Vertex AI: avances en modelos y capacidad provisionada para empresas

En el ecosistema Google Cloud hay actividad en torno a Vertex AI: anuncios y notas técnicas recientes muestran mejoras en modelos (incluyendo variantes de Gemini y adaptaciones para cargas empresariales), soporte de “provisioned throughput” para modelos comerciales y funciones para reducir costes en cargas de RAG y procesamiento a gran escala (autonomía en generación de embeddings, caching de contexto y opciones de capacidad reservada). Las novedades están orientadas a facilitar despliegues de modelos a producción con garantías de latencia y gobernanza. Fuente (resumen técnico y notas de la comunidad / Google Cloud).. (medium.com)

TruffleSecurity detecta exposición de API keys que afecta a Gemini / Generative Language API

Investigadores de TruffleSecurity y colaboradores publicaron análisis que muestran que muchas API keys públicas (históricamente consideradas no sensibles) pueden autenticarse contra la Generative Language API (Gemini) si está habilitada en un proyecto, lo que provoca riesgo de abuso sin que los desarrolladores sean conscientes. El hallazgo subraya la necesidad de restringir claves, usar identity‑based auth (OAuth/Service Accounts) y revisar proyectos con APIs de LLM habilitadas. Equipos que usan Gemini/Generative Language API deben auditar claves expuestas y aplicar controles de restricción por origen/servicio. Fuente. (ppc.land)

Amazon amplía su asistente Health AI a web y app (producto de salud con AI)

Amazon ha empezado a ofrecer su asistente de salud (Health AI) en la web y en la app de Amazon, extendiendo capacidades que previamente estaban en el ecosistema de One Medical. Health AI puede explicar resultados, gestionar renovaciones de recetas y ayudar a conectar con profesionales; Amazon indica que las interacciones se ejecutan en entornos con cumplimiento HIPAA cuando se accede a datos médicos. El anuncio plantea consideraciones sobre privacidad y prácticas de entrenamiento de modelos para datos sanitarios, por lo que es relevante para equipos que integran AI en productos de salud. Fuente. (techcrunch.com)

Databricks y opciones de throughput provisionado / modelos en la nube empresarial

Notas de producto y release notes de plataformas gestionadas (por ejemplo Databricks) muestran progresos en soporte para throughput provisionado en APIs de Foundation Models, disponibilidad de modelos (incluyendo integraciones con Gemini/Vertex y hosting de modelos), y mejoras en SDKs para agentes. Esto facilita arquitecturas RAG y pipelines de ingestión a escala para empresas que buscan minimizar latencia y asegurar capacidad dedicada para inferencia. Operadores en la nube deberían vigilar las opciones de “provisioned throughput” y la compatibilidad con modelos de terceros. Fuente (release notes Databricks / resumen).. (docs.databricks.com)

Panorama para homelab: demanda de mini‑PCs y dispositivos para IA local sigue alta

Aunque no hubo anuncios de hardware masivo en las últimas 48 h específicas, la tendencia del mercado confirma fuerte interés en mini‑PCs y sistemas compactos capaces de manejar cargas de IA locales (APUs Ryzen/H‑series con GPUs integradas, mini‑PCs con GPUs discretas y opciones para expansión NVMe/PCIe para aceleradores). Para homelab y experimentación con RAG/LLMs en local, las recomendaciones prácticas siguen siendo: elegir placas o mini‑PCs con soporte para 64+GB RAM y buen ancho de PCIe para aceleradores, considerar soluciones de almacenamiento (NAS) con snapshot y replicación, y planificar UPS y refrigeración adecuada para cargas prolongadas de inferencia. (Lectura recomendada: guías de mini‑PCs y comparativas de 2026). Fuente (guía y análisis de mini‑PCs 2026).. (pcgamer.com)

← día anterior