Si buscas las noticias del día anterior, puedes encontrarlas aquí. O si lo que buscas son las noticias del día siguiente, haz clic aquí.
Durante la keynote de GTC, la discusión pública alrededor de la venta de chips H200 a China se aceleró: varias crónicas de la conferencia recogen declaraciones de la dirección sobre la reanudación de pedidos y la preparación para reiniciar envíos de H200 a clientes chinos tras aprobaciones regulatorias parciales. El movimiento es relevante para el mercado de aceleradores de IA porque abre ventas adicionales de la generación Hopper/H200 hacia importantes hyperscalers y grandes empresas chinas, aunque las restricciones sobre chips más avanzados (Blackwell) seguirían vigentes en varios mercados. Fuente: MarketWatch — Nvidia dice que ahora recibe pedidos desde China (resumen GTC). (marketwatch.com)
NVIDIA presentó en GTC una iniciativa de colaboración (Nemotron Coalition) que reúne a varias organizaciones del ecosistema AI para co‑desarrollar modelos abiertos y familias de modelos Nemotron orientadas a tareas agente‑centric, robótica y descubrimiento farmacéutico. El anuncio enfatiza la disponibilidad de nuevos modelos abiertos y herramientas de orquestación para agentes, así como la intención de publicar artefactos (modelos, runtimes) en plataformas públicas y marketplaces. Esta propuesta busca acelerar modelos de frontera y facilitar despliegues tanto en cloud como en infra local especializada. Fuente: [Tom’s Hardware — resumen del anuncio Nemotron en GTC].(https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidias-nemoclaw-coalition-brings-eight-ai-labs-together-to-build-open-frontier-models). (tomshardware.com)
En comunicaciones relacionadas con GTC, NVIDIA y socios destacaron la oferta de instancias y sistemas H100 (y DGX H100) para proveedores cloud: hay anuncios de disponibilidad y previews privadas en grandes nubes para soportar entrenamiento e inferencia a gran escala con H100, y se mencionaron integraciones con marketplaces y appliances empresariales para facilitar acceso a infra acelerada. Estas actualizaciones son relevantes para equipos de desarrollo y operaciones que buscan instancias de entrenamiento/inferencia de alto rendimiento y planes de migración a infra gestionada. Fuente: [NVIDIA press kit / comunicado sobre H100 y DGX H100 en proveedores cloud].(https://nvidianews.nvidia.com/_gallery/download_pdf/6419da80a1383574082631d8/). (nvidianews.nvidia.com)
Anthropic mantiene una promoción vigente (vigencia limitada) que duplica ciertas cuotas de uso durante horas fuera de pico para planes Free, Pro, Max y Team; la medida pretende aliviar carga en horas no pico y ofrecer más capacidad para tareas largas (por ejemplo Claude Code o sesiones de desarrollo) hasta el 27 de marzo. La promoción especifica ventanas horarias y condiciones por plan; varios usuarios han reportado comportamientos mixtos en cuanto a contabilización de uso semanal, por lo que conviene revisar el FAQ y el panel de uso del servicio antes de confiar en la regla del 2x para cargas críticas. Fuente: [Soporte Anthropic — Claude March 2026 usage promotion].(https://support.claude.com/en/articles/14063676-claude-march-2026-usage-promotion). (reddit.com)
Parte de los anuncios de NVIDIA en GTC incluyen stacks y runtimes (por ejemplo NemoClaw / OpenShell en la cobertura) orientados a desplegar agentes y modelos Nemotron en infra heterogénea: la nota pública indica compatibilidad con infra desde servidores DGX hasta GPUs GeForce RTX y estaciones de trabajo RTX PRO, lo que abre la puerta a ejecutar componentes de agentes o inferencia local en setups de homelab con GPUs modernas. Para aficionados y administradores de homelab esto significa opciones formales para experimentar con agentes privados y despliegues híbridos (local + cloud) aprovechando aceleración en PCs y mini‑workstations. Fuente: [Tom’s Hardware — resumen Nemotron / NemoClaw y despliegues].(https://www.tomshardware.com/tech-industry/artificial-intelligence/nvidias-nemoclaw-coalition-brings-eight-ai-labs-together-to-build-open-frontier-models). (tomshardware.com)
En los últimos días se han documentado lanzamientos y cambios en la familia de modelos de Mistral (incluyendo versiones de moderación y variantes optimizadas para instrucciones y contextos largos). Las piezas públicas mencionan nuevas versiones de modelos de moderación y herramientas que facilitan integraciones (moderación inline, nuevas clases de riesgo), lo que es relevante para equipos que construyen pipelines RAG/agentic y necesitan controles de seguridad y guardrails antes de producción. Recomendable revisar la documentación oficial de Mistral y notas de versión para detalles de compatibilidad y licencias antes de adoptar. Fuente (resumen comunitario y publicaciones de seguimiento): [hilo público sobre Mistral Moderation 2 y actualizaciones].(https://www.reddit.com/r/MistralAI/comments/1rwcd8m/new_model_mistral_moderation_2/). (reddit.com)