Noticias del sábado 28 de marzo de 2026

Si buscas las noticias del día anterior, puedes encontrarlas aquí. O si lo que buscas son las noticias del día siguiente, haz clic aquí.

GitHub usará interacciones de Copilot para entrenar modelos (anuncio reciente)

GitHub ha comunicado un cambio en cómo se recopilarán datos para mejorar modelos: comenzará a usar interacciones de los usuarios con GitHub Copilot (entradas, salidas, fragmentos de código y contexto relacionado) para entrenar sus modelos. La medida aplica a usuarios en los planes Free, Pro y Pro+; las cuentas Business/Enterprise quedan excluidas. GitHub indica que ofrecerá controles de privacidad y opciones de exclusión, pero la decisión reaviva debates sobre privacidad de código y dependencia de datos de uso real para mejorar asistentes de programación. [Fuente: Windows Central — GitHub usará interacciones de Copilot para entrenar modelos]. (windowscentral.com)

Varios CVE y fallos en LangChain / LangGraph que afectan frameworks de agentes y RAG

Investigadores y comunidades han publicado avisos sobre vulnerabilidades en componentes de LangChain y LangGraph (incluyendo problemas de deserialización insegura de checkpoints y vectores de inyección en backends como Redis). Estas fallas pueden permitir desde exposición de ficheros y secretos hasta ejecución de código si un atacante consigue manipular puntos de persistencia o checkpoints. Los responsables de despliegues deben comprobar versiones afectadas, aplicar parches publicados y revisar permisos de acceso a stores (Redis, bases de datos) y a la red donde corren agentes. [Fuente: avisos comunitarios y PSAs sobre CVE en LangGraph/LangChain]. (reddit.com)

Vulnerabilidad RCE explotada en Langflow: parche y mitigaciones urgentes para self-hosted

Se ha divulgado una vulnerabilidad crítica en Langflow que permitió ejecución remota no autenticada en instancias públicas autoalojadas; explotaciones automáticas fueron reportadas pocas horas después de la divulgación. Si ejecutas Langflow en tu homelab o en una VM accesible desde Internet, actualiza a la versión parcheada inmediatamente o restringe el acceso de red (firewall, VPN) y audit logs para detectar compromisos. Revisar claves API expuestas y rotarlas es prioridad si tu instancia quedó accesible públicamente. [Fuente: reportes y posts de comunidad sobre CVE y explotación en Langflow]. (reddit.com)

Usuarios reportan inestabilidad y errores 429/503 en Vertex AI / Gemini (marzo 2026)

Durante las últimas 24–48 horas gestores de proyectos y desarrolladores han compartido en foros y comunidades incidencias repetidas con Vertex AI / Gemini: errores 429 (RESOURCE_EXHAUSTED), 503 y 504 en llamadas a endpoints y en AI Studio, así como comportamientos intermitentes en creación de sesiones y límites de cuota que parecen afectar a aplicaciones en producción. Los reportes apuntan a un impacto visible en agentes y pipelines RAG que dependen de sesiones estables; si usas Vertex/ Gemini, valida cuotas, formular solicitudes con backoff exponencial y considera rutas de contingencia (colas, degradado a modelos alternativos o instancias locales) hasta que Google publique un estado o resolución. [Fuente: hilos de comunidad y reportes de usuarios sobre Vertex AI/Gemini]. (reddit.com)

Parlamento Europeo vota retrasos y medidas en la AI Act; posible inclusión de veto a ‘nudify apps’

El Parlamento Europeo aprobó propuestas que retrasan la aplicación de varias obligaciones clave del AI Act para ciertos sistemas de alto riesgo (posponiendo cumplimiento hasta diciembre de 2027 para algunos ámbitos) y respaldó añadir una prohibición específica sobre apps que generan imágenes explícitas no consentidas (‘nudify apps’). Las modificaciones retrasan plazos para watermarking y otras obligaciones, y ahora deben negociarse con el Consejo Europeo antes de ser definitivas; esto crea un periodo de incertidumbre regulatoria para proveedores de modelos y plataformas en la UE. [Fuente: cobertura sobre la votación y medidas en el AI Act]. (theverge.com)

LlamaIndex: alerta por fallback silencioso a OpenAI en pipelines ‘100% local’ (riesgo para homelabs)

Miembros de la comunidad han detectado comportamientos en versiones de LlamaIndex donde, ante configuraciones incompletas, algunos componentes realizan un fallback silencioso a proveedores externos (por ejemplo OpenAI) sin avisar explícitamente. Esto puede filtrar prompts o fragmentos de datos supuestamente locales hacia APIs externas y supone un riesgo para quienes construyen soluciones “100% locales” en homelabs o entornos con requisitos de privacidad. Recomendación: auditar dependencias, validar configuraciones de LLM/embeddings en cada pipeline y hacer pruebas aisladas para confirmar que no hay llamadas externas no deseadas. [Fuente: hilo de la comunidad que documenta casos de fallback y análisis]. (reddit.com)

← día anterior día siguiente →