Si buscas las noticias del día anterior, puedes encontrarlas aquí. O si lo que buscas son las noticias del día siguiente, haz clic aquí.
GitHub ha comunicado un cambio en cómo se recopilarán datos para mejorar modelos: comenzará a usar interacciones de los usuarios con GitHub Copilot (entradas, salidas, fragmentos de código y contexto relacionado) para entrenar sus modelos. La medida aplica a usuarios en los planes Free, Pro y Pro+; las cuentas Business/Enterprise quedan excluidas. GitHub indica que ofrecerá controles de privacidad y opciones de exclusión, pero la decisión reaviva debates sobre privacidad de código y dependencia de datos de uso real para mejorar asistentes de programación. [Fuente: Windows Central — GitHub usará interacciones de Copilot para entrenar modelos]. (windowscentral.com)
Investigadores y comunidades han publicado avisos sobre vulnerabilidades en componentes de LangChain y LangGraph (incluyendo problemas de deserialización insegura de checkpoints y vectores de inyección en backends como Redis). Estas fallas pueden permitir desde exposición de ficheros y secretos hasta ejecución de código si un atacante consigue manipular puntos de persistencia o checkpoints. Los responsables de despliegues deben comprobar versiones afectadas, aplicar parches publicados y revisar permisos de acceso a stores (Redis, bases de datos) y a la red donde corren agentes. [Fuente: avisos comunitarios y PSAs sobre CVE en LangGraph/LangChain]. (reddit.com)
Se ha divulgado una vulnerabilidad crítica en Langflow que permitió ejecución remota no autenticada en instancias públicas autoalojadas; explotaciones automáticas fueron reportadas pocas horas después de la divulgación. Si ejecutas Langflow en tu homelab o en una VM accesible desde Internet, actualiza a la versión parcheada inmediatamente o restringe el acceso de red (firewall, VPN) y audit logs para detectar compromisos. Revisar claves API expuestas y rotarlas es prioridad si tu instancia quedó accesible públicamente. [Fuente: reportes y posts de comunidad sobre CVE y explotación en Langflow]. (reddit.com)
Durante las últimas 24–48 horas gestores de proyectos y desarrolladores han compartido en foros y comunidades incidencias repetidas con Vertex AI / Gemini: errores 429 (RESOURCE_EXHAUSTED), 503 y 504 en llamadas a endpoints y en AI Studio, así como comportamientos intermitentes en creación de sesiones y límites de cuota que parecen afectar a aplicaciones en producción. Los reportes apuntan a un impacto visible en agentes y pipelines RAG que dependen de sesiones estables; si usas Vertex/ Gemini, valida cuotas, formular solicitudes con backoff exponencial y considera rutas de contingencia (colas, degradado a modelos alternativos o instancias locales) hasta que Google publique un estado o resolución. [Fuente: hilos de comunidad y reportes de usuarios sobre Vertex AI/Gemini]. (reddit.com)
El Parlamento Europeo aprobó propuestas que retrasan la aplicación de varias obligaciones clave del AI Act para ciertos sistemas de alto riesgo (posponiendo cumplimiento hasta diciembre de 2027 para algunos ámbitos) y respaldó añadir una prohibición específica sobre apps que generan imágenes explícitas no consentidas (‘nudify apps’). Las modificaciones retrasan plazos para watermarking y otras obligaciones, y ahora deben negociarse con el Consejo Europeo antes de ser definitivas; esto crea un periodo de incertidumbre regulatoria para proveedores de modelos y plataformas en la UE. [Fuente: cobertura sobre la votación y medidas en el AI Act]. (theverge.com)
Miembros de la comunidad han detectado comportamientos en versiones de LlamaIndex donde, ante configuraciones incompletas, algunos componentes realizan un fallback silencioso a proveedores externos (por ejemplo OpenAI) sin avisar explícitamente. Esto puede filtrar prompts o fragmentos de datos supuestamente locales hacia APIs externas y supone un riesgo para quienes construyen soluciones “100% locales” en homelabs o entornos con requisitos de privacidad. Recomendación: auditar dependencias, validar configuraciones de LLM/embeddings en cada pipeline y hacer pruebas aisladas para confirmar que no hay llamadas externas no deseadas. [Fuente: hilo de la comunidad que documenta casos de fallback y análisis]. (reddit.com)