IA: el Gran Filtro

29 Apr 2026 · 7 mins. de lectura

La paradoja de Fermi no nació en un congreso, ni en una pizarra llena de ecuaciones, ni en un paper con veinte coautores peleándose por el orden del apellido. Nació como nacen las mejores ideas. En una conversación informal. Año 1950. Los Álamos. Gente brillante que venía de inventar cosas que no deberían inventarse dos veces. Y en medio del debate sobre ovnis, viajes interestelares y civilizaciones avanzadas, Enrico Fermi soltó la pregunta que lo arruina todo por simple.

¿Dónde está todo el mundo?

No era una ocurrencia simpática. Era una forma educada de decir: “esto no cuadra”. Porque si haces números con un mínimo de mala intención, el universo deja de parecer vacío. El tiempo disponible es obsceno. La Vía Láctea es antigua. Las estrellas son incontables. Los planetas, abundantes. Y si la vida aparece más de una vez cuando se dan las condiciones, entonces alguien debería haber tenido, como mínimo, tiempo para dejar huella. No hace falta que vengan a saludarnos. Basta con que existan de manera detectable.

Pero no vemos nada. Ni un recibo. Ni una factura. Ni un “hola” en radio. Ni basura tecnológica orbitando una estrella cercana. El tipo de silencio que no suena romántico. Suena a inconsistencia.

Qué dice realmente la paradoja de Fermi

La paradoja, en el fondo, no es una afirmación sobre extraterrestres. Es una tensión entre dos ideas que parecen razonables a la vez y, aun así, chocan.

Cohete espacial

Por un lado, todo invita al optimismo estadístico. Hay muchísimas estrellas. Muchísimas con planetas. Muchísimas con tiempo suficiente. Si una civilización tecnológica aparece y dura, aunque sea un rato, debería poder expandirse. No hace falta viajar más rápido que la luz. Con paciencia y tecnología “normal”, una galaxia se recorre en escalas de tiempo que, comparadas con la edad de la galaxia, son un fin de semana largo.

Por el otro lado, está lo que observamos. Silencio. Un silencio que no es “no han llegado”. Es “no hay evidencia de que nadie haya llegado a ninguna parte de forma obvia”.

Ese choque es la paradoja. No es que sea imposible que existan. Es que, si existieran en las cantidades que a priori parecen plausibles, esperaríamos ver señales. Y el hecho de no verlas obliga a elegir. O hemos sobreestimado la facilidad con la que surge la vida, la inteligencia o la tecnología. O hemos subestimado lo difícil que es mantenerse vivo y expandirse sin apagarse. O simplemente estamos mirando con los instrumentos equivocados, como quien busca Wi-Fi con una brújula.

Equación de Drake

Cuando se habla de la paradoja de Fermi, tarde o temprano aparece un intento de domesticarla con matemáticas. No para resolverla. Para acotar la conversación. Ese intento lo hizo en 1961 Frank Drake, durante una reunión científica en Green Bank. No estaba intentando predecir el número exacto de alienígenas disponibles para entrevista. Estaba estructurando el problema:

N = R* · fₚ · nₑ · fₗ · fᵢ · f꜀ · L

Donde:

Luego vienen los términos incómodos:

La clave no está en los primeros factores, donde la astronomía moderna empieza a darnos números razonables. La tensión aparece en los últimos términos. Especialmente en la duración. Porque aunque la vida y la inteligencia no fueran raras, si las sociedades tecnológicas tienden a apagarse rápido (por autodestrucción, colapso o simple transición a formas invisibles) el resultado puede encajar perfectamente con el silencio que observamos.

La ecuación no resuelve la paradoja de Fermi. La vuelve más incómoda. Ya no es solo cuántos pueden aparecer. Es cuánto tiempo consiguen no desaparecer.

Las posibles explicaciones

Hay explicaciones tranquilizadoras. Son las que dicen que no pasa nada, que simplemente la vida es rara. O la vida compleja lo es. O la inteligencia tecnológica es un accidente. O todo a la vez. Y entonces la Tierra sería una lotería cósmica ganada con un décimo que nadie recuerda haber comprado. Suena bonito. También suena sospechosamente conveniente.

Hay explicaciones más prácticas. Civilizaciones que existen, pero no emiten señales reconocibles. O que no usan radio mucho tiempo. O que se comunican de formas que no detectamos.

Bosque oscuro

Otras explicaciones son más sombrías. Que el universo es un lugar hostil. Que la vida inteligente tiende a autodestruirse. Que las civilizaciones avanzadas deciden no expandirse porque es peligroso. Que deciden no emitir señales porque es peligroso. Que deciden no usar tecnología detectable porque es peligroso. Que deciden no gritar. Porque el universo es como un bosque oscuro donde cada civilización es un depredador que se esconde esperando a su presa y el silencio es la mejor estrategia de supervivencia.

O también cabe la versión sociológica: que simplemente no les interesamos. Que somos ruido de fondo. Que estamos en una esquina irrelevante del mapa galáctico. La reserva natural de primates que se pelean por quién tiene razón en internet.

Y luego está la explicación que no tranquiliza a nadie, pero encaja demasiado bien con el patrón del silencio: el Gran Filtro.

El Gran Filtro

La idea del Gran Filtro es simple. Y por eso inquieta. El camino desde “química” hasta “civilización capaz de dejar huella” tiene pasos intermedios. Algunos pueden ser difíciles. Otros, casi imposibles. Y al menos uno podría ser brutalmente improbable. Este sería el Gran Filtro que explicaría el silencio general. No porque no haya intentos. Sino porque ninguno llega al final.

Piezas

La parte psicológica del Gran Filtro es la posición:

Aquí es donde la conversación deja de ser astronomía y se convierte en arquitectura de sistemas. Porque lo que mata a una civilización tecnológica no tiene por qué ser una gran explosión. Puede ser complejidad. Dependencias. Incentivos. Carreras armamentísticas. Externalidades. La acumulación de deuda (técnica, social, ecológica, …) hasta que el sistema ya no tiene margen.

Y entonces aparece una sospecha moderna, casi inevitable…

IA

La IA generativa no es inquietante porque “piense”. Es inquietante porque escala. Porque convierte capacidades que antes estaban limitadas por talento, tiempo o presupuesto en algo accesible bajo demanda. No democratiza solo la creatividad. Democratiza la potencia.

Y eso cambia la dinámica del sistema.

Hasta ahora, muchas tecnologías avanzaban más o menos al ritmo al que las instituciones podían asimilarlas. Con fricción. Con resistencias. Con regulación torpe pero existente.

La IA generativa altera esa cadencia. Reduce el coste cognitivo de casi todo. Prototipar, diseñar, escribir código, analizar datos, sintetizar información. No sustituye al humano en bloque. Lo amplifica. Y cuando amplificas millones de humanos a la vez, el efecto no es lineal.

El problema no es la malicia. Es la utilidad.

Una herramienta útil se integra. Se despliega. Se conecta con sistemas críticos. Se convierte en dependencia. Y la dependencia introduce un nuevo tipo de fragilidad. No porque el sistema sea maligno, sino porque el ecosistema que lo rodea se reorganiza alrededor de él. Procesos de decisión asistidos por modelos. Filtros automatizados que nadie audita a fondo. Generación de contenido a escala que supera la capacidad humana de verificación. Optimización continua gobernada por métricas locales.

En ese punto ya no hablamos de una tecnología. Hablamos de infraestructura.

El fallo aparece cuando los incentivos individuales no coinciden con la estabilidad global.

Si una empresa puede acelerar su desarrollo usando IA, lo hará. Si un estado puede obtener ventaja estratégica, lo hará. Si una organización puede reducir costes, lo hará. Cada actor optimiza su supervivencia local. El sistema, en conjunto, puede estar degradando la suya.

Es el clásico problema de coordinación. Solo que ahora con modelos que aprenden, APIs públicas y barreras de entrada cada vez más bajas.

En un escenario de Gran Filtro, este patrón encaja demasiado bien. No hace falta imaginar máquinas conscientes tomando el control. Basta con imaginar un entorno donde la velocidad de despliegue supera sistemáticamente la capacidad de evaluación. Donde la presión competitiva convierte la prudencia en desventaja. Donde la complejidad acumulada impide entender el sistema completo. Y donde pequeños errores, amplificados por automatización masiva, escalan más rápido que la capacidad de respuesta.

La desinformación es un ejemplo visible. Antes era costosa. Ahora es programable. El diseño de ciberataques es otro. La automatización reduce la fricción. La investigación científica también entra en la ecuación. La misma herramienta que acelera descubrimientos médicos puede acelerar descubrimientos en armamento o biotecnología sensible. No porque alguien lo diseñara para eso. Sino porque la capacidad está ahí.

Y la capacidad, cuando existe, tiende a usarse.

AI Code

Hay además un efecto menos evidente. La delegación progresiva. Cuanto más confiamos en sistemas que producen respuestas plausibles, menos ejercitamos el juicio crítico sobre el proceso que las generó. No porque seamos ingenuos. Sino porque el sistema funciona lo suficiente como para que cuestionarlo tenga coste. Y cuando suficientes decisiones relevantes se apoyan en sistemas opacos, el margen para detectar desviaciones estructurales se reduce.

No es una rebelión de máquinas. Es erosión de gobernanza.

La paradoja es que la misma IA podría ser la herramienta que permita evitar el colapso. Modelos que optimicen redes energéticas. Sistemas que anticipen conflictos. Plataformas que coordinen recursos globales con una eficiencia que hoy no tenemos. Es perfectamente plausible que la única forma de sostener una civilización compleja sea aumentar su capacidad de análisis y simulación más allá del límite humano.

La pregunta no es si la IA nos salvará o nos destruirá. Es si nuestra estructura institucional y cultural evoluciona a la misma velocidad que nuestra capacidad técnica.

Si no lo hace, el riesgo no es espectacular. Es sistémico. Es que el tiempo entre “podemos hacerlo” y “debíamos haberlo pensado mejor” se acorte tanto que no haya espacio para corregir. Y si el Gran Filtro tiene que ver con la incapacidad de gestionar poder creciente sin autolesionarse, entonces la IA generativa no es necesariamente el filtro. Es, al menos, un candidato razonable a ser el examen.

El universo podría estar en silencio no porque la inteligencia sea rara, sino porque la estabilidad lo es.

Y entonces la pregunta de Fermi vuelve, pero con otra cara. No es “¿dónde están?”. Es “¿cuánto dura una civilización cuando aprende a multiplicar su poder más rápido que su prudencia?”.

El silencio del cosmos, mirado así, no es un misterio romántico. Es un patrón. Y como todo patrón, te obliga a pensar si tú estás repitiéndolo.

buy me a beer