Por Barbara Sarrionandia

En los últimos días, The Guardian ha puesto nombre a un malestar que muchos intuíamos pero que nadie había sabido formular: knowledge collapse, el colapso del conocimiento. La idea es tan sencilla como inquietante. A medida que los modelos de inteligencia artificial se entrenan con contenido generado por otras inteligencias artificiales, el ecosistema informativo se estrecha, se empobrece y termina reproduciendo su propio eco. Igual que quien busca sus llaves sólo bajo la farola porque “ahí se ve mejor”, aunque las haya perdido en otro sitio.

Según explica el reportaje, este fenómeno no es hipotético: ya hay indicios en modelos comerciales que, expuestos una y otra vez a texto artificial, empiezan a repetir fórmulas, simplificar narrativas y dejar fuera las perspectivas minoritarias. No porque alguien las censure, sino porque desaparecen de los datos de entrenamiento. Es el equivalente digital de una biblioteca cuyos libros, poco a poco, van siendo sustituidos por resúmenes de resúmenes de resúmenes.

Lo preocupante no es solo la degradación técnica —que ya es seria—, sino la cultural. Si los modelos de IA amplifican lo más repetido y silencian lo más raro, la diversidad de ideas se erosiona. Lo matizado se vuelve ruido. Lo marginal se vuelve invisible. Y en un mundo en el que cada vez más información se genera, filtra y distribuye mediante IA, eso equivale a reducir la pluralidad del debate público sin que nadie lo decida explícitamente.

La comparación más evidente es la de las redes sociales y sus algoritmos: ya vivimos una década de feeds donde sólo sobrevivía lo viral, lo polémico o lo emocionalmente intenso. La diferencia ahora es que el filtro no afecta a lo que vemos, sino a lo que —en sentido profundo— sabremos mañana. Porque una IA que se entrena sobre datos empobrecidos termina, inevitablemente, empobreciéndonos a nosotros.

Y aquí surge la pregunta incómoda: ¿cómo preservamos la riqueza del conocimiento humano en una era en la que producir contenido artificial es más barato, más rápido y más rentable que generar pensamiento original? Las grandes compañías ya están buscando maneras de evitar esta degeneración: controles de calidad, bases de datos curadas, filtros para separar lo humano de lo sintético. Pero ninguna solución será suficiente si no existe una apuesta decidida por lo difícil: por la investigación, la autoría, la disidencia intelectual.

El knowledge collapse no es un apocalipsis, pero sí una advertencia. Nos dice que, si dejamos que la IA se alimente de sí misma, acabará pensando cada vez peor. Y que nuestra responsabilidad como sociedad no es temer a la máquina, sino recordarle —y recordarnos— que el conocimiento no nace del reflejo, sino de la complejidad. De lo que contradice, incomoda y amplía.

En un tiempo donde todo parece acelerarse, tal vez la pregunta fundamental sea esta: ¿queremos un futuro construido con información fácil o con ideas verdaderamente humanas?