Barbara Sarriandia
No todo lo que se pierde hace ruido. Algunas cosas simplemente dejan de aparecer. No hay censura explícita ni prohibiciones formales: solo una ausencia progresiva, silenciosa, casi elegante. En la era de la inteligencia artificial generativa, el conocimiento no se elimina; se optimiza. Y en ese proceso, lo que no encaja, lo que no rinde, lo que no se repite lo suficiente, empieza a quedar fuera del encuadre.
Los grandes modelos de lenguaje y de imagen funcionan, en esencia, a partir de patrones dominantes. Aprenden de enormes volúmenes de datos disponibles en internet, priorizando aquello que es más frecuente, más accesible, más citado. No distinguen entre lo importante y lo popular, entre lo valioso y lo visible. Distinguen, sobre todo, entre lo que se repite y lo que no. El resultado es un conocimiento cada vez más homogéneo, más pulido, más reconocible. También más estrecho.
Diversos estudios recientes —entre ellos investigaciones publicadas en Nature Human Behaviour y PNAS— alertan de un fenómeno que algunos investigadores ya llaman knowledge collapse: cuando los sistemas de IA se entrenan sobre contenidos generados por otras IA, la diversidad informativa se reduce de forma acelerada. El saber empieza a retroalimentarse sobre sí mismo, perdiendo matices, excepciones y perspectivas minoritarias. No porque alguien lo decida, sino porque el sistema aprende que eso “no funciona”.
El problema no es solo técnico, es cultural. La IA no crea desde la nada: selecciona, remezcla, prioriza. Y al hacerlo, actúa como un filtro cultural de enorme alcance. Decide —sin intención consciente— qué estilos sobreviven, qué idiomas aparecen, qué enfoques se repiten. Lenguas minoritarias, corrientes artísticas no normativas, marcos teóricos críticos o saberes locales quedan infrarepresentados porque generan menos datos, menos clics, menos señales de relevancia algorítmica.
Un informe de la UNESCO sobre diversidad lingüística digital ya advertía que más del 90 % del contenido online está concentrado en menos de diez idiomas. Si esos son los materiales de partida, los sistemas de IA reproducen y amplifican esa desigualdad. La promesa de acceso universal al conocimiento corre el riesgo de convertirse en una estandarización global del punto de vista.
Lo inquietante es que este proceso no se percibe como una pérdida. Al contrario: los textos suenan coherentes, bien escritos, razonables. Las imágenes son estéticamente agradables, equilibradas, “correctas”. Pero esa corrección tiene un precio: la rareza desaparece, la disidencia se suaviza, la complejidad se aplana. La IA no miente; simplifica. Y en esa simplificación se va erosionando la pluralidad.
También en el ámbito educativo empiezan a verse señales preocupantes. Investigaciones recientes señalan que estudiantes que dependen de herramientas generativas tienden a recibir siempre explicaciones similares, estructuradas bajo un mismo marco conceptual. La diversidad de fuentes, enfoques o tradiciones académicas se reduce. Aprender se parece cada vez más a recibir una respuesta óptima, no a atravesar una pregunta incómoda.
Nada de esto implica que la inteligencia artificial sea, por definición, un enemigo del conocimiento. Al contrario: su capacidad para democratizar el acceso, resumir información compleja o conectar disciplinas es real y valiosa. El problema surge cuando confundimos acceso con pluralidad, y eficiencia con riqueza cultural. Cuando aceptamos sin cuestionar que lo más probable es también lo más deseable.
La cuestión de fondo es política, aunque no lo parezca. ¿Queremos sistemas que reflejen fielmente la diversidad del mundo, aunque eso implique fricción, contradicción y lentitud? ¿O preferimos herramientas que nos devuelvan versiones cada vez más limpias, consensuadas y previsibles de la realidad? ¿Quién decide qué conocimiento merece ser optimizado y cuál puede quedar al margen?
Tal vez el mayor riesgo no sea que la IA nos engañe, sino que nos acostumbre a un saber sin asperezas. Un conocimiento cómodo, sin bordes, sin voces incómodas. Lo verdaderamente peligroso no es lo que la inteligencia artificial dice, sino todo aquello que deja de decir sin que lleguemos a notarlo.
