Por Barbara Sarrionandia

La inteligencia artificial vive su gran fractura: la que separa a los modelos abiertos —como Llama 3Mistral o Stable Diffusion— de los sistemas cerrados de OpenAIGoogle o Anthropic. No es solo una cuestión técnica: es una disputa sobre quién posee el conocimiento.

Los modelos cerrados prometen seguridad y rendimiento, pero exigen confianza ciega. Nadie sabe con qué datos se entrenan ni bajo qué criterios filtran lo “aceptable”. En cambio, los modelos abiertos permiten auditar, adaptar y compartir. No siempre igualan la potencia de los gigantes, pero devuelven algo esencial: transparencia y soberanía tecnológica.

Según el Foundation Model Transparency Index (Stanford CRFM, 2024), los proyectos abiertos ya sostienen más del 40% de la investigación científica en IA generativa. Iniciativas como Hugging Face reúnen comunidades que colaboran y corrigen sesgos colectivamente, frente a corporaciones que blindan sus algoritmos como secretos industriales.

El AI Act europeo (2024) intenta equilibrar fuerzas imponiendo obligaciones de trazabilidad y responsabilidad, pero la legislación avanza más despacio que la tecnología. En ese vacío, la apertura no es idealismo: es defensa democrática.

Porque al final, la pregunta no es qué puede hacer la IA, sino quién puede hacerla. Y el futuro —más que nunca— se decidirá entre el código cerrado de unos pocos o el conocimiento compartido de todos.