Por Barbara Sarrionandia

Europa ha decidido no esperar. Mientras la inteligencia artificial avanza a un ritmo que desborda gobiernos y legislaciones, la Unión Europea acaba de publicar un código de práctica voluntario para los modelos de IA de propósito general, un paso previo a la aplicación definitiva del AI Act, prevista para 2026. El objetivo: poner orden antes de que la máquina lo haga por nosotros.

El documento no tiene fuerza de ley, pero sí valor simbólico. Marca un terreno de juego en el que los desarrolladores deben comprometerse a transparencia, trazabilidad y supervisión humana, anticipando lo que será la regulación más ambiciosa del mundo en este ámbito. Europa quiere liderar desde la ética, no desde la velocidad. Y, sin embargo, ese intento de adelantarse al riesgo ha despertado una vieja tensión: ¿la regulación es freno o salvaguarda?

No todos están dispuestos a seguir las reglas. Meta Platforms, propietaria de Facebook, Instagram y WhatsApp, ha rechazado adherirse al código de práctica. Su argumento es el de siempre: que estas normas introducen incertidumbre jurídica, frenan la innovación y dificultan competir con gigantes menos limitados, especialmente los de Estados Unidos o China. Pero detrás de esa negativa late algo más profundo: la resistencia de las grandes corporaciones tecnológicas a ceder poder de autorregulación. En otras palabras, ¿defienden la innovación o defienden su monopolio?

La paradoja es que, mientras las empresas claman por libertad, los ciudadanos piden límites. Según un reciente estudio publicado por Euronews, el 73 % de los españoles y más del 70 % de los europeos apoyan una regulación más estricta sobre el uso de la IA. Es decir, confían en la tecnología, pero no en quienes la controlan. Esa mezcla de fascinación y miedo define el clima social actual: queremos los beneficios de la automatización, pero también garantías de que no se nos escapará de las manos.

La IA generativa ha cambiado el terreno del juego. Ya no hablamos solo de herramientas de apoyo, sino de sistemas capaces de crear, decidir, influir y persuadir. En ese contexto, la transparencia no es una cuestión burocrática, sino democrática. Saber con qué datos se entrenan los modelos, qué sesgos contienen o cómo se utilizan sus resultados no es un capricho académico: es una condición para mantener la confianza pública.

Europa intenta algo difícil: ser innovadora sin ser ingenua. Frente a la lógica del “move fast and break things” de Silicon Valley, propone un modelo que prioriza la responsabilidad y el impacto social. Pero también corre el riesgo de perder tracción si la regulación se convierte en un laberinto normativo. La clave estará en encontrar un equilibrio entre control y dinamismo, entre proteger derechos y no sofocar la creatividad tecnológica.

Porque lo que está en juego no es solo el liderazgo económico, sino la soberanía cultural y ética. Si el siglo XX se midió en acero, el XXI se mide en algoritmos. Y la pregunta esencial es quién los escribe, quién los entiende y, sobre todo, quién los supervisa.

Europa, por ahora, ha decidido mirar de frente a esa pregunta. Y aunque sus pasos sean más lentos que los de la industria, quizá sea la única que camina, todavía, con los ojos abiertos.