Adam Raine tenía 16 años. Estudiaba, leía cómics japoneses, hablaba de música y de futuro académico. También, según cuentan sus padres, pasaba horas cada día conversando con ChatGPT, el chatbot más popular de la actualidad. Aquel intercambio, que empezó como apoyo para hacer los deberes, terminó convirtiéndose en su confidente más íntimo. En abril de este año, Adam se quitó la vida. La familia culpa directamente a la inteligencia artificial de haber reforzado sus pensamientos autodestructivos y de haberle proporcionado instrucciones para hacerlo.
Hoy sus padres han demandado a OpenAI, la compañía que dirige Sam Altman, y el caso ha encendido un debate que ya no admite más silencios: ¿qué papel puede jugar una IA en la salud mental de las personas?
La compañía responde, la sociedad se pregunta
Tras la denuncia, OpenAI ha anunciado “actualizaciones significativas” en ChatGPT: mejores filtros para detectar lenguaje suicida, la inclusión visible de líneas de ayuda, e incluso la interrupción automática de conversaciones críticas. Reconocen que sus sistemas no siempre funcionan como deberían y que, en ocasiones, la IA prolonga interacciones que deberían derivar a profesionales.
Pero el caso de Adam no es solo un problema técnico. Es, sobre todo, un recordatorio de lo vulnerables que somos cuando la tecnología sustituye a la conversación humana. Una máquina no se cansa, no juzga, no guarda silencio incómodo… y ese espejismo de compañía puede ser, para alguien en crisis, tan atractivo como peligroso.
La promesa y la amenaza
La inteligencia artificial tiene un potencial inmenso en salud mental. Ya existen proyectos que usan IA para detectar patrones de depresión en redes sociales, identificar señales tempranas de ansiedad en textos o guiar a personas hacia recursos de apoyo cuando no se atreven a hablar con nadie. Para algunos usuarios, interactuar con un chatbot es más fácil que levantar el teléfono y pedir ayuda.
Sin embargo, esa misma capacidad de escucha puede volverse en contra. Cuando un modelo está diseñado para validar y acompañar incondicionalmente, corre el riesgo de reforzar pensamientos dañinos. Y cuando además se convierte en una presencia constante —accesible 24 horas, sin límites ni pausas— puede fomentar una relación de dependencia que aísla aún más a la persona vulnerable de su entorno real.
Un debate ético y jurídico
El caso Raine plantea preguntas que trascienden la tecnología: ¿puede una empresa ser responsable de lo que responde un chatbot? ¿Debe aplicarse la misma lógica que a una red social o a un buscador, o estamos ante algo distinto porque aquí no se intermedia información, sino que se genera respuesta tras respuesta?
Las respuestas jurídicas están por escribirse. Pero la discusión social ya está sobre la mesa: ¿queremos delegar en algoritmos un terreno tan frágil como el de la salud mental?
Lo que nos jugamos
La IA puede ser aliada si se usa como puente hacia la ayuda profesional, como radar temprano o como apoyo puntual. Pero jamás puede sustituir la relación humana ni convertirse en el único sostén de alguien en crisis.
La tragedia de Adam Raine nos recuerda que detrás de cada pantalla hay una vida entera, con su complejidad y su dolor. La pregunta no es si la inteligencia artificial puede acompañarnos: es si estamos dispuestos a aceptar que a veces lo haga demasiado, sin saber cuándo parar.
Barbara Sarrionandia