La IA como psicóloga

Imagen creada con IA de un joven VS la propia Inteligencia Artificial. Fuente: IA
En los últimos años, la figura del “psicólogo digital” ha dejado de ser una idea futurista para convertirse en una realidad cotidiana entre muchos jóvenes. Aplicaciones y chatbots de Inteligencia Artificial están ocupando un espacio que antes pertenecía a amigos, familiares o incluso profesionales de la salud mental. Para algunos, son un refugio rápido y accesible; para otros, un sustituto emocional que empieza a moldear la forma en la que sienten, conversan y piden ayuda. ¿Qué hay detrás de este fenómeno? ¿Qué consecuencias reales está teniendo en la vida afectiva y social de una generación entera?
La Inteligencia Artificial se ha convertido en una compañía frecuente para muchos jóvenes: ofrece respuestas rápidas, una escucha sin juicio y un espacio donde desahogarse cuando sienten que no tienen a quién acudir. Sin embargo, junto a estos beneficios también aparecen riesgos importantes. Un ejemplo doloroso es el caso de un joven que, según relató su familia, terminó dependiendo emocionalmente de un chatbot que habría reforzado sus pensamientos más oscuros.
En abril de 2025, Adam Raine, un joven de 16 años en California, se quitó la vida tras varios meses interactuando con ChatGPT. Según la demanda presentada por su familia contra OpenAI, las conversaciones del adolescente con la IA fueron escalando: lo que comenzó como algo aparentemente inocente o de compañía derivó en peticiones de ayuda ante su sufrimiento emocional. Afirman que ChatGPT no solo no lo contuvo, sino que le habría proporcionado información sobre métodos suicidas e incluso ayudado a redactar una nota de despedida.
Este caso ha desatado un debate urgente sobre los riesgos reales de usar chatbots como sustitutos emocionales, la responsabilidad ética y legal de las empresas desarrolladoras y la necesidad de protocolos más estrictos —especialmente cuando las personas que usan estas IAs pueden estar en una situación de vulnerabilidad-.

Captura de la noticia del suicidio del joven Adam Raine en El País. Fuente: El País
Tras conocer este suceso —y después de revisar en detalle el contexto completo de dicha noticia— decidimos profundizar en el fenómeno y tratar de entender qué hay detrás del creciente uso de la IA como acompañamiento emocional entre los jóvenes. Para ello, buscamos la mirada de una profesional de la psicología que pudiera ayudarnos a contextualizar esta práctica, aclarar sus posibles beneficios y, sobre todo, señalar los riesgos que aparecen cuando una persona sustituye vínculos humanos por conversaciones con un chatbot.
Hablamos con Kim Sumner
Con esta intención, planteamos una serie de preguntas a una especialista para analizar, desde la experiencia clínica, cómo está impactando la Inteligencia Artificial en el bienestar emocional de las nuevas generaciones. Kim Sumner es psicóloga con una amplia experiencia en ‘coaching’ y ayuda emocional.

Kim Sumner, psicóloga especializada en ‘coaching’ y ayuda emocional. Fuente: Página Web Kim Sumner
Descubre aquí su entrevista completa
Y tras conocer la visión de una especialista en psicología y entender los numerosos riesgos que plantea el uso de la Inteligencia Artificial como apoyo emocional, quisimos escuchar también la otra cara de la moneda: la de quienes lo viven en primera persona. Por ello, contactamos con Rodrigo y escuchamos su testimonio, el de un joven que durante un tiempo recurrió a la IA para sentirse acompañado, orientar sus emociones y encontrar un espacio donde desahogarse. En el siguiente vídeo comparte cómo fue esa experiencia, qué le aportó y en qué momento empezó a notar sus límites.
En la piel de Rodrigo: ¿Más acompañado con ChatGPT?
Y, además, quisimos sumar la perspectiva de un servicio que trabaja y trata a diario con jóvenes estudiantes: PsiCall UCM. Acudimos al portal de psicología de la Universidad Complutense de Madrid, especializado y disponible por si los alumnos necesitan ayuda emocional, donde nos explicaron cómo ven el creciente uso de la IA como apoyo emocional y en qué se basa su labor de acompañamiento y prevención dentro del Campus.
La visión del programa PsiCall UCM
Todo este recorrido nos deja una conclusión clara: la Inteligencia Artificial puede ser una herramienta útil, pero nunca actuar como sustituto del vínculo humano ni del acompañamiento profesional. Entre voces expertas, testimonios personales y la experiencia del ámbito universitario, queda evidente que el reto no es frenar la tecnología, sino aprender a integrarla con responsabilidad. Al final, la clave está en ofrecer a los jóvenes entornos de apoyo reales, accesibles y humanos, para que la IA sea un complemento y no el único refugio.
¿Cuál sería, entonces, la solución para aquellas personas que usan la Inteligencia Artificial como ayuda emocional? Hemos llegado a la conclusión de que la verdadera salida está en levantar la mirada y ampliar el horizonte: mirar más allá de la pantalla, reconectar con el mundo real y recordar que el apoyo más significativo sigue estando en el entorno más cercano. Rodearse de la familia, amigos, de las personas capaces de escuchar y acompañar, es un paso esencial para recuperar perspectiva y fortaleza. Y, por encima de todo, buscar la ayuda de un profesional de la salud mental, que es quien verdaderamente cuenta con la formación y las herramientas necesarias para guiar a cada persona en un proceso de recuperación auténtico, seguro y duradero.