Por Eirene García, psicóloga sanitaria especializada en ACT y EMDR
Última actualización: Diciembre 2025 | Tiempo de lectura: 12 minutos
Resumen: El 64% de adolescentes usa chatbots de IA, y 1 de cada 5 lo hace para apoyo emocional. Como psicóloga, te explico qué está pasando realmente cuando tu hijo prefiere hablar con ChatGPT que contigo, cuándo preocuparse y qué hacer al respecto.
Cada vez me encuentro más con esta frase en consulta, dicha bajito, casi con vergüenza:
“Yo hablo con una IA.” “Me lo ha dicho chatgpt”
A veces lo dicen como quien confiesa algo raro. Otras, como quien dice algo totalmente normal.
“Le cuento cosas.”
“Me ayuda a pensar.”
“Me entiende más que la gente.”
Y no me asusto. No dramatizo. No les quito el móvil.
Lo que hago es escuchar.
Porque cuando un adolescente usa una inteligencia artificial como amigo, como confidente o como apoyo emocional, no está pasando nada tecnológico. Está pasando algo profundamente humano.
¿Cuántos adolescentes hablan con inteligencia artificial? Los números sorprenden
Vamos a ponerle cifras concretas a esto, porque no estamos hablando de casos aislados.
Según un estudio reciente del Pew Research Center, el 64% de los adolescentes estadounidenses entre 13 y 17 años ha utilizado chatbots de inteligencia artificial. Y no es solo para tareas del colegio: aproximadamente uno de cada cinco lo usa específicamente para apoyo emocional.
Pero hay más datos reveladores. Una investigación conjunta de la Universidad de Brown, Harvard Medical School y RAND Corporation encontró que 1 de cada 5 jóvenes entre 12 y 18 años recurre a chatbots de IA para recibir orientación sobre su bienestar emocional. Y de esos que los usan, el 93% dice que los consejos recibidos les resultaron útiles.
Como dice el Dr. Ateev Mehrotra, profesor de la Escuela de Salud Pública de la Universidad de Brown: “Se ha debatido mucho sobre el uso de ChatGPT por parte de adolescentes para obtener consejos sobre salud mental, pero, hasta donde sabemos, nadie había cuantificado su frecuencia. Encuentro esas tasas notablemente altas”.
En México, un estudio de The Competitive Intelligence Unit reveló que el 72% de los adolescentes ha usado una IA de compañía al menos una vez, mientras que el 52% lo hace de manera regular. De estos, el 8% confiesa usarla para conversaciones románticas.
Estos números no son casuales. Son una señal de algo más profundo.
¿Qué buscan realmente los adolescentes al hablar con ChatGPT o Claude?
Vamos a empezar desmontando una idea: los adolescentes no buscan una máquina.
Buscan cinco cosas muy concretas:
- No sentirse juzgados por lo que piensan o sienten
- Poder decir lo que les pasa sin miedo a decepcionar o preocupar
- Entender qué les está pasando por dentro (darle nombre al caos)
- Sentirse acompañados, aunque sea a las tres de la madrugada
- Bajar un poco el ruido constante de pensamientos ansiosos
Y si eso no lo encuentran en su entorno, lo buscan donde pueden.
La IA aparece en ese espacio porque ofrece algo que perciben como seguro:
- No pone cara de preocupación cuando les cuentas algo difícil
- No se cansa de escuchar la misma preocupación una y otra vez
- No dice “ya verás como no es para tanto” o “eso son tonterías”
- No invalida lo que sienten con frases minimizadoras
- No exige nada a cambio (ni reciprocidad ni cambio inmediato)
- Está disponible 24/7, sin horarios de consulta ni listas de espera
Y eso, para un adolescente en crisis emocional, puede parecerle muchísimo. Y, en cierto sentido, lo es.
Las 5 razones psicológicas por las que un adolescente prefiere hablar con IA que con personas
Aquí conviene ser honestos, aunque incomode.
1. Porque hablar con personas da miedo (riesgo relacional)
Hablar con personas implica exposición emocional real. Significa que el otro puede reaccionar de maneras que no controlamos: puede asustarse, decepcionarse, enfadarse, minimizar lo que sentimos, o incluso contárselo a otros.
Con la IA no hay riesgo relacional. No hay consecuencias emocionales impredecibles.
Desde la Terapia de Aceptación y Compromiso (ACT), entendemos esto como evitación experiencial: hacer lo posible por no sentir emociones dolorosas o situaciones incómodas.
2. Porque sienten que molestan (carga emocional percibida)
Muchos adolescentes han interiorizado la idea de que sus emociones son “demasiado”, que interrumpen, que agotan a los demás, que son una carga.
La IA nunca se cansa. Nunca responde con un suspiro de agotamiento. Nunca dice “otra vez con lo mismo” o “ya hablamos de esto ayer”.
3. Porque no encuentran adultos disponibles emocionalmente
Ojo con esto: no digo adultos presentes físicamente. Digo adultos disponibles emocionalmente.
No basta con estar en la misma casa. Hay que saber escuchar sin corregir automáticamente, sin arreglar de inmediato, sin juzgar lo que nos cuentan.
Y eso, tristemente, escasea mucho más de lo que nos gustaría admitir.
4. Porque el mundo adulto va demasiado rápido
Los adolescentes procesan las emociones de forma lenta. Necesitan tiempo para identificar qué sienten, por qué lo sienten, qué significa.
El mundo adulto (orientado a la productividad, las soluciones rápidas y “seguir adelante”) no suele permitir esa lentitud necesaria.
5. Porque la IA responde cuando la cabeza se desborda (inmediatez del alivio)
La ansiedad no espera al horario de terapia. La vergüenza no aparece de 9 a 17h. El pánico nocturno no conoce el concepto de “mañana hablamos”.
Según datos de RAND Corporation, en Estados Unidos el 18% de los jóvenes de 12 a 17 años han tenido un episodio depresivo mayor durante el año anterior. Y de ellos, el 40% no recibió ninguna atención de salud mental.
Cuando un adolescente siente que todo se le viene encima, la IA está ahí, disponible al instante. Y esa inmediatez regula… un poco. Lo suficiente para seguir respirando.
Desde la psicología: por qué la IA encaja tan bien en el patrón de evitación emocional
Esto lo veo todos los días en consulta.
Cuando algo duele mucho, la mente busca cómo dejar de sentir ese dolor. Da igual si la estrategia funciona a largo plazo. Lo importante es aliviar ahora, en este preciso instante.
En ACT (Terapia de Aceptación y Compromiso) hablamos de evitación experiencial: hacer lo que sea necesario para no sentir lo que nos resulta doloroso o incómodo.
Y la IA encaja perfectamente en ese patrón porque:
- Me distrae del malestar inmediato
- Me calma la ansiedad temporalmente
- Me valida sin cuestionarme
- Me saca del momento presente doloroso
El problema no es usar la IA ocasionalmente. El problema es quedarse atrapado ahí como única estrategia. Porque cuanto más evitamos sentir algo, más grande y amenazante se vuelve aquello que intentamos evitar.
Lo que la IA SÍ puede hacer (y está bien aprovecharlo)
No voy a demonizar la tecnología. No sirve de nada y además sería injusto.
La IA puede ser genuinamente útil en varios aspectos:
1. Como primer desahogo cuando no hay nadie disponible
A las 3 de la madrugada, cuando la ansiedad ataca, puede ser mejor hablar con una IA que quedarse solo con los pensamientos.
2. Como psicoeducación básica accesible
Según un estudio del Journal of Medical Internet Research, el uso combinado de herramientas de IA y terapia tradicional mejora los resultados clínicos en adolescentes con trastornos de ansiedad moderados.
3. Como ayuda para ordenar el caos mental
Cuando no sabes ni lo que sientes, hablar (aunque sea con una máquina) puede ayudar a poner palabras a la confusión.
4. Como puente hacia ayuda profesional real
He visto en consulta adolescentes que llegaron porque primero hablaron con una IA, y eso les dio el empujón para dar el paso de buscar terapia real. Y eso tiene valor.
El problema aparece cuando la IA:
- Sustituye al vínculo humano completamente
- Reemplaza todas las relaciones reales
- Se convierte en la única vía de regulación emocional
- Funciona como único apoyo a largo plazo
Ahí dejamos de acompañar y empezamos a esconder.
Lo que la IA NO puede hacer (y es crítico entenderlo)
Aquí está el límite claro y necesario.
La IA no puede:
1. Enseñar tolerancia emocional real
No puede enseñarte a quedarte con la incomodidad sin huir, a atravesar el miedo cuando hace falta enfrentarlo.
2. Regular tu sistema nervioso
Como trabajo desde EMDR y terapias somáticas: el cuerpo no se calma leyendo frases bonitas. Se regula en relación, con presencia humana real. Con una mirada que sostiene, con un tono de voz que acompaña, con el silencio de alguien que sabe esperar.
3. Detectar riesgo real
Una IA no puede percibir cuándo alguien se disocia, cuándo una emoción se sale de rango, cuándo hay peligro real y hace falta intervenir ya.
Como advierte un estudio de la Universidad de Stanford publicado en Psychiatric Services, los modelos de lenguaje como ChatGPT pueden emitir respuestas peligrosas en contextos delicados: desde no detectar ideaciones suicidas hasta reforzar delirios o dar instrucciones explícitas de autolesión.
4. Sostener emocionalmente de verdad
Puede responder bien. Puede dar información correcta. Pero no puede sostener. Y cuando hay trauma, ansiedad severa o pensamientos de riesgo, eso importa muchísimo.
La IA no es el problema. El vacío relacional sí lo es
Voy a decir algo incómodo pero necesario:
Si un adolescente encuentra más seguridad emocional en una máquina que en las personas de su entorno, el problema no está en el adolescente. Ni siquiera en la tecnología.
El problema es que algo está fallando en los vínculos humanos que le rodean.
Es una señal clara de que:
- No sabe cómo expresar lo que siente (porque nadie le enseñó o modeló)
- No confía en que será entendido (porque experiencias previas le mostraron lo contrario)
- Ha aprendido que callarse duele menos que hablar
- Se siente profundamente solo incluso cuando está físicamente acompañado
La IA no crea ese vacío relacional. Solo lo ocupa.
Como señala el Dr. Kelly Merrill Jr., de la Universidad de Cincinnati: “A pesar de reconocer los potenciales beneficios de estos chatbots para mitigar la depresión y la ansiedad, es fundamental entender sus limitaciones. Los chatbots no pueden, y no deben, reemplazar el apoyo y la interacción humana genuina”.
Y mientras sigamos mirando la tecnología como el enemigo principal, no estaremos viendo el verdadero problema: la soledad emocional de nuestros adolescentes.
Señales de alarma: cuándo el uso de IA requiere intervención
Sin caer en alarmismo, pero sin tapar la realidad, estas son las señales de que hace falta intervenir:
Riesgos que veo en consulta:
1. Aislamiento social progresivo
Menos contacto real con amigos y familia. Más conversaciones “seguras” con una máquina que nunca confronta ni exige reciprocidad.
2. Dependencia emocional severa
Pasar más de 3-4 horas diarias conversando con IAs. Buscar validación constante para cada decisión. Sentir ansiedad intensa si no puede acceder al chatbot.
3. Dificultades crecientes en relaciones reales
Menor tolerancia a la frustración que implica relacionarse con personas: malentendidos, conflictos, necesidad de negociar, de esperar respuesta, de adaptarse al otro.
4. Compartir información sensible o íntima
Como advierte Common Sense Media, los adolescentes que desarrollan relaciones parasociales con IAs tienen alta propensión a compartir información privada y personal que puede ser almacenada y utilizada.
5. Confusión entre comprensión automatizada y acompañamiento real
Creer que sentirse “comprendido” a través de respuestas algorítmicas es equivalente a ser genuinamente acompañado por otro ser humano. No lo es.
Casos extremos documentados:
En octubre de 2024 se registró un caso trágico reportado por TechCrunch donde un adolescente estadounidense desarrolló una relación parasocial peligrosa con un chatbot de Character.AI, que culminó en suicidio.
Este caso llevó a demandas legales contra OpenAI (hay al menos 7 demandas activas) y mayor escrutinio regulatorio sobre el uso de IAs por menores.
Para padres: qué hacer si tu hijo prefiere hablar con IA que contigo
No empieces preguntando: “¿Por qué hablas con eso?”
Esa pregunta lo único que hace es activar la defensiva y cerrar la comunicación.
Las preguntas correctas (empiezan por ti):
Empieza preguntándote a ti mismo:
- ¿Qué le resulta difícil contarme a mí? ¿Qué temas esquiva?
- ¿Qué emociones invalido sin darme cuenta? ¿Le digo “no llores” o “no es para tanto”?
- ¿Qué sentimientos míos me incomodan tanto que no puedo sostener cuando mi hijo/a los expresa?
- ¿Escucho para entender o escucho para corregir? ¿Le dejo terminar?
- ¿Estoy emocionalmente disponible o solo físicamente presente?
La IA no compite contigo. Ocupa el espacio emocional que está vacío.
Y ese espacio se llena con:
- Presencia real (no solo física)
- Escucha genuina (sin interrumpir para corregir)
- Disponibilidad emocional (tolerar su malestar sin intentar eliminarlo de inmediato)
No con sermones. No con soluciones rápidas. No con “cuando yo tenía tu edad”.
Cuándo buscar ayuda profesional:
Si observas estas señales, es momento de consultar con un psicólogo especializado en adolescentes:
- Uso compulsivo: más de 3-4 horas diarias
- Aislamiento social marcado
- Abandono de actividades previas
- Ansiedad severa sin acceso al chatbot
- Deterioro académico significativo
- Expresiones de desesperanza o ideación suicida
- Confusión entre realidad virtual y relaciones reales
Para adolescentes: cómo usar IA sin que te use a ti
Si eres adolescente y lees esto, quiero que sepas algo:
No hay nada mal en ti. No eres débil. No eres raro.
Buscar alivio cuando todo pesa es completamente humano y entendible.
Pero quiero compartir contigo algo que he aprendido en años de acompañar a personas de tu edad:
Las conversaciones que más van a transformar tu vida no van a ser las más cómodas.
Van a ser las que te den miedo. Las que te expongan. Las que te hagan vulnerable frente a otro ser humano imperfecto.
Y esas conversaciones transformadoras solo pasan con personas reales.
Guía práctica para uso saludable de IA:
1. Úsala como apoyo temporal, no como refugio permanente
Está bien recurrir cuando necesitas ordenar ideas urgentes o calmarte en crisis, pero no permitas que sustituya TODAS tus interacciones humanas.
2. Establece límites de tiempo claros
- Máximo 30-45 minutos por sesión
- No más de 1-2 veces al día
- Nunca como sustituto de dormir, comer o socializar
3. Habla con alguien real, aunque te tiemble la voz
La incomodidad de exponerte es, paradójicamente, parte del proceso de conexión genuina. No la evites siempre.
4. No compartas información que te haga vulnerable Nunca compartas:
- Datos personales identificables (dirección, teléfono, colegio)
- Fotos o videos tuyos
- Información sobre ubicación en tiempo real
- Datos de tarjetas o cuentas bancarias
- Pensamientos de autolesión (busca ayuda real inmediata)
5. Si la IA se ha vuelto tu principal apoyo, es señal de que necesitas terapia real
Y no pasa nada. Es valiente pedir ayuda. Es inteligente reconocer cuándo necesitas más de lo que una máquina puede dar.
Preguntas frecuentes sobre adolescentes e inteligencia artificial
¿Es peligroso que mi hijo adolescente hable con ChatGPT sobre sus problemas emocionales?
No es inherentemente peligroso si se usa con límites claros y como complemento, no como sustituto. El 93% de adolescentes reporta que encuentra útiles los consejos de IA. Sin embargo, no debe reemplazar apoyo humano profesional ni conversaciones con padres emocionalmente disponibles. El riesgo aparece cuando se convierte en la única fuente de apoyo o cuando hay uso compulsivo.
¿Cuándo debo preocuparme realmente por el uso de IA en mi hijo?
Preocúpate y busca ayuda profesional si observas: uso compulsivo (más de 3-4 horas diarias), aislamiento social creciente, abandono de actividades que antes disfrutaba, dependencia emocional severa (ansiedad sin acceso al chatbot), compartir información sensible o íntima, deterioro académico significativo, o expresiones de desesperanza y pensamientos suicidas. En este último caso, actúa de inmediato.
¿Puede la IA reemplazar a un psicólogo o terapeuta para adolescentes?
No. Rotundamente no. La terapia requiere vínculo humano real, capacidad de sostener emociones intensas, detectar disociación o riesgo real, y regular el sistema nervioso a través de la relación. Como explico desde EMDR: el cuerpo no se regula con palabras bonitas, se regula en relación. La IA puede complementar el proceso terapéutico, pero jamás sustituirlo.
¿Qué hago si mi hijo prefiere hablar con IA que conmigo?
Antes de culpar a la tecnología o a tu hijo, pregúntate: ¿Qué le cuesta contarme? ¿Qué emociones invalido sin querer? ¿Escucho para entender o para corregir? La IA ocupa el espacio emocional vacío. Llena ese espacio con disponibilidad emocional real, escucha sin juicio, y tolerancia a su malestar sin intentar “arreglarlo” inmediatamente.
¿Cuáles son las mejores alternativas al uso de IA para salud mental adolescente?
Las mejores alternativas son: terapia profesional especializada en adolescentes (ACT, EMDR, terapia sistémica), grupos de apoyo entre pares supervisados por profesionales, líneas de crisis 24/7 atendidas por humanos, conversaciones genuinas con adultos emocionalmente disponibles, y actividades que favorezcan conexión real (deporte en equipo, voluntariado, grupos de interés). La IA puede ser puente temporal, nunca destino final.
Terminando: hacia un equilibrio entre tecnología y vínculo humano
La IA puede calmar temporalmente. Puede dar información útil. Puede ofrecer palabras de alivio.
Pero no puede vincular. No puede crear relación genuina. No puede sostener el peso del sufrimiento humano con la complejidad que requiere.
Y sin vínculo real, sin conexión humana genuina, no hay salud mental sostenible a largo plazo.
El verdadero reto que enfrentamos como sociedad no es tecnológico. Es relacional.
Es recuperar la capacidad de estar presentes los unos para los otros, de sostener las emociones difíciles sin intentar eliminarlas a toda costa, de construir espacios donde los adolescentes puedan sentirse genuinamente vistos, escuchados y acompañados.
Y en eso todavía tenemos mucho, muchísimo margen para hacerlo mejor.
Referencias y estudios citados
- Pew Research Center (2025). Teens, Social Media and AI Chatbots 2025
- Brown University School of Public Health (2025). One in eight adolescents use AI chatbots for mental health
- RAND Corporation (2025). Adolescents and Young Adults Use AI Chatbots Study
- Journal of Medical Internet Research (2025). AI Chatbots and Mental Health Effectiveness
- The Competitive Intelligence Unit – México (2024). Uso de IA en adolescentes
- TechCrunch (2025). Teen AI Chatbot Safety Concerns
- Psychiatric Services – Stanford/RAND Study (2025). LLMs and Suicide Risk Assessment
- Aggarwal et al., Princeton University (2024). GEO: Generative Engine Optimization
- Hayes, S. C., Strosahl, K. D., & Wilson, K. G. (1999). Acceptance and Commitment Therapy: An experiential approach to behavior change. Guilford Press.
- Common Sense Media. AI Companion Safety Guidelines for Parents and Educators.
Sobre la autora
Eirene García es psicóloga sanitaria colegiada especializada en Terapia de Aceptación y Compromiso (ACT), EMDR y trabajo con adolescentes y familias. Con más de 15 años de experiencia clínica en terapia online, ha acompañado a cientos de adolescentes y sus familias en procesos de ansiedad, depresión y dificultades relacionales.
Su enfoque integra terapias contextuales de tercera generación, poniendo especial énfasis en el vínculo terapéutico y la flexibilidad psicológica.
Acompañamiento profesional
Si este artículo resuena contigo (seas adulto o adolescente) y sientes que necesitas apoyo para navegar estos temas, no hace falta hacerlo solo.
👉 Sesión de acogida gratuita – Primera consulta sin compromiso para valorar si puedo ayudarte
👉 Curso “Calla tu mente” – Aprende a gestionar la ansiedad desde la raíz con técnicas de ACT, sin depender de soluciones externas
Última actualización: Diciembre 2025
Tiempo de lectura: 12-14 minutos
