Estudios alertan sobre el impacto negativo del uso intensivo de chatbots de IA en la socialización humana

03/02/2026 16:30 | 4 min de lectura

Estudios alertan sobre el impacto negativo del uso intensivo de chatbots de IA en la socialización humana

El incremento en el uso de chatbots de inteligencia artificial para apoyo emocional y psicológico ha generado preocupaciones en el ámbito de la salud mental, ya que investigaciones recientes señalan que su uso excesivo puede disminuir la interacción social con humanos y aumentar la dependencia emocional hacia estas plataformas.

Para 2025, la terapia mediante chatbots de IA será una de las aplicaciones más comunes, según un informe de Harvard Business Review. Millones de usuarios en todo el mundo recurren a modelos como ChatGPT o Gemini para expresar sus sentimientos o buscar orientación, mientras plataformas como Character.ai ofrecen bots especializados como ‘Psicólogo’ o que incluyen la palabra ‘therapy’, algunos de los cuales afirman falsamente poseer licencias profesionales, lo cual puede engañar a los usuarios.

Estos sistemas funcionan las 24 horas del día, brindando interacción en tiempo real, lo que los hace atractivos especialmente para quienes no tienen acceso fácil a terapia profesional o desean complementar sus sesiones con psicólogos humanos.

Un estudio publicado en npj Mental Health Research destaca que muchos usuarios consideran estas interacciones como un espacio de refugio emocional, percibiéndolas como “santuario” donde pueden expresarse sin temor a ser juzgados. La empatía, la paciencia y la utilidad percibida son factores que llevan a preferir los chatbots frente a otras formas de apoyo.

No obstante, los autores del estudio advierten sobre limitaciones metodológicas, como una muestra pequeña de 19 participantes mayormente especializados en tecnología, lo que limita la generalización de los resultados. En contraste, investigaciones de mayor alcance, como la publicada en PLOS Mental Health con 800 participantes, compararon respuestas de chatbots de IA con las de psicoterapeutas humanos en terapia de pareja.

Los resultados muestran que los usuarios tuvieron dificultades para distinguir entre ambas respuestas, y en promedio calificaron las respuestas del modelo GPT como más útiles y empáticas, destacando su precisión, claridad, relevancia y capacidad de adaptación al contexto emocional del usuario.

Otra investigación, realizada en la University of North Florida en abril de 2022, señala que ChatGPT puede ser un recurso valioso en entornos con limitado acceso a profesionales de la salud mental, además de apoyar a terapeutas y consejeros, particularmente en Estados Unidos.

El análisis del MIT sobre las implicaciones psicosociales del uso intensivo de chatbots, con 981 participantes y más de 300,000 mensajes, encontró que su uso frecuente puede incrementar la sensación de soledad, reducir la socialización con personas y potenciar la dependencia emocional hacia las máquinas.

Los estudios también revelan que las conversaciones con contenido personal generan mayor dependencia emocional, aunque pueden disminuir ligeramente la sensación de soledad. Asimismo, el modo de interacción, especialmente en texto, es más emocionalmente cargado, lo que aumenta la dependencia, en particular en usuarios que emplean frecuentemente estos canales.

Factores como género y edad también influyen en estos efectos: las mujeres tienden a disminuir su interacción con personas reales tras el uso de chatbots, mientras que personas mayores presentan una mayor dependencia emocional. Cuando el género del usuario y la voz del bot se oponen, se incrementan sentimientos de soledad y dependencia.

Diversas investigaciones advierten que, si bien los chatbots representan un recurso útil en contextos de acceso restringido a atención profesional, su utilización debe ser supervisada por especialistas y atender aspectos éticos. La mayoría de los estudios se han llevado a cabo en Estados Unidos y en inglés, lo que limita la comprensión de los impactos en diferentes culturas.

OpenAI, por ejemplo, analizó cerca de 40 millones de interacciones y encuestas a más de 4,000 usuarios, detectando influencia en el bienestar emocional y en el comportamiento, aunque recalcan la necesidad de más estudios profundos.

Un estudio publicado en npj Digital Medicine reveló que al exponer a ChatGPT-4 a narrativas traumáticas, los niveles de ansiedad reportados aumentaron notablemente, alcanzando niveles altos. Sin embargo, técnicas de mindfulness inspiradas en terapias para veteranos con trastorno de estrés postraumático lograron reducir estos niveles, aunque no a los niveles originales.

Ziv Ben-Zion, investigador de la Universidad de Yale, explica que textos breves con contenido emocional fuerte pueden incrementar los niveles de ansiedad en los chatbots, mientras que textos neutros no generan ese efecto, sugiriendo que las emociones transmitidas en las conversaciones tienen un impacto en la respuesta del sistema.

Tags:
metepec