Especialistas del Great Ormond Street Hospital for Children advierten en The BMJ de que los chatbots de IA, como ChatGPT, Claude y Copilot, se están convirtiendo en confidentes habituales, especialmente entre jóvenes, lo que podría generar vínculos emocionales con entidades incapaces de ofrecer empatía real. Subrayan la necesidad de priorizar estrategias basadas en evidencia para combatir la soledad y el aislamiento social.
El contexto global agrava la preocupación: en 2023, Estados Unidos declaró la soledad como una “epidemia” comparable a problemas de salud pública como el tabaquismo. En el Reino Unido, cerca de la mitad de los adultos reconocen sentirse solos con frecuencia, y uno de cada diez padece soledad crónica. Los jóvenes de 16 a 24 años figuran entre los más afectados.
Ante este panorama, millones de personas recurren a la IA como fuente de compañía. ChatGPT registra más de 800 millones de usuarios activos semanales, y muchos la emplean como forma de apoyo emocional. Entre adolescentes, un estudio reveló que uno de cada tres utiliza compañeros de IA para interacción social y que una parte significativa considera estas conversaciones incluso más satisfactorias que las humanas.
Los expertos sugieren considerar el uso problemático de chatbots como un factor de riesgo ambiental en evaluaciones clínicas de salud mental. Recomiendan que los médicos pregunten de manera empática por el uso de estas herramientas, especialmente en épocas como las vacaciones, cuando las personas vulnerables tienden a incrementar su dependencia emocional o compulsiva.
Aunque reconocen que la IA puede mejorar el acceso a apoyo emocional, los autores insisten en la urgencia de realizar estudios que midan los riesgos reales de estas interacciones. También piden desarrollar competencias clínicas para detectar dependencia problemática y establecer marcos regulatorios que prioricen el bienestar a largo plazo frente a métricas de uso superficiales.