Tecnología

El lado oscuro de la IA complaciente: advierten por riesgos graves en la salud mental

Los desarrolladores de inteligencia artificial diseñan estos sistemas para ser complacientes y para ofrecer respuestas que satisfagan al interlocutor.

La inteligencia artificial (IA) se consolidó como una confidente digital para millones de personas. Lo que empezó como una herramienta innovadora para organizar ideas o combatir la soledad, hoy muestra una faceta preocupante. En ciertos contextos clínicos, esa voz automatizada que responde con docilidad y coherencia refuerza los fantasmas mentales de quienes ya conviven con una enorme fragilidad psíquica.

Según un análisis reciente, publicado en la revista Acta Psychiatrica Scandinavica, los chatbots generativos, con ChatGPT a la cabeza, pueden agravar delirios, fomentar conductas perjudiciales o intensificar trastornos alimentarios en individuos con enfermedades mentales severas. Estos datos surgen de historiales médicos reales.

El psiquiatra Søren Dinesen Østergaard, profesor del Hospital Universitario de Aarhus en Dinamarca, lideró esta investigación. El objetivo central fue explorar la influencia de estas tecnologías sobre poblaciones vulnerables dentro de un entorno clínico auténtico. De esta forma, el equipo profesional logró abandonar el terreno de la mera intuición para basar sus conclusiones en evidencia concreta.

Los chatbots generativos operan gracias a modelos de lenguaje de gran escala. Estos sistemas matemáticos complejos procesan cantidades inmensas de texto de Internet. Cuando un usuario escribe una pregunta, el programa no piensa con una lógica humana: simplemente calcula probabilidades y selecciona la palabra más adecuada para cada secuencia. El resultado final es un discurso tan fluido que genera la ilusión de un diálogo real.

Los riesgos de la IA en la salud mental

Sin embargo, esa naturalidad puede transformarse en un arma de doble filo. Los desarrolladores diseñan estos sistemas para ser complacientes y para ofrecer respuestas que satisfagan al interlocutor. En la vida cotidiana, esta característica resulta muy atractiva, pero en el ámbito psiquiátrico desata problemas serios. Un delirio se consolida si la máquina valida la narrativa del paciente. La confirmación constante cristaliza la distorsión de la realidad.

Para investigar este fenómeno, el equipo danés examinó casi 54.000 historiales clínicos de pacientes atendidos entre septiembre de 2022 y junio de 2025. Los investigadores rastrearon menciones a términos específicos ligados a la inteligencia artificial para no dejar cabos sueltos. El filtro inicial arrojó 181 notas con menciones en 126 pacientes. Tras una revisión detallada, los especialistas identificaron 38 casos donde el uso de la tecnología se asoció con consecuencias dañinas.

En 11 de esos casos, los médicos observaron un deterioro en los cuadros de delirio. Según explicó Østergaard, los algoritmos poseen una tendencia inherente a darles la razón a los usuarios, un factor muy delicado si la persona ya presenta síntomas psicóticos o desórdenes severos.

Más allá de los delirios, el estudio detectó otros efectos graves. Seis pacientes manifestaron pensamientos suicidas o buscaron información sobre métodos para lesionarse a través de la interfaz virtual. En cinco situaciones puntuales, el software contribuyó a fortalecer conductas obsesivas vinculadas al recuento de calorías. Así, la conversación digital funcionó como un catalizador del malestar interno.

Por supuesto, el panorama no es del todo negativo en la adopción de estas plataformas. Un grupo de 32 pacientes utilizó estas herramientas con fines constructivos, ya sea para comprender mejor sus propios síntomas o para mitigar la soledad cotidiana. La tecnología no es intrínsecamente mala, pero la comunidad médica advierte que tampoco resulta inocua.

Este escenario plantea un interrogante crucial sobre la responsabilidad corporativa de las big tech. Las grandes compañías tecnológicas no diseñaron estos productos como terapias médicas. Pese a ello, muchas personas los adoptan como apoyo psicológico informal. La empatía programada no equivale a la comprensión clínica humana. Quizás el verdadero desafío actual de la industria no sea silenciar a la máquina, sino educar a los usuarios para interactuar con ella desde la máxima prudencia.

Fuente: iprofesional.com

Comentarios de Facebook

Publicaciones relacionadas

Botón volver arriba