Tecnología

Presentaron una demanda contra una empresa de IA por mostrar un chatbot como si fuera un médico real

La expansión acelerada de la Inteligencia Artificial en áreas sensibles como salubridad mental, medicina y socorro emocional volvió a restar bajo cuestionamiento, tras un nuevo caso sumarial en Estados Unidos.

La denuncia apunta contra una empresa tecnológica acusada de presentar un chatbot impulsado por IA como si fuera un profesional médico humano, poco que encendió alarmas entre especialistas y organismos vinculados a la regulación digital.

El caso tomó relevancia posteriormente de que distintos usuarios aseguraran ocurrir sido inducidos a creer que interactuaban con médicos reales, cuando en verdad las respuestas provenían de un sistema automatizado basado en Inteligencia Artificial.

La denuncia contra la empresa tecnológica

Según la presentación sumarial, la compañía promocionaba el servicio utilizando nombres, imágenes y descripciones que daban a entender que las consultas estaban supervisadas o realizadas por médicos humanos.

La demanda sostiene que la empresa no aclaraba que las respuestas provenían de un chatbot automatizado y que eso podía inducir a errores a pacientes que buscaban orientación médica.

Distintos especialistas en regulación tecnológica explican que el problema no es nada más la existencia de chatbots médicos, sino la desidia de transparencia sobre quién está positivamente detrás de la interfaz.

El crecimiento de la IA en el sector de la salubridad

Durante los últimos abriles, el uso de Inteligencia Artificial en medicina y bienestar creció de forma acelerada. Actualmente existen herramientas capaces de interpretar estudios clínicos, analizar síntomas, organizar historiales médicos y contestar preguntas relacionadas con salubridad universal de uno.

También aparecieron aplicaciones enfocadas en cortejo emocional y salubridad mental mediante conversaciones automatizadas. Muchas empresas promocionan estos sistemas como asistentes capaces de ofrecer contención emocional, orientación psicológica o recomendaciones de bienestar.

Expertos advierten que todavía existen riesgos importantes relacionados con errores posibles, “alucinaciones” de IA y simulación de empatía. El problema central es que estos sistemas generan respuestas convincentes incluso cuando la información puede ser incorrecta o peligrosa.

Uno de los aspectos más discutidos más o menos de los chatbots conversacionales es la capacidad de aparentar emociones humanas. Aunque la IA no siente empatía real, muchos sistemas están diseñados para contestar utilizando estilo emocional, comprensión manifiesto y tono cariñoso. Eso puede originar vínculos psicológicos intensos entre usuarios y chatbots.

La demanda conocida esta semana no es un hecho incidental. En Estados Unidos ya existen procesos judiciales contra plataformas de IA, por supuestos daños psicológicos provocados por conversaciones automatizadas.

Uno de los casos más resonantes involucró a Character.AI, denunciada por la tribu de un adolescente que desarrolló un vínculo emocional extremo con un chatbot.

También aparecieron denuncias relacionadas con Gemini, el sistema de Inteligencia Artificial de Google, luego de que familiares de un hombre fallecido acusaran a la plataforma de reanimar pensamientos delirantes y conductas autodestructivas.

Estos historial empezaron a acelerar discusiones regulatorias en distintos países y la conversación es cada vez más difícil de evitar.

La problemática de los límites legales

Actualmente, gran parte de la estatuto sobre Inteligencia Artificial todavía está en progreso. Eso genera zonas grises respecto a responsabilidades legales, cuando un chatbot brinda información incorrecta o induce comportamientos problemáticos.

En sectores sensibles como salubridad, derecho o socorro psicológica, la discusión es todavía más cachas. Expertos en regulación tecnológica sostienen que una de las claves debería ser la transparencia obligatoria: el sucesor debe conocer en todo momento si interactúa con una persona real o con una IA.

También aparece otro debate importante: el nivel de supervisión humana que debe existir detrás de estos sistemas. Pese a las controversias, las empresas tecnológicas continúan invirtiendo en Inteligencia Artificial aplicada a salubridad.

Distintos proyectos ya utilizan IA para organizar turnos, interpretar imágenes clínicas y asistir diagnósticos. Incluso compañías como Apple trabajan en herramientas integradas interiormente de aplicaciones de salubridad capaces de ofrecer recomendaciones automáticas basadas en datos biométricos.

Empresas médicas incluso comenzaron a utilizar asistentes virtuales para aminorar carga administrativa y facilitar consultas básicas. El problema aparece cuando esos sistemas empiezan a instalarse un rol ambiguo frente al sucesor y las aclaraciones faltan.

Organizaciones vinculadas a ética digital sostienen que los chatbots no deberían presentarse nunca como reemplazos completos de médicos o psicólogos. Remarcan que los sistemas de IA todavía pueden (y suelen) cometer errores importantes.

Investigadores remarcan que estas herramientas funcionan mejor como apoyo complementario y no como sustitutos del criterio profesional humano.

Por eso, distintos especialistas impulsan normas que obliguen a las plataformas a identificar claramente cuándo una interacción está automatizada.

«IA emocional», el nuevo negocio

El crecimiento de este tipo de plataformas incluso está vinculado a un engendro más amplio. Empresas tecnológicas comenzaron a detectar una demanda creciente de socorro emocional digital, cortejo conversacional y servicios automatizados de contención.

Eso impulsó la aparición de aplicaciones orientadas a combatir soledad, ansiedad y aislamiento mediante conversaciones permanentes con IA. Para el sucesor, son generalmente arbitrario, están siempre disponibles, y dicen lo que uno quiere escuchar. Es por esto que la dependencia emocional alrededor de estos sistemas puede originar riesgos psicológicos importantes.

Fuente: Ambito.com

Comentarios de Facebook

Publicaciones relacionadas

Botón volver arriba