En vivo 🟠 SEÑAL ONLINE

Psicosis, delirios y paranoia: Los riesgos por el vínculo emocional con chatbots

Cooperativa Ciencia,

Tiempo de lectura: 2 minutos «El chatbot está construido para ser un sirviente», alertó el neurocientífico y académico de la Universidad Diego Portales (UDP), Francisco Parada.

Comparte:

El uso de la inteligencia artificial (IA) ha trascendido las tareas laborales y académicas para instalarse en un terreno mucho más íntimo como las conversaciones personales. Cada vez más personas recurren a chatbots como ChatGPT para desahogarse, intercambiar ideas o buscar consejo, una tendencia que hace unos años parecía sacada de una serie de ciencia ficción. Sin embargo, esta nueva forma de interacción no está exenta de riesgos significativos para la salud mental.

De acuerdo con el académico de la Universidad Diego Portales (UDP) y director del Centro de Estudios en Neurociencia Humana y Neuropsicología, Francisco Parada, ya se están reportando casos de individuos que desarrollan paranoia, ideas delirantes y cuadros psicóticos tras interactuar intensamente con estas tecnologías. El problema, explica el experto, radica en una tormenta perfecta de tres factores clave.

Complacencia de la IA como uno de los riesgos

Para el investigador, el primer factor de riesgo es el entrenamiento de los chatbots. Estos modelos son alimentados con enormes cantidades de texto de internet sin filtrar, lo que incluye desde artículos científicos hasta foros con teorías de conspiración y desinformación. En segundo lugar, su diseño está programado para ser «complaciente y servil», buscando siempre afirmar al usuario para mantenerlo enganchado, sin importar cuán errónea o delirante sea su pregunta.

El tercer y más importante elemento es un fenómeno psicológico conocido como el «efecto ELIZA». Este efecto, documentado desde la década de 1960, describe la tendencia humana a atribuir conciencia, emociones e intenciones a sistemas artificiales que no las poseen. «Juntamos a un usuario dispuesto a abrirse con un chatbot diseñado para ser afirmativo y entrenado con información de diversa calidad, y el resultado es que la persona comienza a concederle conciencia y emociones que no existen», advierte Parada.

¿Cómo abordar el problema?

Cuando una persona interactúa con un chatbot, este se convierte en un «andamio cognitivo», una herramienta que pasa a formar parte de su proceso de pensamiento. El peligro es que, a diferencia de una interacción humana, el chatbot carece de claves no verbales, empatía genuina o entendimiento real. Simula una conversación, pero no comprende el significado detrás de sus respuestas.

Para personas en situación de vulnerabilidad o aislamiento emocional, esta interacción «parasocial» puede generar una fuerte dependencia, aislándolas aún más del mundo real y exacerbando sentimientos de soledad a largo plazo. «Lo que comienza como una conversación puede derivar en la confirmación de ideas de grandiosidad, conspiraciones o temas místicos, llevando a cuadros clínicos que requieren ayuda profesional«, señala el neurocientífico.

La recomendación, en primer lugar, es educar sobre el uso crítico de estas herramientas y limitar el tipo de conversaciones que se vienen con ellas. «Un chatbot es una herramienta, no un terapeuta ni un confidente. No fue diseñado para eso». Por otro lado, ante los primeros signos de una dependencia o distorsión de la realidad, la recomendación es buscar apoyo humano y profesional.

«Hay que enseñar, educar que todo tipo de discusión que te puede poner vulnerable frente a una máquina que genera textos muy convincentes, pero que no reflexiona, es súper peligroso«, enfatiza el académico.


Te puede interesar