En vivo 🟠 SEÑAL ONLINE

Modelos de inteligencia artificial son más persuasivos que los humanos en debates

Modelos de inteligencia artificial son más persuasivos que los humanos en debates

  -

Tiempo de lectura: 2 minutos Tras entregarle información personalizada del interlocutor, Chat GPT logró persuadir a sus oponentes en un 64,4% de los casos.

Comparte:

Un estudio llevado por investigadores de Estados Unidos, Italia y Suiza reveló que Chat GPT, la popular aplicación de inteligencia artificial, puede ser más persuasiva que los humanos en debates online cuando tiene acceso a información personal del interlocutor.

El experimento consideró a 900 participantes estadounidenses con distintos perfiles sociodemográficos. La mitad de ellos debatió con otro ser humano, mientras que la otra mitad lo hizo con Chat GPT. Los temas abordados incluían cuestiones de actualidad como la prohibición de combustibles fósiles en Estados Unidos.

¿Maestro de la persuasión digital?

En algunos casos, la contraparte del debate, ya fuera humana o IA, recibió información demográfica personalizada sobre su interlocutor, como género, edad, etnia, nivel de educación y afiliación política. Esta información, obtenida de encuestas previas, permitía ajustar los argumentos al perfil específico del participante.

Los resultados fueron claros, cuando tenía acceso a datos personales, ChatGPT logró persuadir a sus oponentes en un 64,4% de los casos, superando significativamente la capacidad de persuasión humana. Sin embargo, sin acceso a dicha información, la IA no mostró una ventaja clara sobre las personas.

Esta superioridad persuasiva de la IA se atribuye a su capacidad para procesar información y adaptar sus argumentos de forma instantánea y a gran escala, algo que los humanos no pueden replicar con la misma velocidad y eficiencia. Esta característica podría dar a los modelos de lenguaje, como ChatGPT, una ventaja considerable en entornos como campañas políticas, marketing personalizado o conversaciones en redes sociales.

Implicaciones éticas

Expertos en inteligencia artificial, como el profesor de la Escuela de Negocios de Toulouse (Francia), Carlos Carrasco, señalan que, aunque el estudio se realizó con participantes estadounidenses, los mecanismos de personalización y persuasión observados son extrapolables a otros contextos, donde la presencia digital es cada vez mayor y la polarización social y política está en aumento.

Frente a esto, los investigadores recomiendan a las plataformas digitales y a los organismos reguladores que implementen medidas para identificar, supervisar y, si es necesario, limitar el uso de modelos de lenguaje en contextos persuasivos sensibles.

Si bien el estudio presenta algunas limitaciones, como la homogeneidad de la muestra y el entorno controlado del debate, sus hallazgos plantean importantes interrogantes sobre el futuro de la interacción humana con la IA y la necesidad de un marco ético y regulatorio que garantice su uso responsable.


Te puede interesar