Las conversaciones personalizadas con este «robot desacreditador» pueden convertir incluso a los teóricos de la conspiración más acérrimos en escépticos en ciernes
En común tropezarse con personas que todavía sustentan que las vacunas contra la COVID-19 contenían microchips o que ponen en duda la llegada del hombre a la Luna hace más de cinco décadas. Un estudio acucioso reconoce que la Inteligencia Artificial puede reducir las creencias en teorías conspirativas y desinformación.
Una investigación publicada en Science determinó que las personas cambian de opinión cuando es un chatbot de IA el que presenta argumentos basados en hechos en lugar de otro ser humano. Las conversaciones personalizadas con este «robot desacreditador» pueden convertir incluso a los teóricos de la conspiración más acérrimos en escépticos en ciernes. «Es realmente prometedor ver cómo la IA puede desempeñar un papel significativo en la lucha contra la desinformación y las teorías de la conspiración», afirma Jan-Willem van Prooijen, científico del comportamiento de la Universidad Libre de Ámsterdam que no participó en el estudio,
A la IA generativa se le han atribuido actuaciones poco generosas para la sociedad, por los riesgos que puede acarrear su uso precipitado y sin control. La falta de transparencia de sus algoritmos también puede generar sesgos discriminatorios, perpetuar desigualdades sociales y limitar las libertades individuales. Así como la difusión de falsedades, sobre todo mediante el uso de deepfakes por lo que a Van Prooijen le resulta “refrescante” verla utilizada como una fuerza para el bien.
Ya sea que el Área 51 -una base militar en el desierto de Nevada- alberga cadáveres de extraterrestres u otras tantas creencias carentes de sustento, la ola conspirativa pulula en la mente de casi la mitad de la población estadounidense, revelan algunas estimaciones.
La Inteligencia artificial tumba teorías conspirativas
Pero las hipótesis sobre tales “motivaciones subterráneas” en ese lugar anteriormente conocido como «Rancho Paraíso» o «Tierra de los Sueños», son difíciles de probar, dice Thomas Costello, psicólogo de la American University y autor principal del estudio.
Los nuevos hallazgos proporcionan «una de las primeras pruebas realmente sólidas de que no son toda la historia», dice, «o tal vez, de hecho, que están totalmente equivocados».
Cuando se debaten conspiraciones en la vida real, los creyentes a menudo intentan abrumar a los detractores presentando rápidamente tantos argumentos como sea posible. Una técnica conocida como el galope de Gish. Mientras que ningún ser humano puede abordar todas esas afirmaciones a la vez un programa de inteligencia artificial posiblemente podría hacerlo.
Los investigadores querían saber si la Inteligencia Artificial podrían desacreditar las teorías de conspiración con lo que Costello describe como «persuasiones personalizadas». Es el caso del chatbot de GPT-4 Turbo que procesa y genera enormes cantidades de información en segundos. Y se llama ‘debunkbot’ (robot desmontabulos) y es entrenada por científicos del Instituto Tecnológico de Massachusetts.
El equipo reclutó a más de 2000 participantes que profesaban creer en al menos una teoría de la conspiración. Por ejemplo, que la CIA estuvo implicada en el asesinato de Kennedy o la vacuna de la COVID-19 fueron orquestados en secreto por personas u organizaciones poderosas.
Luego hicieron que estas personas entablaran una breve conversación con un chatbot de LLM. Cada una compartió con la IA lo que creía, la evidencia que sentía que lo respaldaba y calificó su confianza en que la teoría era cierta. El chatbot, capacitado en una amplia gama de información disponible públicamente de libros, debates en línea y otras fuentes, refutó cada afirmación con contraargumentos basados en hechos.
Argumentos y buenos modales
Estas conversaciones redujeron la confianza de las personas en sus teorías de conspiración, en promedio, en un 20%. Estas reducciones fueron notablemente persistentes, duraron hasta dos meses y parecieron funcionar en una amplia variedad de teorías.
«El hecho de que haya funcionado tan bien durante tanto tiempo es lo que me llamó la atención», comenta Ethan Porter, politólogo e investigador de desinformación de la Universidad George Washington que no participó en el estudio.
Parte de la razón por la que el desacreditador tiene tanto éxito, razona Van Prooijen, es que sigue siendo “muy educado”. En cambio, las conversaciones humanas sobre temas similares pueden volverse fácilmente “acaloradas e irrespetuosas”. Y mientras que a alguien le puede preocupar que sus amigos o familiares lo juzguen por alterar sus creencias, es imposible “perder la cara” frente a un modelo de IA, añade.
Cuando Costello y sus colegas repitieron su experimento con un chatbot que interactuaba con los participantes pero no formulaba contraargumentos basados en hechos, no vieron ningún efecto.
Lo que sugiere que la presentación de evidencia era clave. «Sin hechos, no podría hacer su trabajo», dice Costello. Aún así, la retórica involucrada puede ser fundamental para la persuasión, dice Federico Germani, investigador de desinformación de la Universidad de Zúrich.
Debido a que los LLM se entrenan en conversaciones reales, explica, captan estrategias retóricas sutiles que hacen que sus argumentos sean más persuasivos. Incluso cuando una pauta les ha indicado que se basen únicamente en hechos. «Los autores probablemente estén subestimando que, entre líneas, la Inteligencia Artificial es muy buena manipulando y aplacando teorías conspirativas «, dice.
Los psicólogos de la Universidad de Kent, en una declaración conjunta, también cuestionan si los hallazgos alteran la idea predominante de que las teorías de la conspiración satisfacen necesidades psicológicas insatisfechas.
Desmontando los bulos
Aleksandra Cichocka, Robbie Sutton y Karen Douglas advierten que los autores del estudio no midieron directamente si los participantes sintieron que sus necesidades estaban satisfechas después de conversar con el chatbot. Creen que es imposible saber si eso influyó en su cambio de opinión.
De hecho, los sujetos todavía tenían bastante confianza en sus teorías conspirativas incluso después de que la Inteligencia Artificial intentara desacreditarlas. Esta respuesta sugiere que estas motivaciones subyacentes todavía desempeñaban un papel poderoso en sus creencias.
Aunque es poco probable que los teóricos de la conspiración interactúen voluntariamente con el robot desacreditado, Germani y Van Prooijen señalan que la IA podría potencialmente reforzar las respuestas tecnológicas existentes.
Muchos sitios de redes sociales ya cuentan con estrategias para señalar posible información errónea. Como la función de Notas de la comunidad en X. Este nuevo modelo podría proporcionar información adicional que la refute.
Las personas también podrían usar debunkbot para verificar rápida y exhaustivamente los hechos nuevos que han escuchado. Cultivando un nivel saludable de escepticismo y haciendo menos probable que caigan en la madriguera de la desinformación en el futuro, señala Costello. «Casi se puede pensar en estos chatbots como una forma de higiene epistémica», explica, «como cepillarse los dientes, pero para la mente».
El MIT describe estos sistemas de creencias como «notoriamente persistentes» en redes sociales. Y señala que «representan una seria amenaza para las sociedades democráticas». El instituto explica que estas personas aferradas a esas teorías están movidas por procesos sociológicos y por la motivación para mantener la identidad. Además de sentirse miembros de grupos influyentes.