A mediados de marzo de 2022, cuando la invasión rusa a Ucrania llegaba a su tercera semana, un video inusual comenzó a circular en las redes sociales e incluso fue transmitido en el canal de televisión Ucrania 24 debido a los esfuerzos de los piratas informáticos.
El vídeo mostraba al presidente ucraniano Volodimir Zelenski, con la cabeza baja, pidiendo a los ciudadanos de su país, que dejaran de luchar contra los soldados rusos y entregaran sus armas. Él había huido de la capital, Kiev. Era un vídeo de baja calidad y que no resistía una segunda revisión, pero causó daño. Zelenski nunca hizo ese vídeo, era un “deepfake” o contenido hecho mediante Inteligencia Artificial.
Poco después de que se transmitiera el deepfake, el propio Zelenski lo desmintió, fue eliminado de las redes sociales como Facebook y YouTube, y muchos ucranianos lo ridiculizaron, porque el video en cuestión estaba muy mal hecho, según el Atlantic Council.com
Sin embargo, el hecho de que se descubriera rápidamente que el vídeo era falso no significa que no haya tenido repercusión en la comunidad. En un mundo cada vez más polarizado políticamente, la acelerada creación de contenidos falsos y malintencionados o deepfakes, sin duda, representan un peligro para el pensamiento crítico y democrático, porque siembran confusión y duda, además de reafirmar prejuicios limitantes en los ciudadanos.
Polarización política
Los consumidores de medios están más predispuestos a creer en la información que refuerza sus prejuicios, independientemente de la aparente legitimidad de los contenidos, los deepfakes representan una amenaza significativa para una sociedad que cuestiona, que critica, que quiere conocer la verdad, advierte Don Fallis, profesor de Informática y Filosofía de la Universidad Northeastern, en Estados Unidos.
Había todo tipo de indicadores de que el consumidor promedio de información podría pensar: “Esto es un contenido sospechoso o de mala calidad”, dice Fallis sobre el deepfake de Zelenski.
“Las fuentes de desinformación están por todos lados, lo que menos parece importar es si el contenido es creíble o no; si la persona tiene una fuerte inclinación hacia un punto de vista particular y recibe una información que confirma ese sesgo preexistente, la fuente de esa información, y su verosimilitud importan poco, sirven para afianzar creencias.” “Queremos ver y oír los contenidos que confirman las ideas que ya tenemos en nuestras mentes, no importa de dónde provengan.”
Las deepfakes son fáciles de consumir
En 2018, una investigación conjunta de Fallis y la profesora Kay Mathiesen de la Universidad de Northeastern se estudió la epistemología o teoría del conocimiento, que intenta situar estos fenómenos, como los deepfakes y las noticias falsas, en el contexto filosófico más amplio de cómo los individuos adquieren y digieren el conocimiento verdadero, así como la información errónea.
En este artículo se expone porque que Las noticias falsas suponen una grave amenaza para el conocimiento y la democracia. Para hacer frente a esta amenaza, es importante comprender exactamente qué son las noticias falsas. Las definiciones propuestas resumen que se entiende que las noticias falsas se definen más bien como noticias falsificadas.
Diferencias básicas de lo verdadero y lo falso
Una historia es una noticia genuina si y sólo si ha pasado por el proceso periodístico moderno tradicional que involucra a periodistas, verificadores de datos y editores capacitados profesionalmente. Y una historia es una noticia falsa si y sólo si, no contiene datos verdaderos o contrastados, sino que se presenta como noticia genuina, con la intención de engañar, confundir o crear dudas sobre un determinado tema.
El artículo analizó la amenaza a la democracia y al conocimiento que representan las noticias falsas y buscó definir el concepto. Dos años más tarde, escribieron un artículo sobre los deepfakes, “La amenaza epistémica de los deepfakes”, en el que concluyeron que pueden conducir a creencias falsas, socavar la justificación de creencias verdaderas e impedir que las personas adquieran creencias verdaderas.
Fallis sostiene que tanto las noticias falsas como las deepfakes tienen el efecto negativo de deslegitimar las noticias reales. Dice que disminuyen la cantidad de información verdadera disponible, reducen la confianza de los consumidores en los medios auténticos y suponen una carga adicional para los verificadores de datos para autenticar la gran cantidad de contenido que circula libremente en línea.
Parecen verdaderos, solo parecen
“En el caso de las noticias falsas, se crea una presencia en línea que se supone que parece un sitio de noticias legítimo”, dice Fallis. “En el caso de los deepfakes se crean vídeos y audios que parecen verdaderos”. Cada vez son más realistas y engañan al ojo más entrenado, además son más fáciles de realizar y circulan rápidamente por internet.
Además, se usan herramientas para recopilar información personal de un número importante de usuarios para hacerles llegar los deepfakes, que tienden a utilizarse maliciosamente en estas grandes audiencias y manipularlas jugando con sus prejuicios arraigados, dice Fallis.
“Puede que no se trate sólo de esta tecnología mortal”, “No es que los deepfakes vayan a ser lo único que nos lleve al precipicio. Es todo un conjunto de tecnologías potencialmente conflictivas”, agrega.
Polarización e información que aumenta los prejuicios
La creciente división política tiene un impacto similar en la forma en que la gente interpreta las noticias falsas, donde los usuarios claramente buscan y aceptan información que es compatible con sus prejuicios, señala David Lazer, profesor de Ciencias Políticas e Informática la Universidad de Northeastern. Sin embargo, no está claro hasta qué punto uno pierde sus habilidades de pensamiento crítico cuando se encuentra con medios que refuerzan su visión del mundo.
“Es evidente que hemos visto una mayor polarización en las opiniones del público, y ese es uno de los factores que pueden estar en juego con la difusión de información falsa o confusa”, dice Lazer. “Es bastante plausible que la polarización política y la difusión de información errónea vayan de la mano, ese es un estudio muy necesario actualmente”.
El director del laboratorio Lazer de la Universidad de Northeastern, adelanta investigaciones sobre las redes sociales y su influencia. Los estudios de Lazer se centran principalmente en la proliferación de información errónea en las redes sociales.
En 2019, Lazer fue coautor de un estudio sobre la prevalencia de noticias falsas en X durante el ciclo electoral presidencial de 2016, y concluyó, que la tecnología de las deepfake también es “bastante relevante” para sus estudios, sin embargo, es necesario realizar más investigaciones sobre los diferentes tipos de información errónea, cómo se difunden y su impacto psicológico en los consumidores de medios. El aumento de la polarización política y su impacto en el consumo de medios también es un área de estudio de alta prioridad, añade el académico.
Mayor división en las opiniones
“Podemos decir que en los últimos 40 años ha habido una mayor polarización de muchos tipos, y eso es muy preocupante”, dice Lazer.
Más allá del problema de que los usuarios no cuestionen los deepfakes que hallen en las redes, si el contenido confirma su visión del mundo actual, la tecnología plantea otras preocupaciones importantes.
Uno de los usos más problemáticos de la tecnología es cuando la imagen de un individuo, la mayoría de las veces, una mujer, es manipulada y mostrada en un video sexualmente explícito.
Marc Berkman, director de la Organización para la Seguridad de las Redes Sociales denuncia que este uso de la IA para hacer circular contenidos que dañan a mujeres reales mostrándolas en contenidos falsos como si participaran en actividades sexuales, han aumentado y las víctimas no saben cómo protegerse, denunciar o eliminar estos contenidos altamente ofensivos e incluso perjudiciales para su salud mental.
Siembras dudas y confusión
Los deepfakes pueden potencialmente interferir con las elecciones democráticas y usarse como propaganda para sembrar división y duda, dice. Fallis y Berkman hacen énfasis en la importancia de que los usuarios cultiven habilidades de pensamiento crítico cuando se aventuran en línea. Una forma que tienen las personas de protegerse contra los deepfakes es hacer un uso seguro de las redes sociales. Lo primero es abordar el contenido, en particular las noticias, con ojo crítico, pero para eso se necesita educación y pensamiento crítico.
La Organización para la Seguridad de las Redes Sociales actualmente apoya la capacitación sobre medios en las escuelas públicas, ayudando a los niños a comprender las fuentes de noticias para que puedan adoptar un enfoque no partidista para evaluar y comprender la credibilidad del contenido.
Detectar contenidos reales
“Es increíblemente importante para nuestra democracia entender qué es real y qué no”, dice Berkman. “También es importante limitar el tiempo en las redes sociales a cantidades saludables, para que las personas puedan detectar y evitar los deepfakes utilizados con fines propagandísticos”.
Sin embargo, señalan Fallis y Berkman, los esfuerzos individuales no pueden reemplazar los cambios estructurales de las empresas y los gobiernos destinados a combatir la proliferación de esta tecnología potencialmente peligrosa.
Los gigantes de las redes sociales, como Facebook, adoptaron políticas que prometen eliminar los deepfakes de sus plataformas si cumplen ciertos criterios, y algunos gobiernos estatales, como el de California, han adoptado leyes que imponen responsabilidad civil a los creadores de deepfakes intencionalmente dañinos.
En el estado de California, dice Berkman, su organización está trabajando para que se apruebe una ley estatal que imponga castigos penales a los creadores de deepfakes pornográficos maliciosos, con la esperanza de que este tipo de ley se expanda a otros estados y que el gobierno federal adopte una legislación similar.
El origen de las deepfakes
Las primeras deepfakes aparecieron en 2014, cuando Ian Goodfellow las inventó cuando hacía su doctorado en aprendizaje automático en la Universidad de Montreal. Actualmente es científico investigador en DeepMind, un laboratorio de investigación de IA dirigido por Google. Para crear deepfakes, ideó un modelo de aprendizaje automático llamado redes generativas adversarias o GAN.
A medida que la IA progresaba, estos engaños se han vuelto más convincentes y más fáciles de hacer. Los deepfakers como se conocen sus creadores alguna vez tuvieron que esforzarse en herramientas de software como Adobe Photoshop o AfterEffects, editando cada video cuadro por cuadro en un proceso arduo y que requería mucho tiempo.
Hacer deepfakes es barato y fácil
En la actualidad, las redes neuronales profundas han avanzado para ayudar a las GAN a operar con mayor precisión, y ahora hay grandes bases de datos públicas y métodos de aprendizaje profundo ampliamente disponibles gracias a herramientas en línea gratuitas y accesibles. Como resultado, es más barato crear deepfakes.
A finales de 2022, un clon de voz costaba alrededor de más o menos 10.000 dólares estadounidenses en costos de servidor y capacitación de IA, pero ahora puedes crear deepfakes con software estándar con unos pocos dólares.
“Está democratizando el acceso a herramientas que históricamente han estado en manos de unos pocos y ahora están en manos de muchos”, dice a Hany Farid, profesor de Ciencias Informáticas e Ingeniería Eléctrica de la Universidad de Berkeley, en California.
Cómo detectar deepfakes
Hay muchísimos recursos en línea que muestran pistas falsas para descifrar imágenes manipuladas para crear un deepfake. Anteriormente, con generadores de imágenes de IA que luchaban por replicar con precisión manos humanas. Era frecuente que las personas en estos contenidos falsos aparecieran con dedos adicionales o torcidos.
Con los generadores de imágenes como MidJourney, ahora se pueden representar con precisión las manos humanas. Ya sea que estos consejos de detección provengan de Reddit o del MIT Media Lab.
“Aquí está el problema: puedo decirles algunas cosas, pero dentro de seis meses ese consejo ya no será útil”, dice Farid. El juego de los deepfake avanza tan rápido que buscar errores no es el mejor mecanismo para defenderse de ellas.
La procedencia del contenido
“La mejor manera de protegerse contra el fraude y la desinformación en línea es usando una forma vieja y tradicional: conocer de dónde procede esta información”, explica Farid.
La gran mayoría de los contenidos que circulan en redes deben ser vistos con mucha cautela. Los que provienen de medios editoriales confiables como New York Times, The Washington Post, BBC, etc. tienen muchas menos posibilidades de ser falsificados. Los medios serios no van a perder su prestigio publicando contenidos dudosos o deepfakes y perder audiencia y credibilidad. La mayoría de los medios tienen un proceso de verificación para saber si los videos que publicaran son reales. Puede que alguna vez se equivoquen, pero no es su intención ni es habitual.
Lo importante es determinar el origen de los contenidos para determinar su veracidad. Esta es una de las formas más básicas de análisis forense digital que puede utilizar para verificar el contenido rápidamente.
El análisis forense digital es una rama de la ciencia forense que se centra en identificar, adquirir, procesar, analizar e informar sobre datos almacenados electrónicamente.