• Login
SUSCRIBETE
No Result
View All Result

No hay productos en el carrito.

Cambio16
  • Personas
  • Sociedad
  • Naturaleza
Cambio16
  • Personas
  • Sociedad
  • Naturaleza
  • Login
Cambio16

>> Cambio16 > SOCIEDAD > Cambio de algoritmo de Facebook no modificó actitudes políticas de los usuarios

Cambio de algoritmo de Facebook no modificó actitudes políticas de los usuarios

Mariela León by Mariela León
07/08/2023
in Ciencia & Tecnología, SOCIEDAD
0
Noticias Basada en hechos, observados y verificados por el periodista o por fuentes. Incluye múltiples puntos de vista, sin la opinión del autor. Si incorpora análisis, se etiqueta como noticias y análisis.
faceboog

Los algoritmos han sido criticados por amplificar la información errónea y el contenido ideológico que ha empeorado las divisiones políticas en EE UU, especialmente en las elecciones 2020 | Archivo Cambio16

Las controvertidas elecciones presidenciales de Estados Unidos de 2020, en las que se midieron Joe Biden y Donald Trump, todavía repercuten en los tribunales y medios de comunicación. Varios estudios innovadores se han dedicado a hurgar en los algoritmos utilizados por Facebook e Instagram en la desinformación y la polarización política en EE UU. Y, obviamente, su incidencia en el comportamiento de los electores.

Tres artículos publicados en Science y uno en Nature presentan algunas de las primeras conclusiones del Estudio de elecciones de Facebook e Instagram (FIES) de 2020. Allí, los investigadores se unieron a Meta, la empresa detrás de Instagram y Facebook, para estudiar los efectos de las redes sociales en las actitudes de decenas de miles de usuarios durante el polémico proceso electoral.

“Estos son grandes experimentos”, comentó Stephan Lewandowsky. Un psicólogo de la Universidad de Bristol que no formó parte del trabajo. “Y los resultados alcanzados son bastante interesantes”.

Con la cooperación de Meta, los investigadores analizaron datos de millones de usuarios de Facebook e Instagram relacionados con las elecciones presidenciales de EE UU de 2020. Y encuestaron a usuarios específicos que aceptaron participar.

Un área de investigación se centró en los algoritmos de las redes sociales y cómo afectan las actitudes y el comportamiento de los votantes.

It’s been an honor to work with @j_a_tucker and a team of academic and Meta researchers on a project about Facebook and Instagram during the 2020 elections. The first four papers (more to come) were published and they reveal:
(1/10)

— Talia Stroud (@TaliaStroud) July 28, 2023

Los algoritmos sugieren contenido para los usuarios haciendo suposiciones basadas en los grupos, amigos, temas y titulares en los que un usuario ha hecho clic en el pasado. Los algoritmos han sido criticados por amplificar la información errónea y el contenido ideológico que ha empeorado las divisiones políticas en EE UU. Las propuestas para regular estos sistemas se encuentran entre las ideas más discutidas para abordar el papel de las redes en la difusión de información errónea y el fomento de la polarización.

Faceboock y la polarización política en EE UU

Pero cuando los investigadores cambiaron los algoritmos para algunos usuarios durante las elecciones de 2020, vieron poca diferencia. «Descubrimos que los algoritmos son extremadamente influyentes en las experiencias de las personas en la plataforma. Y existe una segregación ideológica significativa en la exposición de noticias políticas», señaló Talia Jomini Stroud, directora del Centro para la Participación de los Medios en la Universidad de Texas en Austin y una de las líderes de los estudios. “También encontramos que las propuestas populares para cambiar los algoritmos de las redes no influyeron en las actitudes políticas”, agregó.

Cuando los investigadores reemplazaron el algoritmo con una simple lista cronológica de publicaciones de amigos, una opción que Facebook puso recientemente a disposición de los usuarios, no tuvo un impacto medible en la polarización en comicios de EE UU. Cuando desactivaron la opción de compartir de Facebook, que permite a los usuarios compartir rápidamente publicaciones virales, los usuarios vieron significativamente menos noticias de fuentes no confiables, y menos noticias políticas en general. Pero no hubo cambios significativos en sus actitudes políticas.

During the 2020 election, we conducted a 23k-person pre-registered field experiment on Facebook, reducing exposure to content from politically like-minded sources: https://t.co/UGH4RcAp3g. The article has a wealth of other information, including stats on platform "echo chambers."

— Emily Thorson (@emilythorson) July 27, 2023

Asimismo, reducir el contenido que los usuarios de Facebook obtienen de cuentas con la misma alineación ideológica no tuvo un efecto significativo sobre la polarización. La susceptibilidad a la desinformación o las opiniones extremistas, revelan los estudios científicos.

Juntos, los hallazgos sugieren que los usuarios de Facebook buscan contenido que se alinee con sus puntos de vista. Y que los algoritmos ayudan «haciendo que sea más fácil para las personas hacer lo que les gusta hacer», según David Lazer, profesor de la Universidad Northeastern que trabajó en los cuatro papeles, reseñó The Guardian.

Desinformación entre liberales y conservadores

Los investigadores observaron que eliminar el algoritmo por completo redujo drásticamente el tiempo que los usuarios pasaban en Facebook o Instagram. Mientras aumentaba su tiempo en TikTok, YouTube u otros sitios, lo que demuestra cuán importantes son estos sistemas para Meta en el panorama cada vez más concurrido de las redes sociales.

El trabajo también reveló el alcance de las diferencias ideológicas de los usuarios de Facebook y las diferentes formas en que conservadores y liberales usan la plataforma para obtener noticias e información sobre política y su polarización en EE UU.

New @nature: Like-minded sources on Facebook are prevalent but not polarizinghttps://t.co/SRLyGB50Fa (open access!)

Our key findings:
-Median FB user gets 50.4% of content from like-minded sources
-But reducing exposure by ~1/3 for 3 months had no measurable effect on attitudes pic.twitter.com/IpaHQ0bnGz

— Brendan Nyhan (@Brendan.J.Nyhan on 🧵🧵🧵) (@BrendanNyhan) July 27, 2023

Los usuarios conservadores de Facebook tienen más probabilidades de consumir contenido que los verificadores de datos han etiquetado como información errónea. También tienen más fuentes para elegir. El análisis encontró que entre los sitios web incluidos en las publicaciones políticas de Facebook, muchos más se dirigen a los conservadores que a los liberales.

El 97 % de las fuentes de noticias políticas en Facebook que difundieron información errónea fueron más populares entre los conservadores que entre los liberales. Los investigadores obtuvieron un acceso sin precedentes a los datos de Facebook e Instagram de las elecciones de 2020. Mediante una colaboración con Meta. Señalaron que Meta no ejerció ningún control sobre sus hallazgos.

Los autores de los artículos reconocieron algunas limitaciones en su trabajo. Si bien descubrieron que cambiar los algoritmos de Facebook tuvo poco impacto en la polarización, señalan que el estudio solo cubrió unos pocos meses durante las elecciones de 2020. Y, por lo tanto, no puede evaluar el impacto a largo plazo que han tenido los algoritmos.

Groundbreaking work “quartet” on @ScienceMagazine and @Nature presents some of the first conclusions of the 2020 Facebook and Instagram Election Study (FIES).@davidlazer @NUnetsi @NUGlobalNews https://t.co/2RgKiEigdo

— Alessandro Vespignani (@alexvespi) July 29, 2023

También notaron que la mayoría de las personas obtienen sus noticias e información de varias fuentes (tele, radio, Internet y el boca a boca). Y que esas interacciones podrían afectar las opiniones de las personas.

Incidencia de las redes sociales

Katie Harbath, exdirectora de políticas públicas de Facebook, indicó que los hallazgos mostraron la necesidad de una mayor investigación sobre las redes sociales y la polarización en EE UU. Y desafió las suposiciones sobre el papel que juegan las redes sociales en la democracia estadounidense. Ella no participó en la investigación.

“La gente quiere una solución simple y lo que muestran estos estudios es que no es simple”, adicionó Harbath. También miembro del Bipartisan Policy Center y directora de la firma de tecnología y política Anchor Change. “Refuerza que cuando se trata de polarización, o de las creencias políticas de las personas, hay mucho más en esto que las redes”.

The effects of social-media feed algorithms on political polarization. https://t.co/HCwuHp3XvF

— nature (@Nature) August 1, 2023

Entretanto, el presidente de asuntos globales de Meta, Nick Clegg, se refirió a los hallazgos. Mostraron que «hay poca evidencia de que las características clave de las plataformas de Meta por sí solas causen una polarización ‘afectiva’ dañina. O tengan un impacto significativo en las actitudes, creencias o comportamientos políticos clave».

Pero la realidad es más complicada que eso, según los críticos. Advirtieron que los hallazgos no deberían permitir que las empresas de redes se liberen de la lucha contra la desinformación.

“Los estudios que respalda Meta no deberían servir para permitir que se propaguen mentiras”, señaló al Washington Post, Nora Benavidez. Asesora principal del grupo de derechos civiles digitales Free Press. “Las plataformas de redes sociales deberían intensificarse antes de las elecciones. No inventar esquemas para eludir la rendición de cuentas”.

Frances Haugen, exempleada de Facebook, criticó el momento de la investigación. Dijo que se produjo después de que Meta promulgó medidas de protección electoral más agresivas para abordar la información errónea previa a los comicios. Y cuando comenzó el experimento, muchos usuarios ya se habían unido a grupos que los habrían inundado con contenido cuestionable.

Lee también en Cambio16.com:

Facebook y Twitter se adelantan a la Justicia, ya condenaron a Donald Trump

Suscríbete y apóyanos «Por un mundo más humano, justo y regenerativo»

Gracias por leer Cambio16. Vuestra suscripción no solo proporcionará noticias precisas y veraces, sino que también contribuirá al resurgimiento del periodismo en España para la transformación de la conciencia y de la sociedad mediante el crecimiento personal, la defensa de las libertades, las democracias, la justicia social, la conservación del medio ambiente y la biodiversidad.

Dado que nuestros ingresos operativos se ven sometidos a una gran presión, su apoyo puede ayudarnos a llevar a cabo el importante trabajo que hacemos. Si puedes, apoya a Cambio16 ¡Gracias por tu aportación!

  • ¡Oferta!

    Revista 2299 Suscripción Total

    40,00€ 36,00€
    Añadir al carrito
  • ¡Oferta!

    Revista 2299 Suscripción Digital

    23,00€ 19,90€
    Añadir al carrito
  • Revista 2299

    4,00€
    Añadir al carrito
  • Revista 2299 (Digital)

    2,30€
    Añadir al carrito
Tags: algoritmosElecciones de EE UU 2020FacebookInstagramPolarización política EE UURedes Sociales
Anterior

Condenados a 16 años de cárcel 6 sindicalistas que pedían mejores condiciones laborales

Siguiente

Objetivos climáticos fragmentan el G20

Citations & References:

Like-minded sources on Facebook are prevalent but not polarizing. Nature.com

Does social media polarize voters? Unprecedented experiments on Facebook users reveal surprises. Science.org

Changing Meta’s algorithms did not help US political polarization, study finds. Theguardian.com

Changing Facebook’s algorithm won’t fix polarization, new study finds. Washingtonpost.com

Dateline:

Madrid, España

Conforme a los criterios de
Saber más

Areas of Expertise:

Mundo
Economía
Energía

Location Expertise:

Venezuela
Madrid, España
Iberoamérica

Official Title:

Subcoordinadora y redactora de Cambio16

Phone Number:

+34 914 201 199

Email Address:

mariela.leon@cambio16.com

Mariela León

Mariela León

Venezolana radicada en Venezuela. Licenciada en Comunicación Social en la Universidad Católica Andrés Bello. Subcoordinadora y redactora de las versiones digitales e impresas de Cambio16 y Energía16. Redactora de la revista Cambio Financiero. Con gran experiencia en la cobertura de las fuentes Ciudad, Educación, Iglesia, Laboral, Partidos Políticos, Cancillería, Parlamento y Palacio de Gobierno, para periódicos como El Mundo, Reporte de la Economía y El Universal. Membresía: Asociación de Revistas ARI, Colegio Nacional de Periodistas (CNP) y Sindicato Nacional de la Prensa de Venezuela (SNTP).

Articulos Relacionados

captura CO2
Ciencia & Tecnología

Los proyectos de captura de CO2 no funcionan, impulsan la extracción de petróleo y gas 

03/10/2023
vacuna de ARN mensajero
Ciencia & Tecnología

Por la tecnología del ARN mensajero Katalin Karikó y Drew Weissman ganaron el Nobel de Medicina

03/10/2023
pymes carbono emisiones
Economía y finanzas

La pymes pueden gestionar con eficacia sus emisiones de carbono 

03/10/2023
Marina Abramović
Cultura

MARINA ABRAMOVIĆ, la retrospectiva

03/10/2023
Next Post
G20 combustibles fósiles

Objetivos climáticos fragmentan el G20

TRUSTPROJECT

Conforme a los criterios de
Saber más

SUSCRIBETE C16

APÚNTATE AQUÍ A TU SUSCRIPCIÓN

RECTANGULO3:1

ROBA_1

ROBA_2

ROBA_3

ROBA_4

ROBA_5


© 2020 Cambio16 – Premium WordPress news & magazine theme by cambio16.

Navigate Site

  • Grupo EIG Multimedia S.L.
  • Términos y condiciones de uso
  • Política de privacidad
  • Política de cookies
  • Política Editorial – The Trust Project
  • Contactar

Secure

DMCA.com Protection Status

© 2020 Cambio16 - Premium WordPress news & magazine theme by cambio16.

No Result
View All Result
  • PERSONAS
    • Desarrollo Humano
    • Salud y Bienestar
    • Entrevistas
  • SOCIEDAD
    • Ciencia & Tecnología
    • Medicina
    • Ciudadanía
    • Derechos Humanos
    • Cultura
    • Economía y finanzas
  • NATURALEZA
    • Biodiversidad
    • Medioambiente
    • Sostenibilidad
    • Mundo
  • ACCIONES
    • Congreso Internacional de Sostenibilidad
    • Premios Cambio16
    • Women for Hope
  • Energia16
  • Clima16
  • Cambio16 TV
  • Tienda
  • Contactar
  • Mi Perfil

© 2020 Cambio16 - Premium WordPress news & magazine theme by cambio16.

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In