Meta y TikTok en problemas: las plataformas aprueban anuncios con información política falsa

No es novedad que la información errónea ronda las redes sociales sobre todo en épocas de elecciones políticas, y ahora nuevamente Facebook junto a TikTok están en el ojo de la tormenta.
Las redes sociales admiten anuncios con información política errónea en la previa a las elecciones en EE.UU.
Las redes sociales admiten anuncios con información política errónea en la previa a las elecciones en EE.UU.

Con las elecciones intermedias de EE. UU. cada vez más cerca, una nueva investigación realizada por el grupo de derechos humanos Global Witness, en asociación con el equipo de Ciberseguridad para la Democracia de la Universidad de Nueva York , descubrió que Meta y TikTok están aprobando anuncios que incluyen información política errónea y que violan claramente sus políticas publicitarias establecidas.

Para probar los procesos de aprobación de anuncios para cada plataforma, los investigadores enviaron 20 anuncios a cada una de las redes sociales, a través de cuentas ficticias, a YouTube, Facebook y TikTok.

Según el informe que presentó el equipo de investigación: “En total, enviamos diez anuncios en inglés y diez en español a cada plataforma, cinco con información electoral falsa y cinco con el objetivo de deslegitimar el proceso electoral. Elegimos enfocarnos en la desinformación en cinco estados ‘campo de batalla’ que tendrán carreras electorales reñidas: Arizona, Colorado, Georgia, Carolina del Norte y Pensilvania”.

Según el resumen del informe, los anuncios enviados contenían claramente información incorrecta que podría impedir que la gente votara, “como información falsa sobre cuándo y dónde votar, métodos de votación (por ejemplo, votar dos veces) y, lo que es más importante, métodos deslegitimados de votación como el voto por correo”.

Los resultados de las pruebas fueron los siguientes:

  • Facebook aprobó dos de los anuncios engañosos en inglés y cinco de los anuncios en español.
  • TikTok aprobó todos los anuncios menos dos (uno en inglés y otro en español).
  • YouTube bloqueó la ejecución de todos los anuncios.

Además de esto, YouTube también prohibió las cuentas de origen que los investigadores habían estado usando para enviar sus anuncios. Dos de sus tres cuentas ficticias permanecen activas en Facebook, mientras que TikTok no eliminó ninguno de sus perfiles.

Es una descripción general que preocupa a solo unas semanas del próximo ciclo electoral importante de EE.UU., mientras que el equipo de Cybersecurity for Democracy también señala que ha realizado experimentos similares en otras regiones.

Facebook aprobó anuncios con información política engañosa en la previa a las elecciones en EE.UU.

“En un experimento similar que Global Witness llevó a cabo en Brasil en agosto, el 100 % de los anuncios de desinformación electoral enviados fueron aprobados por Facebook, y cuando volvimos a probar los anuncios después de informar a Facebook sobre el problema, encontramos que entre el 20 % y el 50 % de los anuncios todavía estaban pasando por el proceso de revisión de anuncios”.

En respuesta a los resultados de los informes realizados, Meta publicó una declaración diciendo: “Estos informes se basaron en una muestra muy pequeña de anuncios y no son representativos dada la cantidad de anuncios políticos que revisamos diariamente en todo el mundo. Nuestro proceso de revisión de anuncios tiene varias capas de análisis y detección, tanto antes como después de que se publique un anuncio. Invertimos recursos significativos para proteger las elecciones, desde nuestros esfuerzos de transparencia líderes en la industria hasta la aplicación de protocolos estrictos en anuncios sobre temas sociales, elecciones o política, y continuaremos haciéndolo”.

Sin embargo TikTok se limitó a agradecer los comentarios sobre sus procesos, que según dicen ellos mismos, ayudarán a fortalecer sus procesos y políticas.