:: BRúJULA
09/09/2020

Herramientas para combatir la desinformación

Entre 2013 y 2019 se registraron 96 campañas difundidas por redes sociales dirigidas a 30 países que pretendieron difamar a personas reconocidas, persuadir al público o polarizar debates. Alrededor del 93% de estas campañas incluyeron la creación de contenido original, 86% amplificaron contenido preexistente y 74% distorsionaron hechos verificables de manera objetiva.

Fake news

Fake news

Con el fin de promover la alfabetización mediática y combatir la desinformación en tiempos de redes sociales e hiperconexión global, Microsoft anunció una serie de iniciativas que ayudan a reconocer y destrabar fake news, deepfakes, entre otros contenidos. Esta propuesta se enmarca en el programa Defender la democracia (Defending Democracy, en inglés) de la compañía que busca aportar soluciones para vivir en sistemas democráticos más justos, transparentes e inclusivos. El proyecto incluye nuevas herramientas tecnológicas para combatir la desinformación, trabajos para ayudar a educar al público sobre esta problemática y alianzas con asociaciones y organizaciones comprometidas con la causa.

De acuerdo con una investigación realizada por el profesor Jacob Shapiro en Princeton, y apoyada por Microsoft, entre 2013 y 2019 se registraron 96 campañas difundidas por redes sociales dirigidas a 30 países que pretendieron difamar a personas reconocidas, persuadir al público o polarizar debates. Mientras que el 26% de estas campañas fueron orientadas a Estados Unidos, también llegaron a otros países como Alemania, Arabia Saudita, Armenia, Australia, Brasil, Canadá, Francia, Holanda, Polonia, Reino Unido, Sudáfrica, Taiwán, Ucrania y Yemen. Alrededor del 93% de estas campañas incluyeron la creación de contenido original, 86% amplificaron contenido preexistente y 74% distorsionaron hechos verificables de manera objetiva. Reportes recientes también muestran que la desinformación ha sido distribuida alrededor de la pandemia de COVID-19, lo que ha llevado a muertes y hospitalizaciones de personas que buscaban supuestas curas que en realidad son peligrosas.

Nuevas tecnologías para el bienestar democrático

La desinformación se manifiesta de muchas formas y una sola tecnología no resolverá el desafío de ayudar a las personas a descifrar qué es cierto y preciso. Por eso, Microsoft trabajó en dos tecnologías diferentes para hacer frente a los diversos aspectos del problema.

  • Microsoft Video Authneticator para desentrañar deepfakes. En la actualidad, un gran problema son las deepfakes; es decir, fotos, videos o archivos de audio manipulados por inteligencia artificial (IA) en formas que son difíciles de detectar. Pueden aparecer para hacer que la gente diga cosas que no dijo o estar en lugares donde no estuvo. Al estar generadas por IA pueden continuar aprendiendo, lo que vuelve inevitable que puedan vencer a la tecnología convencional de detección. Sin embargo, a corto plazo, como las próximas elecciones en Estados Unidos, las tecnologías avanzadas de detección pueden ser una herramienta útil para ayudar a los usuarios más exigentes a identificar deepfakes. Gracias a Microsoft Video Authenticator se puede analizar una foto fija o un video para brindar un porcentaje de probabilidad, o una calificación de confianza, de que el medio haya sido manipulado de manera artificial. En el caso de un video, puede brindar este porcentaje en tiempo real sobre cada cuadro a medida que se reproduce el video. Funciona a través de detectar el límite de fusión del deepfake y el sutil desvanecimiento o elementos de escala de grises que tal vez no puedan ser detectados por el ojo humano.

En un principio, esta tecnología fue desarrollada por Microsoft Research, en coordinación con el equipo de Responsible AI de Microsoft y el Comité de IA, ética y efectos en ingeniería e investigación (AETHER, por sus siglas en inglés) de Microsoft, que es un consejo asesor en Microsoft que ayuda a asegurar que la nueva tecnología sea desarrollada e integrada de manera responsable. Video Authenticator fue creado a través de una base de datos pública de Face Forensic++ y fue probada en el DeepFake Detection Challenge Dataset, ambos modelos líderes para el entrenamiento y pruebas de tecnologías de detección de deepfake.

  • Tecnología basada en Azure para evitar contenido adulterado. Esta una nueva tecnología puede detectar contenido manipulado y asegurar a las personas que los medios que ven son auténticos. La misma tiene dos componentes: el primero es una herramienta integrada en Microsoft Azure, que permite a un productor de contenido agregar hashes (por ejemplo, contraseñas) y certificados al contenido que crea, y que quedarán en él como metadatos, donde sea que viajen en línea. El segundo es un lector, que puede existir como una extensión de navegador o en otras formas, que comprueba los certificados y relaciona los hashes, para permitir a la gente saber, con alto grado de precisión, que el contenido es auténtico y que no ha sido cambiado, así como brindar detalles sobre quién lo produjo.

Esta tecnología ha sido construida por Microsoft Research y Microsoft Azure, en asociación con el Programa Defending Democracy, y están unidas a una iniciativa recién anunciada por la BBC, llamada Project Origin. 

Alfabetización mediática: entre el pensamiento crítico y la acción

Otra de las alianzas de Microsoft es con la Universidad de Washington (UW), Sensity y USA Today para trabajar por la alfabetización mediática. Mejorarla ayudará a la gente a prepararse ante la desinformación de los hechos genuinos y a manejar los riesgos presentados por los deepfakes y los cheap fakes. El conocimiento mediático práctico permite pensar de manera crítica sobre el contexto de los medios e involucrar más a los ciudadanos en sus consumos mediáticos.

Por eso, Microsoft lanzó una trivia interactiva para que los votantes en Estados Unidos aprendan más sobre nuevos medios, desarrollar habilidades críticas de alfabetización mediática y obtener conciencia del impacto de los nuevos medios con contenido sintético o manipulado en la democracia. Spot the Deepfake Quiz es una herramienta de alfabetización mediática en forma de una experiencia interactiva, desarrollada en asociación con el Centro para un Público Informado de la UW, Sensity y USA Today. Esta trivia será distribuida a través de la red y de propiedades de redes sociales de USA Today, Microsoft y la Universidad de Washington y a través de anuncios en redes sociales.

Por último, se actualizó la implementación NewsGuard, que permite a las personas aprender más sobre una fuente de noticias en línea antes de consumir su contenido. NewsGuard trabaja con un equipo de experimentados periodistas que califican sitios web de noticias con base en nueve criterios de integridad periodística, que utilizan para crear tanto una “etiqueta nutricional” como una clasificación roja/verde para cada sitio web de noticias evaluado. La gente puede acceder al servicio de NewsGuard al descargar una sencilla extensión de navegador, que está disponible para todos los navegadores estándar. Es gratis para usuarios del navegador Microsoft Edge. Algo que es importante aclarar, Microsoft no tiene control editorial sobre ninguna de las calificaciones de NewsGuard y la extensión no limita el acceso a la información de ninguna forma. En su lugar, NewsGuard busca brindar mayor transparencia e invitar a la alfabetización mediática al brindar un contexto importante sobre la fuente de noticias. 

Ampliar la comunidad: alianzas con asociaciones comprometidas

Ninguna organización, por sí sola, podrá tener un impacto significativo en combatir la desinformación y los daños ocasionados por las deepfakes. 

  • Alianza con la AI Foundation, una empresa dual, comercial y sin fines de lucro, ubicada en San Francisco, con la misión de llevar el poder y la protección de la IA para todas las personas del mundo. A través de esta asociación, la iniciativa Reality Defender 2020 (RD2020), de AI Foundation, pondrá a disposición Video Authenticator para las organizaciones involucradas en el proceso democrático, incluidos nuevos medios y campañas políticas. Video Authenticator estará disponible, en un principio, sólo a través de RD2020, que guiará a las organizaciones a través de las limitaciones y consideraciones éticas inherentes en cualquier tecnología de detección de deepfake. Campañas y periodistas interesados en aprender más, pueden contactar aquí a RD2020.
  • Además, Microsoft se ha asociado con un consorcio de compañías de medios, incluida la BBC, CBC/Radio-Canada y el New York Times, en Project Origin, que probará tecnología de autenticidad de Microsoft y ayudará a avanzar en un estándar que pueda ser adoptado de manera amplia. La iniciativa Trusted News, que incluye a un rango de editoriales y compañías de redes sociales, también ha aceptado involucrarse con esta tecnología. En los próximos meses se espera ampliar el trabajo en esta área hacia más empresas de tecnología, editoriales de noticias y compañías de redes sociales.

Este anuncio es una parte importante del Programa Defending Democracy de Microsoft que, además de combatir la desinformación, ayuda a proteger a los votantes a través de ElectionGuard y ayuda a asegurar las campañas y a otros involucrados en el proceso democrático a través de AccountGuardMicrosoft 365 for Campaigns y Election Security Advisors. También es parte de un foco más amplio para proteger y promover el periodismo, como lo discutieron Brad Smith y Carol Ann Browne en su Top Ten Tech Policy Issues for the 2020s.

Búsqueda