Cómo las redes sociales luchan contra las ‘deepfakes’

  • La desinformación se ha convertido en uno de los principales problemas de las redes sociales y otras plataformas online donde se comparten contenidos
  • Las “deepfakes” hacen referencia a cambiar, mediante Inteligencia Artificial, el rostro de una persona por el de otra en un vídeo
  • Ante el uso de las últimas tecnologías para propagar la desinformación, a las grandes compañías de internet no les ha quedado más remedio que tomar cartas en el asunto

0

La desinformación se ha convertido en uno de los principales problemas de las redes sociales y otras plataformas online donde se comparten contenidos. La proliferación de noticias falsas -las llamadas “fake news”- de forma masiva, con intenciones poco lícitas, ha sido vista durante demasiado tiempo como una realidad “poco perjudicial” por las principales compañías de Internet, que han actuado con pasividad ante ellas, señalando a los usuarios como únicos responsables de identificar la información veraz eligiendo fuentes de información contrastadas.

Sin embargo, en la práctica al internauta no le resulta fácil diferenciar las noticias que son reales de las que no son más que sátiras, bulos o memes. El problema se ha agudizado al popularizarse la aplicación de tecnologías avanzadas, como la Inteligencia Artificial, para crear informaciones con intereses ocultos que falsean no sólo textos, sino también contenidos audiovisuales, hasta el punto de parecer completamente veraces.

En este sentido destacan los denominados “deepfakes”, nombre que conjuga dos palabras en inglés, “fake” (falso) y “deep learning” (aprendizaje profundo) y que hace referencia a cambiar, mediante Inteligencia Artificial, el rostro de una persona por el de otra en un vídeo. Mediante algoritmos de aprendizaje, analizando patrones de muestra de cientos de vídeos existentes, se pueden imitar los movimientos del rostro de cualquier individuo en cualquier vídeo grabado previamente y parece real que esa persona es la protagonista del mismo.

El resultado es tan realista que los usuarios no tienen forma de darse cuenta de que se ha suplantado la identidad de un personaje popular en un vídeo pornográfico o de que un político está realizando afirmaciones que jamás dijo en realidad. Barack Obama, Donald Trump, Mark Zuckerberg… entre otros, han visto ya cómo sus rostros han sido empleados en vídeos falsos que buscaban propagar la desinformación o, simplemente, ensuciar su reputación. Además, por norma general, esta evolución audiovisual de las “fake news” escritas logra viralizar de forma más rápida que las fotos o los textos, ya que la mayoría de los internautas les conceden total credibilidad y no piensan que hayan podido ser manipulados.

Ante el empleo de las últimas tecnologías para propagar la desinformación, a las grandes compañías de Internet no les ha quedado más remedio que tomar cartas en el asunto, teniendo en cuenta además que este año se celebran Elecciones Presidenciales en Estados Unidos y que ninguna plataforma quiere verse envuelta en un escándalo similar al que puso a Facebook en el centro de la diana al alcanzar Donald Trump la Casa Blanca en 2016.

Precisamente la red social fundada por Mark Zuckerberg ha sido una de las primeras en blindarse ante la publicación de este tipo de contenidos y ha anunciado que prohibirá cualquier manipulación, tanto de textos, como de fotografías y vídeos. Facebook ha declarado la guerra a las “deepfakes”, que serán eliminadas no sólo en su plataforma principal, sino también en el resto de aplicaciones de la “familia Facebook”, es decir, en Messenger, WhatsApp e Instagram.

Facebook empleará su algoritmo y la ayuda de verificadores de información externos en cada país para eliminar aquellos contenidos que hayan sido modificados mediante Inteligencia Artificial con el objetivo de que “no parezcan falsos”. La medida no afecta a contenidos que sean parodias o sátiras, ni a aquellos vídeos que hayan sido creados “artesanalmente” con un programa de edición para cambiar el orden de las frases o cortar palabras.

La red social también ha anunciado otras medidas para luchar contra la desinformación. Por ejemplo, destinará dos millones de dólares a financiar estudios sobre la polarización de las informaciones en la sociedad para entender cómo se distribuyen a través de las redes sociales y cómo impactan en las distintas partes del mundo.

Además, Facebook ha invertido un millón adicional en la creación, junto a la agencia Reuters, de un curso para periodistas con el fin de que los informadores aprendan a identificar fácilmente las informaciones falsas y los "deepfakes" en Internet. "Más del 90% de los contenidos manipulados que se consumen en Internet son sólo vídeos fuera de contexto que utilizan una narrativa distinta", ha reconocido en este sentido Hazel Baker, director de Contenidos Generados por el Usuario de Reuters.

Twitter también ha estado trabajando en los últimos meses para encontrar la mejor manera de luchar contra las “fake news” y las “deepfakes”. El pasado noviembre inició un programa piloto para determinar cómo combatir el impacto de los vídeos manipulados en la plataforma en el que han participado 6.500 usuarios y expertos en todo el mundo. Tras analizar los resultados obtenidos, Twitter ha actualizado su documento de Normas de Uso, en el que determina que actuará eliminando los contenidos manipulados tan pronto sean identificados.

La medida entrará en vigor en Twitter el próximo 5 de marzo. A partir de ese día, Twitter no permitirá la publicación o que se compartan contenidos audiovisuales que puedan dañar a terceros, suponer una amenaza o enaltecer el terrorismo, entre otras causas. Sin embargo, la red social sí permitirá aquellos vídeos manipulados que puedan servir de contexto a los usuarios para entender una información, aunque los marcará añadiéndoles un aviso y una etiqueta de color.

La compañía dejará en manos de su algoritmo la identificación de estos contenidos cuya composición se haya alterado arbitrariamente, en los que se incluyan nuevos subtítulos o en los que se haya empleado Inteligencia Artificial para suplantar la identidad de otras personas. Además, también tendrá en cuenta el texto que acompañe al vídeo, los metadatos, la información que se incluya en la bio de la persona que comparta el vídeo… entre otras variables.

Por su parte, Google también ha decidido actuar para limitar el alcance de estas publicaciones "deepfakes". Dentro del conglomerado Alphabet -empresa propietaria de Google- se encuentra una compañía adquirida hace tres años que se llama Jigsaw y que, junto a la Universidad de Múnich (Alemania), ha creado una base de datos con más de 3.000 vídeos elaborados con Inteligencia Artificial con el objeto de que sus investigadores sean capaces de desarrollar un algoritmo que detecte y elimine automáticamente los “deepfakes” subidos a YouTube y a otros servicios de Google.

Además, Google ha creado una herramienta llamada “Assemble” que permite a los periodistas identificar imágenes manipuladas. Su algoritmo es tan avanzado que es capaz de detectar manipulaciones mínimas como el retoque del brillo de la imagen o el pegado de píxeles para ocultar detalles en las imágenes incluso cuando se mantiene la misma textura visual.

Lucha contra la desinformación por el Coronavirus

Junto a la proliferación de "deepfakes", en los últimos días la preocupación a nivel internacional por el desarrollo del Coronavirus también ha provocado que las redes sociales se hayan visto plagadas de contenidos alarmistas o que buscaban desinformar con respecto a la enfermedad.

En esta ocasión, la reacción de las plataformas de Internet ha sido mucho más rápida. Google ha limitado los resultados y su algoritmo ofrece información seleccionada de fuentes oficiales cuando se realiza una búsqueda relacionada con la enfermedad. Además, en su herramienta Google Maps algunos usuarios han creado una capa en la que van actualizando constantemente la ubicación de los nuevos casos que van confirmándose en el mundo.

Facebook, por su parte, ha prohibido toda la publicidad relacionada con el Coronavirus. La red social ha modificado sus Condiciones de Uso para incluir, entre los productos que no se pueden anunciar en la plataforma, las mascarillas y el gel antiséptico, cuando impliquen sensación de urgencia al emplear palabras como “suministro limitado” o “últimas unidades”. Los usuarios no podrán adquirir publicidad sobre estos productos ni en la red social ni tampoco venderlos en Marketplace, donde se controlará el precio para evitar subidas alarmantes.

Además, la red social también realiza la retirada de todo el contenido sobre la enfermedad que sea considerado fraudulento por su equipo de expertos y verificadores. Como curiosidad, la compañía ha cancelado la celebración de su Cumbre Global de Marketing en San Francisco (Estados Unidos), como medida preventiva por miedo a posibles contagios, y ha solicitado a todos sus empleados que no viajen a China.

Leave A Reply