La manipulación del ciberespacio de frente a las elecciones del 2021

Los videos, noticias y fotos falsas, así como el uso de BOTs y la escritura sintética causarán un efecto negativo.

Por Israel Reyes*

Iniciemos preguntando qué tipo de campañas de manipulación podrían amenazar las elecciones de 2020 en EE.UU. y México en el 2021, y lo que vemos son los videos generados por inteligencia artificial (IA por sus siglas en inglés), que son engañosas y a menudo encabezarán la lista, pero también el uso de los BOTs con noticias falsas (FAKE NEWS).

Aunque la tecnología sigue avanzando a la velocidad del internet, su potencial de abuso y amenazas también sigue incrementando alarmante. En base a todas estas amenazas hibridas que vulnera a los estados democráticos, ahora las empresas tecnológicas y los laboratorios académicos priorizaron trabajar y financiar métodos de detección. Las plataformas sociales desarrollaron políticas especiales para los mensajes que contienen «NOTICIAS FALSAS y CONTENIDO MANIPULADO», mensajes de odio y uso de BOT’s, con la esperanza de lograr el equilibrio adecuado entre preservar la libertad de expresión y desactivar las mentiras virales.

Pero ahora, a unos tres meses de las elecciones intermedias presidenciales en EE.UU. que se llevarán al cabo el 3 de noviembre, y aun 12 meses de las elecciones en MEXICO esa ola de imágenes falsas, noticias falsas, usuarios falsos, y ya videos falsos, en movimiento en las redes sociales que agitan y polarizan a las sociedades, parece que nunca han sido controlados por los proveedores de tecnología, especialmente en países como MEXICO y Latinoamérica.

En tanto, otra forma de medios generados por la IA está haciendo titulares, uno que es más difícil de detectar y, sin embargo, mucho más propenso a convertirse en una fuerza generalizada en Internet por activar estímulos neuronales en las cogniciones y emociones de los seres humanos: se trata de texto de voz profunda conocida en inglés como deppfake text lo más nuevo de las armas cibernéticas y armas automatizadas para la manipulación el ciberespacio.

El mes pasado trabajamos en la introducción texto auto generado con AI, conocida como la próxima frontera de la escritura generativa: una IA que puede producir frases impactantemente que suenan humanas (aunque a veces surrealistas).

A medida que su producción se vuelve cada vez más accesible y difícil de distinguir del texto producido por los seres humanos, uno puede imaginar que en un futuro cercano la gran mayoría del contenido escrito que veremos en Internet será producido por máquinas.

Si esto sucediera, ¿cómo cambiaría la forma en que reaccionamos al contenido que nos rodea? ¿Cuál sería la percepción manipulada y cómo reaccionarían los seres humanos en su toma de decisiones basados en esa percepción auto generada por maquinas, BOTs, y humanoides?

Este no sería el primer punto de inflexión mediático de este tipo donde nuestro sentido de lo que es realmente cambiado a la vez. Cuando Photoshop, After Effects y otras herramientas de edición de imágenes comenzaron a surgir hace tres décadas, el potencial transformador de estas herramientas para los esfuerzos artísticos, así como su impacto en nuestra percepción del mundo, fue inmediatamente reconocido.

«Adobe Photoshop es fácilmente el programa que cambia la vida en la historia de la publicación», declaró un artículo de Macworld de 2000, Durante el lanzamiento de Photoshop 6.0.

«Hoy en día, los artistas excelentes añaden toques finales fotografiando sus obras de arte, y los fotógrafos no tendrían nada que ofrecer excepto la realidad, por eso Photoshop mejora significativamente cada uno de sus gráficos. Lo relevante es que llegamos a aceptar esa tecnología por lo que era y desarrollamos un sano escepticismo. Hoy en día, muy pocas personas creen que una portada de una revista muestra el modelo tal como son realmente. (De hecho, a menudo es contenido sin Photoshop que atrae la atención del público.) Y sin embargo, tampoco nos descreimos completamente estas fotos: Si bien hay debates acalorados ocasionales sobre el impacto de la normalización del aerógrafo, o más relevante hoy en día, el filtrado, todavía confiamos en que las fotos muestren a una persona real capturada en un momento específico en el tiempo. Entendemos que cada imagen está arraigada en la realidad.

Los medios generados, propaganda autogenerada, como el vídeo falso (deepfake video), son diferentes. Si se utiliza maliciosamente, no hay un original inalterado, ninguna materia prima que pueda ser producida como base para la comparación o evidencia para un control de hechos.

A principios de la década de 2000, era fácil diseccionar fotos pre-vs-post de celebridades y discutir si este último creó ideales poco realistas de perfección. En 2020, nos enfrentamos a celebridades cada vez más plausibles canjeos en el porno, y clips en los que los líderes mundiales dicen cosas que nunca han dicho antes. Tendremos que ajustarnos, y adaptarnos, a un nuevo nivel de irrealidad. Incluso las plataformas de redes sociales reconocen esta distinción; sus políticas de moderación deepfake distinguen entre el contenido de los medios de comunicación que es sintético y el que es simplemente «modificado».

Para moderar el contenido profundo (deepfake), sin embargo, es necesario saber que está ahí. De todas las formas que existen ahora, el vídeo, las imágenes, los textos y los audios, puede resultar ser más difícil de detectar. Los videos creados por IA a menudo tienen indicaciones digitales donde la salida cae en el valle extraño: «biometría suave» como los movimientos faciales de una persona están apagados; un pendiente o algunos dientes están mal representados; o los latidos del corazón de una persona, detectables a través de cambios sutiles en la coloración, no está presente. Muchos de estos regalos se pueden superar con ajustes de software. En los videos de deepfake de 2018, por ejemplo, el parpadeo de los sujetos a menudo fue incorrecto; pero poco después de que se publicara este descubrimiento, el problema se solucionó. El audio generado puede ser más sutil, sin imágenes, por lo que hay menos oportunidades de errores, pero se están realizando esfuerzos de investigación prometedores para eliminarlos también. La guerra entre falsificadores y autenticadores continuará a perpetuidad.

Tal vez lo más importante, es que el público sea más consciente de la tecnología y sus capacidades para la manipulación de la percepción. De hecho, ese conocimiento puede representar en última instancia un tipo diferente de riesgo, relacionado con el propio audio y videos generados: los políticos ahora podrán descartar videos reales y escandalosos como construcciones artificiales simplemente diciendo: «¡Eso es un deepfake!». En un ejemplo temprano de esto, a partir de finales de 2017, los sustitutos en línea más apasionados del presidente de los Estados Unidos sugirieron (mucho después de las elecciones) que la cinta filtrada Access Hollywood «grab’em» podría haber sido generada por un producto de voz sintética llamado Adobe Voco.

Pero el texto sintético, en particular el tipo que se está produciendo ahora, presenta una frontera más desafiante. Será fácil de generar en gran volumen, y con menos indicaciones para habilitar la detección. En lugar de ser desplegado en momentos sensibles con el fin de crear un mini escándalo o una sorpresa de octubre, como podría ser el caso de vídeo sintético o audio,

textfakes en su lugar podrían ser utilizados a granel, para coser una manta de mentiras generalizadas. Como cualquiera que haya seguido un acalorado hashtag de Twitter puede atestiguar, activistas y vendedores por igual reconocen el valor de dominar lo que se conoce como «compartir voz»: Ver a mucha gente expresar el mismo punto de vista, a menudo al mismo tiempo o en el mismo lugar, puede convencer a los observadores de que todo el mundo se siente de cierta manera, independientemente de si las personas que hablan son verdaderamente representativas, o incluso reales. En psicología, esto se llama la ilusión mayoritaria. A medida que el tiempo y el esfuerzo requeridos para producir comentarios disminuyen, será posible producir grandes cantidades de contenido generado por IA sobre cualquier tema imaginable. De hecho, es posible que pronto tengamos algoritmos leyendo la web, formando «opiniones» y luego publicando sus propias respuestas. Este corpus ilimitado de nuevos contenidos y comentarios, en gran parte fabricados por máquinas, podría ser procesado por otras máquinas, lo que llevaría a un bucle de retroalimentación que alteraría significativamente nuestro ecosistema de información.

En este momento, es posible detectar comentarios repetitivos o reciclados que utilizan los mismos fragmentos de texto con el fin de inundar una sección de comentarios, jugar un hashtag de Twitter, o persuadir a las audiencias a través de publicaciones de Facebook. Esta táctica se ha observado en una serie de campañas de manipulación pasadas, incluidas aquellas dirigidas a las llamadas públicas del gobierno de los Estados Unidos para comentarios públicos sobre temas como los préstamos de días de pago y la política de neutralidad de la red de la FCC.

Un análisis de MIT Analytics, dirigido quien esto escribe, detectó cientos de miles de contribuciones sospechosas, identificadas como tales porque contenían frases repetidas y largas que era poco probable que hubieran sido compuestas espontáneamente por diferentes personas. Si estos comentarios se hubieran generado de forma independiente (por ejemplo, por una IA), estas campañas de manipulación habrían sido mucho más difíciles de eliminar.

En el futuro, los videos y los audiofakes de deepfake, textfake bien pueden ser utilizados para crear momentos distintos y sensacionales que requieran un ciclo de prensa, o para distraer de algún otro escándalo más orgánico. Pero los textos indetectables, enmascarados como charlas regulares en Twitter, Facebook, Reddit y similares, tienen el potencial de ser mucho más sutiles, mucho más frecuentes y mucho más siniestros. La capacidad de fabricar una opinión mayoritaria, o crear una carrera armamentista falsa, con un potencial mínimo para la detección, permitiría campañas sofisticadas y de influencia extensa. El texto generado generalizado tiene el potencial de deformar nuestro ecosistema de comunicación social y la percepción de las personas para su manipulación: el contenido generado algorítmicamente recibe respuestas generadas algorítmicamente, que se alimentan en sistemas de curación mediados algorítmicamente que exponen información basada en la interacción. A esto también el llamamos “Hacking the human brain”.

Nuestra confianza en los demás se está fragmentando, y la polarización es cada vez más frecuente. A medida que los medios falsos de todos los tipos (texto, vídeo, foto y audio) aumentan en prevalencia, y a medida que la detección se convierte en un desafío más, nos resultará cada vez más difícil confiar en el contenido que vemos. Puede que no sea tan sencillo adaptarse, como hicimos con Photoshop, utilizando la presión social para moderar el alcance del uso de estas herramientas y aceptando que los medios que nos rodean no son lo que parece.

Esta vez, también tendremos que aprender a ser consumidores mucho más críticos de contenido en línea, evaluando la sustancia en sus méritos en lugar de su prevalencia.

 

*Experto en Cyber Intelligence, Cyber Security y Cyber Strategy.

https://twitter.com/israelgreyes