Revista El Color del Dinero

Bienvenidos a Spain News Today.

El lado oscuro de la inteligencia artificial: las tácticas tecnológicas de Kagame para manipular el discurso en línea

A finales de mayo de 2024, varios medios de comunicación liderados por la red de periodistas Forbidden Stories publicaron una colección de reportajes titulada “Ruanda clasificados”.

Este informe incluye pruebas detalladas relacionadas con la muerte sospechosa del periodista ruandés y crítico del gobierno John Williams Ntwale.

Los informes incluyen detalles adicionales sobre los esfuerzos de Kigali por silenciar a los críticos.

Como politólogo con experiencia en el estudio de la desinformación digital y la política africana, trabajo con el Centro de Investigaciones de Medios, que monitorea Internet en busca de evidencia de operaciones de influencia coordinadas.

Tras la publicación del informe Rwanda Classified, identificamos al menos 464 cuentas que inundaron las discusiones en línea en torno al informe con contenido que apoyaba el régimen de Paul Kagame.

Muchas de las cuentas que vinculamos a esta red habían estado activas en X/Twitter desde enero de 2024. Durante este tiempo, la red generó más de 650.000 mensajes.

Está previsto que los ruandeses voten el 15 de julio de 2024. El resultado presidencial está predeterminado debido a la expulsión de candidatos de la oposición, el acoso a periodistas y el asesinato de críticos.

En las últimas elecciones que tuvieron lugar en el país en 2017, Kagame obtuvo más del 98% de los votos.

Aunque el resultado era inevitable, las cuentas de la red fueron reutilizadas para promocionar online la candidatura de Kagame. Es probable que las publicaciones falsas se utilicen como prueba de la popularidad del presidente y de la legitimidad de las elecciones.

El uso coordinado de estas herramientas es siniestro. Indica que los métodos utilizados para manipular las percepciones y mantener el poder se están volviendo más sofisticados.

La IA generativa permite a las redes producir un mayor volumen de contenido diverso que solo campañas dirigidas por humanos.

En este caso, la coherencia de los patrones de publicación y las etiquetas de contenido ayudó a que la red fuera descubierta fácilmente. Es probable que las campañas futuras mejoren estos métodos, lo que hará más difícil detectar discusiones no auténticas.

Los investigadores, formuladores de políticas y ciudadanos africanos deben ser conscientes de los desafíos potenciales que plantea el uso de la IA generativa en la producción de propaganda regional.

Redes de influencia

Las operaciones de influencia coordinadas se han vuelto comunes en los espacios digitales africanos. Aunque cada red es única, todas tienen como objetivo hacer que el contenido falso parezca real.

Estas operaciones a menudo «promueven» material que coincide con sus intereses e intentan «degradar» otras discusiones inundándolas con contenido irrelevante. Este parece ser el caso de la red que identificamos.

Sólo en África Oriental, las plataformas de redes sociales han eliminado redes de cuentas creadas para parecer legítimas que apuntaban a ciudadanos ugandeses, tanzanos y etíopes con información política y partidista falsa.

También se ha rastreado a actores no estatales, incluidas varias empresas globales de relaciones públicas, en relación con el funcionamiento de bots y sitios web en Sudáfrica y Ruanda.

A diferencia de estas campañas anteriores, la red pro-Kagame que identificamos rara vez copió el texto palabra por palabra. En cambio, las cuentas vinculadas utilizaron ChatGPT para crear contenido con temas y objetivos similares pero no idénticos.

Luego publicó el contenido junto con un grupo de hashtags.

Se publicaron textos potenciados en rápida sucesión para inundar el hashtag.

Quizás por la inexperiencia de los actores involucrados en la campaña, fue inexacta. Errores en el proceso de generación de texto nos permitieron rastrear cuentas vinculadas.

En algunos mensajes, por ejemplo, las cuentas afiliadas incluían instrucciones utilizadas para producir propaganda a favor de Kagame.

Estos mensajes luego se utilizaron para inundar discusiones legítimas con contenido irrelevante o progubernamental. Esto incluía información sobre las relaciones de los ruandeses con clubes deportivos e intentos directos de desacreditar a los periodistas y medios de comunicación involucrados en las investigaciones de Rwanda Classified.

En las últimas semanas, varias cuentas de la red coordinada han promocionado hashtags relacionados con las elecciones, como #ToraKagame2024 (Torá Como resultado de la gran cantidad de publicaciones que genera la red, es probable que los lectores interesados ​​encuentren contenido que parece ser un apoyo acrítico al país y a su líder.

Inteligencia artificial y propaganda.

La incorporación de herramientas de inteligencia artificial a las campañas en línea tiene el potencial de cambiar el impacto de la publicidad por varias razones.

Acceso ilimitado: Tecnologías como la traducción automática permiten a los actores influir en los debates a través de fronteras. Por ejemplo, el objetivo más común de la falsa red ruandesa fue el conflicto en el este de la República Democrática del Congo.

Atribución de red: Ciertos patrones de comportamiento pueden indicar coordinación. Las herramientas de IA generativa permiten crear sin problemas variaciones sutiles en el texto, lo que complica los esfuerzos de atribución.

¿Qué puede hacer él?

Como los ciudadanos son el objetivo principal de la mayoría de las operaciones de influencia, deben estar preparados para gestionar la evolución de estos esfuerzos. Los gobiernos, las ONG y los educadores deberían considerar ampliar los programas de alfabetización digital para ayudar a gestionar las amenazas digitales.

También es necesaria una mejor comunicación entre los operadores de plataformas de redes sociales, como X/Twitter, y los grandes proveedores de servicios de modelos lingüísticos, como OpenAI. Ambos desempeñan un papel al permitir que florezcan redes de influencia. Cuando las actividades no auténticas puedan vincularse a actores específicos, los operadores deberían considerar prohibiciones temporales o expulsiones directas.

Finalmente, los gobiernos deberían tratar de aumentar los costos del uso inadecuado de las herramientas de IA. En ausencia de consecuencias reales, como restricciones a la ayuda exterior o sanciones selectivas, los actores interesados ​​seguirán experimentando con impunidad herramientas de inteligencia artificial cada vez más poderosas.

Morgan Wack es profesor asistente de ciencias políticas en el Centro de Investigación de Medios de la Universidad de Clemson.