jueves, 27 de agosto de 2020

Uso del "big data" en las campañas electorales

 Resumen

Este apasionante artículo es un viaje alucinante en el que el periodista Diego Barajas nos explica cómo afectan a los procesos electorales las nuevas tecnologías que han dado en llamarse “big data”. Revisaremos las elecciones presidenciales norteamericanas, las elecciones en Trinidad y Tobago que son un ejemplo clarísimo de como se pueden manipular de una manera ingeniosa sin dejar rastro y, por último, el referéndum del Brexit. El cóctel se adereza con jarabe de Facebook, esencia de Cambridge Analytica, unos granos de microtargeting y unos cuantos “dark posts”.

 Summary

In this fascinating article, the journalist Diego Barajas explains how the new technologies that have come to be called "“big data”" affect the electoral process. We will review the U.S. presidential elections, the elections in Trinidad and Tobago that are a clear example of how they can be manipulated in an ingenious way without leaving a trace and, finally, the Brexit referendum. The cocktail is seasoned with Facebook syrup, the essence of Cambridge Analytica, a few grains of microtargeting and a few "dark posts".

Índice

  • ¿Qué es “big data”?
  • Funcionamiento del análisis “big data”
  • Uso del “big data” en las campañas electorales: Trump, Trinidad y Tobago y el referéndum sobre el Brexit
  • Escándalos por el uso de “big data” en las campañas electorales

 ¿Qué es “big data”?

El “big data” es una tecnología revolucionaria que consiste en el análisis de grandes cantidades de datos y se utiliza principalmente en las empresas. Pero algunos partidos políticos han comenzado a utilizarlo en las campañas electorales. Gracias al uso de esta tecnología han llevado la eficiencia de los mensajes a otro nivel nunca visto antes.

Pero antes de comenzar a hablar de su influencia en las campañas electorales es interesante comenzar por explicar en qué consiste este tipo de tecnología. 

Existen diferentes definiciones acerca del “big data”, algunas se centran en el modo de analizar y otras en el volumen de las bases de datos.  

Wayne R. Kubick (1) - jefe de tecnología del Clinical Data Interchange Standards Consortium- define “big data” como bases de datos, que son demasiado grandes y complejas para poder utilizarlas de manera efectiva con los sistemas convencionales. 

Por otro lado, Philip Russom, experto en análisis de datos y “big data” entre otras cosas, explicaba que para considerar “big data” se debe tener en cuenta una sencilla regla de las “tres Vs”, volumen, variedad y velocidad. 

El volumen hace referencia a que la cantidad de datos que se maneja es muy elevada (terabytes o petabytes). Para que nos hagamos una idea un terabyte son más o menos 1000 gigabytes y un petabyte son 1000 terabytes. Dicho de otro modo, en un petabyte entrarían 6.7 millones de discos de música en formato mp3.

La variedad la encontramos en las fuentes de las que provienen los datos. Los datos se recopilan desde distintas fuentes, lo que hace que se puedan comparar los distintos puntos de vista.

En cuanto a la velocidad se refiere a la rapidez con la que se generan los datos. Una de las razones de su extenso volumen se debe a la velocidad con la que crean y se almacenan los datos.

Otros han incluido cinco “Vs” como explica la revista forbes en el artículo ““big data”: qué es y cómo funciona” (2) donde a parte de las tres “Vs” de Philip Russom, añade la “V” de veracidad y de valor. Pero a pesar de las distintas definiciones todas coinciden en un mismo punto clave, el gran volumen de datos con el que se trabaja.

 Funcionamiento del análisis “big data”

Las empresas recogen miles y miles de datos a la hora, lo que supone que trabajan con un gran volumen de datos y hace que organizar, estructurar y analizar la información sea más complicado.

Los datos que se obtienen se dividen en dos tipos, por un lado, los datos estructurados que son los que se encuentran perfectamente definidos, se almacenan en formato de hojas de cálculo, tablas y archivos que tienen un orden claro. Por otro lado, los no estructurados, se caracterizan por no tienen esquemas o modelo predefinidos. Se almacenan en distintos formatos como los pdf, ficheros multimedia o Word, entre otros.

Tenemos dos tipos principales de bases de datos, unas son las estructuradas o SQL y otras son las no estructuradas o no-SQL. Dependiendo del tipo de datos y del volumen con el que se trabaja es más útil usar un tipo de base de dato u otra. En el caso de las bases de datos estructuradas o SQL se trata de una base de datos relacional, esto significa que están compuestas por distintas tablas – también llamadas relaciones - dedicadas a un único tema. Por ejemplo, en una gestión de personal, una tabla dedicada a personas, otra a puestos de trabajo o a departamentos.  A partir de estas tablas se pueden construir interrelaciones entre ellas que permiten localizar cualquier dato y recuperarlo. 

Ejemplo de base de datos SQL (fuente propia)


En el caso de las bases de datos no estructuradas o no-SQL encontramos que los datos no están organizados ni predefinidos, este tipo de bases de datos son más utilizadas cuanto mayor es el volumen porque no se requiere un proceso de adaptación de los datos no estructurados a las tablas.


Fuente: https://www.geeksforgeeks.org/


En otras palabras, la base de datos estructurada vendría a ser una biblioteca enorme, donde se encuentran las distintas secciones como pueden ser, entre otras, ficción, novela romántica o ciencia. Está todo organizado, y para buscar la información tienes que ir sección por sección hasta que lo encuentras. Mientras que en el caso de las no estructuradas sería como un saco enorme mágico en el que están todas las páginas de los libros sueltas, entonces cuando se quiere buscar algo se le dice al saco lo que se quiere, se mete la mano y se saca un saco más pequeño con toda la información dentro. 

Pues el saco más grande que existe es Facebook. Fuente de datos mundial, una mina de oro para cualquier analista de datos. Según publicó la propia empresa, tienen alrededor de dos mil millones de usuarios activos cada mes. Muchos de ellos se conectan a diario y cuentan entre otras cosas su vida, rutinas, lo que les gusta, lo que les preocupa o no les gusta. Un caramelo muy goloso para cualquier empresa.

 Uso del “big data” en las campañas electorales: Trump, Trinidad y Tobago y el referéndum sobre el Brexit

El “big data” no sólo se puede usar para temas comerciales. Obama fue pionero en utilizar la tecnología para propagar su mensaje. En su campaña se centraron en el uso de las redes sociales algo revolucionario por aquel 2008. Fue una forma innovadora para poder llegar a la gente joven. 

Desde entonces hasta hoy en día se ha vivido un cambio radical en el modo de llevar las campañas, en la manera de atraer a los votantes. Cada vez se invierte menos dinero en panfletos y más en la promoción en internet, en emplear nuevas técnicas para el procesamiento y análisis de los datos para tener mayor acceso a los votantes potenciales como puede ser el reciente uso de técnicas relacionadas con el “big data”.

Trump ha seguido los pasos de Obama y es otro ejemplo de campaña que tuvo gran presencia en las redes sociales. Parscale, el director de medios digitales de la campaña de Trump, vio en Facebook una gran oportunidad para la publicidad, llegando a publicar 5,9 millones de anuncios en dicha red social (3). El publicar tan intensamente anuncios frente a los pocos que publicó la oposición (solamente 66.000) hizo que en el terreno de Facebook tuvieran un dominio claro frente a la campaña de Hillary.

Las razones por las que el equipo de Trump decidió emitir tantos anuncios en Facebook se debe a tres motivos principales:

En primer lugar, el algoritmo de Facebook para los anuncios. Facebook, al igual que Google, utiliza el “big data” y cuenta con una serie de algoritmos que nos muestra publicidad acorde a nuestros intereses. Al tener anuncios adaptados a los intereses de cada usuario de una forma más personal el índice de éxito y eficiencia de los anuncios es mayor. 

En segundo término, se puede seleccionar la audiencia. Si se conoce bien el público objetivo se puede seleccionar las características de la audiencia y Facebook se lo mostrará. Características tales como edad, sexo, idiomas o ubicación.

Por último, se puede seguir el rendimiento. Esto supone saber si el mensaje que se está lanzando funciona o no. También permite saber para qué público está funcionando mejor cada mensaje, y poder adaptarlo en caso de que el mensaje no esté funcionando.

A este bombardeo de información se debe sumar los denominados “dark post”. Estas publicaciones consisten en un tipo de “guerra sucia”. Son artículos de blogs, videos o imágenes cuya única función consiste en desprestigiar al otro candidato. 

No obstante, en las elecciones de 2016 el equipo de Trump no utilizó solamente el “big data” con los anuncios de Facebook, también se contrató los servicios de la empresa británica Cambridge Analytica. Empresa especializada en recopilación y análisis de datos para la creación de campañas publicitarias y políticas. Estas empresas utilizan una técnica denominada “microtargeting”, técnica que se emplea en las campañas políticas desde 2004, pero que con la ayuda de las nuevas técnicas de análisis y proceso de datos se han hecho cada vez más eficaces. 

La microfocalización o microtargeting consiste en utilizar enormes cantidades de datos para elaborar perfiles de públicos lo más reducidos posible, realizar predicciones de comportamiento y, por ende, campañas publicitarias y de venta más acertadas (3). Si se utiliza esta técnica para campañas políticas lo que se obtiene son mensajes personalizados en función de los intereses de cada persona, y la manera que tenían de acceder a los intereses de las personas la encontraron a través de Cambridge Analytica.


Fuente: Documental "El Gran Hackeo" de Netflix

Cambridge analytica jugó un papel determinante en las elecciones norteamericanas de 2016, pero no eran sus primeras elecciones siguiendo este método. Como se puede observar en el esquema su modelo de trabajo se basa en tres pilares.

El primero la psicología del comportamiento, necesaria para poder influir las acciones de los individuos, en este caso, votar por el partido que ellos quieran. En segundo lugar, el “big data” para crear perfiles de las personas a través de los datos de las redes sociales y así encontrar lo que buscan, personas indecisas e influenciables. Por último, el “targeted engagement”, consiste en conseguir que el público al que se ha alcanzado se enganche al mensaje y se conviertan en seguidores del mensaje. A través de estas tres armas, se puede conseguir un cambio en el comportamiento. 

Como se ha mencionado anteriormente, Cambridge Analityca ha trabajado en varias campañas electorales por todo el mundo, Alexander Nix expresidente de la compañía definió a la empresa, en una presentación que tenía grabada Brittany Kaiser (4), como una agencia para el cambio en el comportamiento (“behavior change agency”). En esa misma reunión se explica cómo influyeron en las elecciones de Trinidad y Tobago en 2010 utilizando los tres pilares que vemos en el esquema. 

Es un ejemplo claro de cómo a través de las técnicas de manipulación de Cambridge Analytica se pueden ganar unas elecciones. En las elecciones de Trinidad y Tobago, hay dos partidos políticos principales, uno para los indios y otro para los afrocaribeños. La empresa británica trabajó para los indios. Desde Cambridge Analytica lanzaron una campaña denominada “Do so” refiriéndose a no votar, una campaña dirigida a los jóvenes con gran presencia en las redes sociales. Esta campaña era un símbolo contra la política e ir a votar.

Lanzaron esta campaña porque sabían la importancia de los padres en la cultura india. A la hora de votar los jóvenes indios no iban a ir en contra de sus padres, los padres les iban a decir que fueran a votar y ellos lo iban a hacer, ¡mientras que los afrocaribeños no iban a votar siguiendo el lema “Do so!”. El resultado de las votaciones fue victoria para el partido indio en el que jugó un papel clave la abstención de la juventud afrocaribeña.

Cartel campaña "Do SO!" Fuente: eldiario.es

En el caso de la campaña de Trump en 2016, Cambridge Analytica utilizó los datos de millones de usuarios en Facebook tales como “me gusta” en publicaciones, páginas que siguen, interacciones… y así poder crear grupos según la personalidad. Seguían el método conocido como OCEAN (5) en el que se divide la personalidad en cinco grandes rasgos (Openness, Conscientiousness, Extraversion, Agreeableness, Neuroticism).

Una vez conocían el tipo de personalidad de cada usuario se clasificaban, y se atacaba al grupo de los influenciables o persuadibles, especialmente los que se encontraban en los denominados “swing states”. Estos son los estados en los que no hay un candidato claro en las encuestas y suelen ser determinantes en la carrera por la presidencia.

Ejemplo de la publicidad publicada en Facebook. Fuente: nytimes.com

El algoritmo y la base de datos utilizadas conjuntamente son un arma política muy poderosa. Permitió encontrar a los “swing voters” (votantes que pueden cambiar su voto) y crear mensajes más precisos y efectivos. Una vez tenían claro a quién lanzar el mensaje, se lanzaba todo el armamento propagandístico sobre ellos. En otros los carteles de la campaña, “fake news” o artículos de opinión, de tal modo que se acaba creando la imagen del mundo que les interesa. Hacer ver un país en peligro por los inmigrantes y un país que ha dejado de ser grande en el que sólo Trump tiene la solución. También se utilizaron bots en twitter para la propagación de fake news y convertirlas en virales.

Otra campaña famosa por su uso de “big data” es la del brexit. La campaña del brexit es algo compleja, porque encontramos dos grupos a favor de salir de Unión Europea. Por un lado, tenemos “leave.eu” y por otro lado “vote leave” y ambos utilizaron el “big data” para sus campañas. Vote leave contrató a AggregateIQ y leave.eu se sospecha que obtuvo ayuda de Cambridge Analytica.

El procedimiento empleado es prácticamente el mismo que el empleado en las otras campañas, obtención de datos para su posterior análisis y creación de perfiles. Misma estrategia que se utilizó en la campaña de Trump. Se usan las redes sociales para crear una imagen del mundo específica, en este caso crear la imagen de la Unión Europea roba al Reino Unido, mediante bulos y datos engañosos.

A pesar de negar públicamente su participación en el brexit, Se puede ver a Brittany Kaiser (directiva por aquel entonces de Cambridge Analytica) en ruedas de prensa sobre la campaña del brexit. Por otro lado, en la presentación filtrada posteriormente por Brittany Kaiser, que aparece en el documental de Netflix “el gran hackeo” (6), se escucha a Alexander Nix (expresidente de Cambridge Analytica) y a Brittany Kaiser decir que ganaron el referéndum del brexit pero que eso no se puede decir.

 Escándalos por el uso de “big data” en las campañas electorales

El uso de “big data” para la propaganda política es una gran herramienta, pero se toparon con un alto muro que lo impedía, los datos. Para realizar todas estas técnicas se debe tener acceso a una enorme cantidad de datos, pero es muy difícil tener una fuente de obtención de datos. Una de las mayores fuentes de datos del mundo son las redes sociales, en concreto Facebook. Según publicó la compañía estadounidense en junio de 2017, dos mil millones de personas usan Facebook cada mes en todo el mundo. Por ello, era el mejor sitio para obtener los datos.

Aleksandr Kogan desarrolló una aplicación para obtener los datos. Esta aplicación para Facebook se llamaba “this is your digital life” y consistía en un test de personalidad con fines académicos. Al iniciar la aplicación, esta te pedía acceso a tus datos de Facebook y a los de tu lista de amigos. Algo permitido siempre y cuando sea para mejorar la experiencia del usuario y nunca para publicidad o fines comerciales. A los primeros usuarios se les pagó y poco a poco se fue propagando la aplicación. La aplicación podía acceder a las publicaciones, “me gusta” e incluso mensajes privados. Está considerado el mayor robo de datos en la historia de Facebook llegando a obtener datos sobre alrededor de 87 millones de usuarios.

En agosto de 2016 Facebook detectó el robo de datos, y solicitó a Cambridge Analytica que los borrara, pero según se ha demostrado en distintos emails y presentaciones seguían teniendo más de 50 millones de perfiles, principalmente de votantes. Algo tremendamente valioso para una compañía que se encarga de hacer campañas políticas.

Diego Barajas Fernández

Periodista

 

 

Notas:

  1. Kubick, W., 2012. “big data”, Information And Meaning. [ebook] Applied Clinical Trials. Available at: <http://Appliedclinicaltrialsonline.com> [Accessed 7 April 2020].

  2. https://forbes.es/empresas/33690/big-data-funciona/

  3. Rosenberg, M. and Dance, G., 2020. Trump Campaign Floods Web With Ads, Raking In Cash As Democrats Struggle. [online] Nytimes.com. Available at: <https://www.nytimes.com/2019/10/20/us/elections/trump-campaign-ads-democrats.html> [Accessed 6 April 2020].

  4. Netflix, 2020. The Insane Cambridge Analytica Election Interference Revelations In The Great Hack. [online] Youtube. Available at: <https://www.youtube.com/watch?v=omc-5zj70M0> [Accessed 6 April 2020].

  5. Regader, B., 2020. Los 5 Grandes Rasgos De La Personalidad: ¿Cuáles Son?. [online] Psicologiaymente.com. Available at: <https://psicologiaymente.com/personalidad/5-grandes-rasgos-de-personalidad> [Accessed 12 April 2020].

  6. Netflix, 2020. The Insane Cambridge Analytica Election Interference Revelations In The Great Hack. [online] Youtube. Available at: <https://www.youtube.com/watch?v=omc-5zj70M0> [Accessed 6 April 2020].

No hay comentarios:

Publicar un comentario