Por Fredes Luis Castro
6 de junio de 2017
El 17 de mayo de este año, la titular del Comisionado de Información de Gran Bretaña informó la apertura de una investigación formal sobre el uso del análisis de datos en las campañas políticas. La comisionada Elizabeth Denham tomó esta decisión por el potencial invasivo de las herramientas digitales en el despliegue y orientación de las acciones destinadas a persuadir voluntades y captar votos, en particular a través del análisis de big data. Lo que preocupa a la funcionaria es que la complejidad y rápida evolución de esta ingeniería impida que la ciudadanía conozca cómo se recopilan, comparten y utilizan sus datos. Estima que debe existir una auténtica transparencia en el uso de técnicas de análisis digitales para que la ley no sea vulnerada y las personas no pierdan el control.
Denham concentrará los esfuerzos de su oficina en examinar las prácticas desarrolladas durante la campaña de referéndum que concluyó con el Brexit, y no se limitará a auditar las actividades de actores nativos. Indagará también las acciones realizadas por entidades foráneas que emplearon datos de sus flemáticos compatriotas. “Esta investigación es de alta prioridad para mi oficina”, sentenció la comisionada.
Los sospechosos
En el arte de persuadir o manipular voluntades con fines políticos en la arena virtual la empresa emblemática tal vez sea Cambridge Analytica, que se ufana de contar con no menos de 5 mil data points de 220 millones de sufragantes estadounidenses, que habría utilizado a favor de Donald Trump en el proceso que finalizó con su habitación en la Casa Blanca. La fenomenal cantidad de datos personales permite a esta firma, especializada en la gestión de estrategias electorales, construir perfiles psicológicos y publicidades políticas con precisión quirúrgica, mediante la detección de los patrones emocionales susceptibles de movilizar a cada potencial elector (a los que llega con sus publicidades a través de redes sociales como Facebook, plataforma aportante de datos y difusora del producto final que los contiene).
Para algunos especialistas, Cambridge Analytica apuesta al autodidactismo computacional mediante logaritmos predictivos básicos, aptos para anticipar preferencias político-ideológicas sólo a partir de los datos suministrados, a efectos de fortalecerlas, modificarlas o “distraerlas” (con información falsa acerca del lugar de votación, por ejemplo). Lo cierto es que cuenta con experiencia en la realización de propaganda y operaciones psicológicas en territorios en conflicto militar, especialmente a través del Strategic Communications Laboratories (SCL), grupo británico del que forma parte y que brindó servicios propagandísticos y de inteligencia psicológica a la OTAN y el Departamento de Defensa estadounidense en Siria, Libia, Pakistán, Afganistán e Irán.
El profesor Jonathan Rust, director del Centro Psicométrico de la Universidad de Cambridge, advierte sobre los riesgos de los modelos predictivos:
El peligro de no tener regulación alrededor del tipo de datos que puede obtenerse de Facebook y en lugares similares es claro. Con esto, una computadora puede realmente hacer psicología, puede predecir y potencialmente controlar el comportamiento humano (...) Es como lavar el cerebro a alguien. Es increíblemente peligroso (...) El comportamiento puede ser anticipado y controlado (…) La gente no sabe qué les está pasando. Sus actitudes son alteradas sin su conocimiento. [Traducción propia]
A esto, la especialista en propaganda de la Universidad de Sheffield Emma Briant denuncia la posible manipulación informativa del grupo SCL en dos planos de modo simultáneo: a nivel masivo por un lado, y a nivel individual en segundo lugar. Briant acusa a SCL de aprovecharse de la dependencia generada por las redes sociales, para edificar sus perfiles y consecuentes acciones emocionalmente manipuladoras. Sin embargo, SCL posee el 10% de Cambridge Analítica, el 90% restante es dominado por Robert Mercer, el mayor donante individual de la campaña presidencial de Donald Trump.
Las propuestas
En octubre del año pasado Angela Merkel pidió por la publicidad de los algoritmos que nutren plataformas y sitios informativos, para que los ciudadanos sepan de qué manera influye Internet en sus comportamientos. El cientista computacional Ben Shneiderman, por su parte, propone la creación de un ente regulador de los algoritmos, nueva especie de organismo nacional de contralor, similar a los que monitorean e inspeccionan los mercados alimenticios, farmacéuticos o automotrices, entre otros bienes y servicios de relevancia social.
El ente propuesto por Shneiderman podría requerir una declaración de impacto algorítmico, como se hace en materia ambiental, para transparentar y perfeccionar, entre otras cosas, metas de la iniciativa, controles de calidad y resultados esperados. Inspectores especializados realizarían seguimientos y revisiones en forma continua. En caso de fallas o efectos no deseados, otros agentes desarrollarían los debidos análisis retrospectivos, tanto para determinar responsabilidades como para conminar mejoras.
La Dirección Nacional de Protección de Datos Personales, como órgano de control de la ley 25326, de protección de los datos personales, cuenta con atribuciones para acceder a los programas de tratamientos de datos que se utilizan en las campañas políticas, una vez obtenida la autorización judicial respectiva. También puede, sin necesidad de autorización judicial, solicitar informaciones sobre programas de tratamiento de datos. En este caso, la confidencialidad que debe observar se vincula antes a la privacidad ciudadana que a los algoritmos empleados por las empresas contratadas durante los eventos electorales. Al margen de lo indicado, uno alienta a que este organismo incorpore al debate de la reforma a la ley 25326 que inició en el 2016 los mecanismos necesarios para impedir manipulaciones ciudadanas, controlar a los actores involucrados en la formulación digital de las campañas políticas, y verificar con qué antecedentes cuentan y qué expertiz revelan sus intervenciones pretéritas.