¿Qué me importa que tengan mis datos?, responde habitualmente un usuario de redes sociales al que se le explica que estas acumulan los datos de su actividad online. Sin embargo, lo que puede parecer una decisión individual, tiene impacto en una escala social. Que Cambridge Analytica, una empresa privada, accediera a información publicada en la red social (también privada) Facebook, deja en evidencia cuestiones graves pero ignoradas por la sociedad y por los diseñadores de políticas públicas. En un primer momento se usó la figura de "fisura''' ("breach'') para justificar lo que se ocurrió con los datos. Sin embargo, la recolección de información no implicó infiltrados ni robos de claves de acceso sino una herramienta para hacer test de personalidad a usuarios: quienes permitían el acceso a información personal y de amigos.

Este tipo de "fisura''' es parte del negocio de la corporación del pulgar azul: gracias a los datos que posee y que, cobro mediante, comparte con sus clientes, sabe qué venderle a quién, en qué momento, cuándo tiene mayores posibilidades de producir un efecto: ¿Cuando recién suena su alarma y se despierta? ¿Cuándo asiste a determinado tipo de eventos? ¿Cuándo está solo y deprimido?, etc. Hace tiempo que Facebook y otras redes sociales aprenden a captar la atención y estimular ciertas conductas gracias al laboratorio virtual que manejan y donde millones de usuarios hace(mos) de ratones. Por supuesto, cuando los datos se usan para popularizar una canción, una aplicación o vender detergente o pasajes de avión, las consecuencias sociales son menos evidentes (aunque existen). En cambio cuando sirven para manipular votantes y torcer una elección en favor de un candidato o inclinar un plebiscito sobre el Brexit o la paz en Colombia las cosas cambian. Pero escandalizarse porque Cambridge Analytica utiliza métodos similares o porque servicios rusos usaron herramientas publicitarias para manipular a escala las elecciones presidenciales de EEUU en 2016, resulta algo hipócrita.


La sistematización de los posteos de potenciales votantes sirve para generar perfiles y buscar la mejor forma de operar sobre esas personalidades. Desde la neurociencia explican que la parte más primitiva de nuestro cerebro es la más incontrolable por la razón y por eso apuntan a ellas: la empatía, la indignación, la ternura, instintos gregarios, etc. A las denuncias y llamados de atención por parte de la sociedad civil acerca de este fenómeno se ha sumado en los últimos meses la preocupación de ex trabajadores de estas empresas como Tristan Harris o empresarios como Tim Cook, el CEO de Apple. Sin duda esto no es una "fisura'': los datos que Facebook reúne cotidianamente de sus más de dos mil millones de usuarios es parte de su trabajo. ¿Dejarán de ofrecer servicios a sus clientes para no compartir sus datos? Desde Facebook aseguran que pidieron (¿ingenuos?) a Cambridge Analytica que borraran esos datos mientras ellos mismos guardan esa información y la usan cotidianamente para sus clientes. Pueden intentar convencernos de que lo harán respondiendo a un código ético pero lo cierto es que no sufre controles ni auditorías por organismos del Estado que respondan a un gobierno democráticamente elegido. ¿Debemos confiar en su buena fe? Mark Zukerberg parece generar cada vez menos confianza a juzgar por las crecientes críticas. La compra de productos alimenticios o medicamentos puede ser una decisión individual, pero el Estado debe velar por la seguridad de sus ciudadanos por medio de organismos de control. ¿No llegó la hora de que algo similar ocurra con las redes sociales que reúnen cada vez más poder? En EEUU hay quienes plantean que ya es demasiado tarde y que ningún político se atreverá a tanto. Sin embargo, sobre todo después de las últimas elecciones presidenciales en los EEUU han crecido los cuestionamientos a que Facebook maneje tanto poder-información. Tal vez, aún estemos a tiempo.



Esteban Magnani  -  Docente (UNRaf y UBA), periodista especializado en tecnología.