"El 26 de marzo de 2016, un parque infantil de Lahore,
Pakistán, sufrió un ataque terrorista que acabó con la vida de gran
cantidad de niños y sus padres; juguetes y zapatitos quedaron
desparramados junto a diversas partes del cuerpo y fragmentos quemados
de ropa.
A cientos de miles de kilómetros de allí, en Palo Alto,
California, el fundador de Facebook, Mark Zuckerberg, entró en su perfil
de Facebook, que aglutina a millones de seguidores en el imperio de su
red social. Conmovido por las noticias de la masacre de Lahore,
Zuckerberg observó que su equipo de Facebook había activado demasiadas
veces en los últimos meses la “Comprobación del estado de seguridad” (Safety Check),
que se diseñó para que los usuarios pudieran alertar a sus amigos y
seguidores de que se encuentran fuera de peligro cuando se produce un
ataque mortal o una catástrofe natural.
Zuckerberg hizo referencia a los
ataques terroristas que habían sacudido Turquía y Bélgica, además de
mencionar el atentado de Lahore. Para finalizar, confirmó su
determinación de hacer frente a esos males con una conclusión marcada
por su característico sientehabla:
Creo que la única manera sostenible de defenderse de
aquellos que buscan dividirnos consiste en crear un mundo en el que la
comprensión y la empatía se propaguen con mayor velocidad que el odio, y
en el que todas las personas de todos los países se sientan conectados,
apreciados y amados. Ese es el mundo que podemos y debemos construir
entre todos.
En los meses posteriores, Zuckerberg pasó a otras cosas:
una iniciativa para “curar todas las enfermedades” (sí, la gente todavía
cae enferma de forma inoportuna, aunque Zuckerberg velará porque
reciban el tratamiento más eficaz posible) y, en junio de 2017, una
visita a Iowa para sondear una supuesta candidatura presidencial. No
obstante, a finales de ese mes, regresó a la tarea de hacer frente al
terrorismo. Se alió con Microsoft, Twitter y YouTube, y anunció una
iniciativa que difería bastante del emotivo alegato en favor de la
empatía lanzado un año antes.
Los gigantes de las redes sociales se
centrarían a partir de ahora en desarrollar una tecnología que sirviera
para restringir el acceso de los grupos terroristas a sus redes, y el
coloso de software Microsoft (que no emitió un comunicado por separado)
probablemente expandiría sus protocolos de control lingüístico mediante
una serie de colaboraciones que había formalizado en mayo con varias
ONG.
La nueva iniciativa multiplataforma y antiterrorista, fabulosamente
titulada “Foro mundial de internet para combatir el terrorismo”,
prometía desarrollar tecnología que pudiera detectar el material
terrorista y establecer unas buenas prácticas que sirvieran para
combatir el extremismo y el odio; además, tendría a las cuatro
megaplataformas colaboradoras compartiendo información sobre posibles
“herramientas para contrarrestar el discurso”.
Al parecer, el amor y la
empatía habían desaparecido del debate. Tampoco quedaba rastro del
tecnorealismo que un año antes había llevado al grupo de reflexión de
Twitter a declarar que no existía ningún “algoritmo mágico” que pudiera
identificar el contenido terrorista en internet.
El Blackwater virtual
De hecho, desde que emitieron su anuncio, sobrio en
comparación con otros, las cuatro partes integrantes del Foro mundial de
internet todavía no han logrado inventar nada remotamente parecido a un
algoritmo mágico que desafíe al terrorismo. Aunque en realidad la
verdadera innovación nunca pretendió adoptar forma de código: el
nacimiento del Foro mundial de internet marca el inicio de la expansión
de las redes sociales y las plataformas de contenido compartido hacia la
administración de la guerra contra el terrorismo con el respaldo del
Estado.
Como sucedió con otras iniciativas que pretendieron
privatizar las guerras terroristas en el pasado, esta futura simbiosis
probablemente empeorará la situación en todos los frentes. Los gobiernos
podrán seguir inmiscuyéndose libremente en la privacidad y la libre
expresión en condiciones de mayor impunidad, y también las plataformas
sociales se ajustarán con firmeza al protocolo estatista (y las fuentes
de financiación) para garantizar sus actuales monopolios mundiales.
Como
ya sucedió con el famoso caso de Blackwater (la empresa privada cuyos
mercenarios llevaban a cabo interrogatorios, extradiciones, torturas y
masacres civiles durante la invasión estadounidense de Irak), la rama
antiterroristas del Foro mundial de internet podrá operar a salvo sin
que exista nada parecido a una rígida supervisión pública, libre del
molesto mandato del sector público sobre transparencia e información.
La
información que acumule podrá compartirse en secreto con un gobierno, y
con más de un gobierno, y esto le permitirá ser capaz de localizar,
procesar y perseguir a cualquier ciudadano que localicen las búsquedas
de datos según la agenda política del momento.
El panorama es igual de desolador para los usuarios de las
redes sociales situados en la parte comercial. Si una de sus
publicaciones o tuits suscita el interés del politburó del Foro, los
usuarios podrían perder el control real sobre sus clics, ubicaciones y
consultas (y lógicamente sobre el flujo constante de información
demográfica que se filtra de forma rutinaria de sus cuentas) en el caso
de que un moderador de Facebook o un algoritmo de Twitter extremadamente
recelosos les etiquete como terroristas, o como terroristas en
potencia.
En otras palabras, nuestros amos tecnológicos, que no rinden
muchas cuentas de por sí, serían el factor más influyente en la vida
privada de un individuo, sin necesidad de estar sometidos al peso de las
garantías procesales que exigen todos los gobiernos hasta que esa
persona ya esté clasificada y condenada por los datos recopilados.
Zuckerberg, zar del terrorismo
Más allá de la capacidad optimizada de vigilancia que
inevitablemente acompaña a un acuerdo contractual para promover una
iniciativa de este u otro tipo en la lucha contra el terrorismo, aquí
también está en juego algo que podría llamarse una rama metafísica de la
ampliación de metas. Cuando las plataformas sociales estén a la
vanguardia de la guerra contra el terrorismo, también se arrogarán el
poder de definir qué es terrorismo (y quién, a su vez, es un
terrorista).
En realidad, pocos días después del anuncio del Foro, la página de periodismo de investigación sin ánimo de lucro, ProPublica,
publicó un sólido informe sobre el trato diferente que los moderadores
daban a ciertas publicaciones, dependiendo de la identidad racial y las
convicciones políticas de los que publican las entradas. En su mayor
parte, se trataba de una trágica historia de dos publicaciones de
Facebook.
Una del congresista republicano de Luisiana, Clay Higgins, al
día siguiente del ataque terrorista en el puente de Londres, que decía:
“Cazadlos, identificadlos y matadlos, ¡matadlos a todos!”. “Por el bien
de todo lo bueno y justo, ¡matadlos a todos!”.
Facebook no eliminó la publicación, a pesar de que
incitaba claramente a la violencia y contravenía los términos de
servicio de la página, porque supuestamente iba dirigido hacia un
subgrupo específico de musulmanes (los “radicalizados”) en lugar de
estar dirigido a todos los creyentes del islam. Más o menos por las
mismas fechas, Facebook eliminó una publicación del poeta y activista de
Black Lives Matter, Didi Delgado, que decía: “Todos los
blancos son racistas.
Parte de esa base o ya estarás equivocado”. Para
asegurarse de que se castigaba como era debido a la persona que lo
publicó y que el contenido ofensivo no se republicaba, cancelaron la
cuenta de Delgado durante siete días.
Esta evidente doble moral parece reflejar perfectamente la
política empresarial de Facebook. Uno de los ejercicios que figura
entre el material de formación que entrega la empresa a los moderadores
encargados de implementar el algoritmo de Facebook contra la incitación
mundial al odio, les pide que seleccionen de entre una lista de tres al
grupo que tiene derecho a ser protegido de las expresiones de odio en
internet: las mujeres al volante, los menores negros y los hombres
blancos. La respuesta correcta son los hombres blancos.
El propio Zuckerberg ha actuado como árbitro final en los
casos en que había que moderar polémicas relacionadas con hombres
blancos, y se ha asegurado de que reciban un tratamiento favorable. Por
ejemplo, cuando los empleados de Facebook señalaron que las
publicaciones que realizó el por entonces candidato a la presidencia,
Donald Trump, en favor de prohibir viajar a los musulmanes (un grupo
concreto), violaban las normas de la compañía sobre las expresiones de
odio, Zuckerberg intervino personalmente y afirmó que había que permitir
esas publicaciones incluso aunque fuera consciente de que violaban las
propias restricciones de la empresa sobre incitación al odio.
s permitirían a partir de ahora el contenido que se
considerara “periodístico, significativo o relevante para el interés
público”. Las entidades que determinarían quién y qué cumple con estos
criterios serían, cómo no, Facebook y Zuckerberg.
Y como el Foro se ha
apropiado de la guerra digital, la perspectiva es bastante preocupante:
las empresas privadas de información serán los primeros árbitros en
valorar situaciones de gran alcance y a menudo especulativas sobre el
lenguaje terrorista, la intencionalidad y la expresión (y otros asuntos
demasiado reales relacionados con el castigo y el contraataque militar).
De igual manera, Twitter concibió un vacío legal del
tamaño de Trump en su política contra la incitación al odio. Como ya han
documentado numerosos artículos, Trump ha retuiteado en repetidas
ocasiones memes y expresiones de odio provenientes de grupos neonazis
que superaron sin problemas los controles oficiales de Twitter, aunque
su contenido incitaba abiertamente al odio contra los musulmanes, los
afroamericanos y contra otras minorías (infringiendo de nuevo la
política oficial de Twitter).
Igual que Facebook, Twitter parece haber
decidido dictar una excepción subjetiva a su propia política cuando se
trata de una incitación al odio avalada por el presidente. Pero como
Twitter es una empresa privada, no está obligada a justificarse
públicamente por semejantes excepciones, ni tampoco está sujeta a un
escrutinio público sobre cuál es su definición de lo que considera
expresiones de odio que hacen apología del terrorismo en su plataforma.
Tuitear siendo moreno
Estas flagrantes omisiones en el diagnóstico y castigo de
la incitación al odio son moneda corriente en el ámbito de las redes
sociales. El Southern Poverty Law Center (una organización de
defensa de los derechos civiles) constató que Twitter se estaba quedando
atrás de forma manifiesta en su intento por imponer restricciones a la
incitación al odio en las cuentas relacionadas con supremacistas
blancos.
La plataforma suspendió por fin algunas cuentas asociadas con
grupos de odio de supremacistas blancos a finales del año pasado, aunque
muchas páginas de este tipo siguen difundiendo propaganda racista.
Mientras tanto, Twitter informó de que los moderadores de la empresa
habían suspendido 125.000 cuentas por tener presuntos vínculos con ISIS.
Como era de esperar, los incentivos del mercado para condonar el
discurso de odio marca Trump, y para incluir a los nacionalistas blancos
que usen redes sociales en la definición de incitación al terrorismo,
han dado unos llamativos resultados. En 2016, un estudio llevado a cabo
por el Curso sobre Extremismo de la Universidad George Washington,
titulado “Nazis contra ISIS en Twitter: un análisis comparativo de las
redes sociales de los nacionalistas blancos y de ISIS”, concluyó que los
principales grupos de nacionalistas blancos habían aumentado su número
de seguidores en un 600% desde 2012.
El informe atestiguó que los grupos
de nacionalistas blancos utilizaban sobre todo la etiqueta #whitegenocide
y que nombraban al presidente Donald Trump más que a ninguna otra
persona. El estudio también confirmó que la presencia en internet de los
supremacistas blancos superaba a las cuentas relacionadas con ISIS en
casi todos los parámetros.
Esta tendencia ha demostrado que no le afectan los ataques terroristas
cometidos en el mundo real: los delitos de odio perpetrados por
supremacistas blancos, como por ejemplo el de Dylann Roof, que asesinó a
nueve personas en una iglesia negra de Charleston, Carolina del Sur, no
hicieron que se incrementaran los esfuerzos policiales por vigilar a
estos grupos o controlar el uso que hacen de las redes sociales.
Las
cuentas de los nacionalistas blancos o nazis cuentan con un seguimiento
medio ocho veces superior al de las cuentas relacionadas con ISIS, y aun
así, como denunciaba el estudio de la universidad George Washington,
casi todas siguen operando libremente en Twitter.
El consenso entre las plataformas propietarias de redes
sociales es evidente: el terror, según la definición operativa que
manejan, es algo extranjero que perpetúan las minorías religiosas y
raciales. El vacío deliberado que crea esta ceguera voluntaria desplaza
de forma errónea el foco de atención y lo aleja del odio que disemina la
derecha.
Las plataformas de redes sociales pueden hacer excepciones o
alterar sus reglas internas en cualquier momento, y así asegurarse de
que el trato diferente que reciben los diversos grupos sociales que
promueven el terrorismo sirve de base para llevar a cabo un ejercicio de
ingeniería social. Como resultado, aquellos que ya se sienten con el
derecho de actuar con impunidad, como por ejemplo los hombres blancos
identitarios, reciben un apoyo tácito para continuar como hasta ahora,
mientras que aquellos etiquetados como “otros” hostiles y peligrosos,
son rápidamente castigados y suspendidos por la red social que dominan
los blancos.
Teniendo en cuenta este entorno permisivo, no sorprende que
“los extremistas de derechas conspiraran o llevaran a cabo casi el
doble de ataques terroristas que los extremistas islámicos” en EE.UU.
entre 2008 y 2016.
Todo medio y ningún mensaje
Todo este proceso autoselectivo obtiene su autoridad moral
del mandato que todo lo justifica cuando se trata de luchar contra el
terrorismo online, es decir, el que practica un cierto tipo de moreno,
musulmán o extranjero.
Al igual que otras iniciativas antiterroristas,
esta medida se puso en marcha como consecuencia de una amenaza externa
amorfa y camaleónica de origen y poder desconocido; y el miedo que
produce una amenaza de ese tipo es tan paralizador que ninguna de las
partes siente la obligación de cuantificar el éxito real que tienen las
medidas antiterroristas que se adoptan para frenar la proliferación del
terrorismo.
La creación del Foro sigue este manual de corte alarmista a
pies juntillas. Al igual que los servicios de inteligencia propensos al
pánico del Reino Unido y los EE.UU., los amos de las redes sociales
suponen que la disponibilidad de internet y la ubicuidad de las redes
sociales son de alguna forma responsables de la producción y difusión
del terrorismo de inspiración islamista. Por tanto, deducen que si
bloquean las redes de distribución de terrorismo islámico, podrían
desaparecer las causas subyacentes del terrorismo islamista.
Tras el ataque terrorista en el Puente de Londres, los
ciudadanos británicos recibieron de la primera ministra Theresa May una
dosis no filtrada de este razonamiento. May, que había elaborado la
mayoría de las medidas antiterroristas durante su período como ministra
del Interior, culpó directamente a internet. Con el gesto serio,
anunció: “No podemos permitir que esta ideología disponga del espacio
seguro que necesita para reproducirse”, y prometió nuevas normativas
“para regular el ciberespacio y prevenir la proliferación del extremismo
y de los planes terroristas”.
La declaración de May refleja un consenso amplio y
transversal entre todos los líderes de gobierno occidentales mientras
calculan el poder del Estado Islámico para llevar a cabo ataques dentro
de sus fronteras. No obstante, lo que resulta aún más revelador es que
su declaración pone de manifiesto el decisivo error que impide a los
gobiernos occidentales ganar terreno frente a sus enemigos islamistas
militantes.
En lugar de centrarse en el fondo de la ideología de ISIS o
en los factores estructurales que disparan el encanto que genera entre
los lobos solitarios o las células independientes, los líderes
occidentales se dejan seducir una y otra vez por los medios
superficiales de transmisión de los mensajes.
De ahí que solo se centren en la estrategia predominante
del momento. Las antiguas estrategias eran videos de Bin Laden y
sermones de imanes afines a las ideas de Al Qaeda o los Hermanos
Musulmanes en YouTube; y ahora mismo, son las redes sociales.
La insensatez de este enfoque está extendida de forma
alarmante entre todos los medios occidentales y los organismos de
inteligencia. Para poner solo un ejemplo destacado, más o menos al mismo
tiempo que ISIS declaró el califato, J.M. Berger, periodista de The Atlantic,
publicó un artículo que pretendía explicar “Cómo ISIS manipula
Twitter”.
Berger detallaba cómo ISIS empleaba una aplicación del Twitter
árabe llamada “El amanecer de la buena nueva”, que estaba disponible en
Google. Esta aplicación, que supuestamente contaba con el apoyo de las
principales figuras de ISIS en Twitter, publicaba tuits aprobados por
ISIS en cuentas personales de Twitter, y así conseguía magnificar y
expandir la influencia que ejerce el grupo en la red social.
Pensándose que el despliegue teatral de imágenes
medievales ejemplificaba un primitivismo auténtico, Berger hizo una
pausa para maravillarse frente a la utilización que hacía el grupo de
“los conceptos de marca y mensajería en los grupos de discusión” con el
objetivo de extender su mensaje. Sin embargo, no se le pasó por la
cabeza que la apariencia medieval pudiera ser un método empleado por el
recientemente lanzado califato para presentarse como el islam auténtico.
De igual forma, otros medios de comunicación, ansiosos por exagerar la
importancia de las redes sociales como causa principal del pensamiento
terrorista, publicaban titulares tan llamativos como: “ISIS consigue
dominar una técnica decisiva de reclutamiento que ningún otro grupo
terrorista había dominado antes”.
En medio de toda esta carrera por
hacer un periodismo basado en la tesis tecnocentrista, los analistas no
cayeron en la verdad evidente de que cualquier tipo de grupo que quiera
conseguir un seguimiento masivo utiliza estrategias de promoción en
redes sociales, y que todas esas estrategias, como las plataformas que
buscaban explotar, por definición, son de reciente creación. O lo que es
lo mismo: ser original no implica ser un malvado genio de las redes.
Algunos estudios exhaustivos sí cuestionaron esta premisa
de que las redes sociales forman parte integral de las operaciones del
ISIS. Un informe publicado en 2015 y titulado “ISIS en EE.UU.: de los
retuits a Al Raqa”, concluyó que los setenta y siete afiliados de ISIS
que habían sido arrestados hasta entonces componían un grupo “muy
diverso” cuya radicalización no tenía su origen en unas únicas
condiciones sociales, y menos aún en una única red social.
Pero ninguna de estas conclusiones afectó a la constante
retórica alarmista sobre el ISIS en Twitter, ni tampoco a la tesis
especulativa complementaria que afirma que una mayor vigilancia de las
cuentas de Twitter y Facebook podría acabar con ISIS o asestarle un
golpe casi definitivo. En febrero de 2016, el curso sobre Extremismo de
la Universidad George Washington ya había comenzado a cantar victoria
basándose en este argumento, con una publicación titulada Los
réditos cada vez menores del Estado Islámico en Twitter: cómo la
cancelación de cuentas pone coto a las redes sociales de los seguidores
del ISIS de habla inglesa.
Firmado por J. M. Berger (cómo no), el
informe presenta el tipo de argumento circular que induce a poner la
mirada en blanco y que solo puede considerarse una investigación si
todas las partes interesadas buscan la confirmación selectiva de una
hipótesis en lugar de demostrar su auténtica veracidad.
El informe de
Berger pretendía demostrar que al suspender las cuentas de Twitter
relacionadas con ISIS, la empresa había conseguido reducir
significativamente la actividad de ISIS en Twitter. En realidad, el
informe afirmaba que los parámetros básicos demostraban que la red
social del ISIS estaba “estancada o disminuía ligeramente”, aunque para
la prensa estadounidense, siempre dispuesta a cantar cualquier tipo de
victoria frente al ISIS, aunque sea online, esto fue motivo suficiente
para dar saltos de alegría. Berger, quizá todavía emocionado por su
reciente momento de gloria en The Atlantic, complació de buena
gana y declaró que una presencia menor en Twitter significaba que “las
actividades clave del grupo habían disminuido considerablemente”.
No obstante, si la actividad ya había disminuido
seriamente en 2015, la cancelación de cuentas continuada y creciente de
2016 y 2017 hace pensar que esas acciones no son más que una campaña
publicitaria para promocionar la lucha contra el avance del terrorismo
islamista. El informe de Berger señalaba que en octubre de 2015, el
número de cuentas de habla inglesa de ISIS “fácilmente localizables” era
de aproximadamente unas mil.
No obstante, algunas noticias de CNN
situaron el número de cuentas relacionadas con ISIS que habían sido
canceladas en 235.000 en 2016 y 377.000 en 2017. En este sentido, el
aumento escalonado del número de cancelaciones no hace sino enturbiar el
argumento en favor de lanzar una ofensiva integral contra el tráfico de
internet que promueve el discurso de odio y fomenta el terrorismo.
Solo muy bien entrado el informe de Berger, nos topamos
con una explicación bastante más plausible de la tendencia descendente
de los números del grupo en Twitter: que como buen promotor de
conspiraciones terroristas mundiales, ISIS había adoptado una estrategia
de comunicación mucho más reservada, y sus miembros se comunicaban solo
con otros miembros en lugar de intentar captar nuevos reclutas.
Además,
al ver cómo su perfil disminuía en una red social, ISIS simplemente
utilizó otras y optó por WhatsApp y Telegram, puesto que ambas
facilitaban el secretismo que buscaba el grupo al brindar a sus usuarios
un nivel de encriptación mucho mayor y menores opciones de ser
descubiertos. Con el permiso de la famosa máxima de Marshall McLuhan,
los esfuerzos de promoción del ISIS siempre fueron acerca del mensaje,
aunque Berger solo pudo ver el medio.
Este número récord de cambios de plataforma del entorno
del ISIS, casi igual que su atracción inicial por la novedosa plataforma
de Twitter, resulta poco sorprendente si tenemos en cuenta el amplio
radio de acción de la agenda de ISIS desde el principio. Aunque el
énfasis de los miopes medios de comunicación y agencias de inteligencia
por centrarse en las redes sociales conocidas de EE.UU. indica, por el
contrario, un error fundamental en la estrategia tecnocentrista de
EE.UU. para contrarrestar el extremismo violento.
En lugar de reconocer
que ISIS y otros militantes islamistas eligen (o descartan) una
plataforma concreta para lograr ciertos objetivos políticos, los
políticos y analistas asumen de forma ingenua que bloquear o vigilar de
cerca la presencia en las redes sociales del grupo corta el paso a ISIS y
a sus aliados. Los analistas y periodistas occidentales, tras haberse
imbuido de una erudición crédula y engañosa sobre el poder radicalmente
democrático de las redes sociales para promover los levantamientos de la
Primavera Árabe, no han hecho más que modificar el mismo determinismo
tecnológico para concebir la amenaza terrorista islámica como un lío
siniestro de algoritmos, y confundir una estrategia mediática de
difusión con una agenda de ISIS fuera de internet bien organizada y
financiada cuyo objetivo es reclutar terroristas y expandirse a nivel
geopolítico.
Esta misma miopía tecnológica occidental impide que se
adopten enfoques nuevos en la elaboración y difusión de campañas
eficaces que puedan desacreditar la propaganda extremista de forma
sustancial. Esto también se convierte rápidamente en un bucle de
ingeniería social burocrática: al asegurar que el éxito aparente de la
propaganda extremista es fortuita, los estrategas antiterroristas
occidentales permiten que ese tipo de propaganda prospere fuera de
internet, donde se la retrata como atractiva y letal.
Refutación conceptual
Hay una paradoja que pasa desapercibida y que está en el
núcleo de la presente batalla por acabar con el contenido yihadista en
las redes sociales: si los esfuerzos reclutadores de ISIS en Twitter se
frenaron hace casi dos años, entonces ¿por qué el poderoso consorcio de
plataformas de internet se alía ahora al estilo de la liga de la
justicia para combatir el terrorismo?
La única forma de comprender esta lógica pasa por ignorar
la gran premisa que dio pie a esta unión. En realidad, luchar contra el
terrorismo fuera de internet no tiene nada que ver con borrar a los
emprendedores terroristas de la esfera social online. He ahí la
verdadera alteración: como quieren explotar la tremenda confusión del
gobierno entre estrategia terrorista y habilidad en las redes sociales,
Facebook, Twitter, YouTube y Microsoft han concebido un plan de
ingeniería inversa para escapar de una obligación regulatoria que habría
supuesto un golpe muy duro para sus modelos de negocio.
Como
seguramente se tendrían que enfrentar a una mayor regulación
gubernamental, ofrecieron “combatir” el terrorismo de forma enérgica en
sus propias plataformas y entregar información de forma voluntaria en
lugar de hacer frente a los requerimientos legales para hacerlo.
Este cómodo acuerdo entre las autoridades y los ejecutivos
de las redes sociales excluye de forma conspicua a los consumidores,
cuyas identidades e información podrán ser recopiladas y canceladas
mediante algoritmos desconocidos y luego puestas a disposición de los
organismos policiales. En el contexto de EE.UU., las disposiciones
fundamentales de la Cuarta y la Quinta enmienda, que protegen a los
ciudadanos contra el registro e incautación ilegales, nunca se activan
porque las empresas privadas no están obligadas a cumplir ante un
tribunal con el principio de sospecha fundada antes de recopilar y
entregar datos de los usuarios.
Por último, en un contexto más amplio,
la gigantesca variedad de métodos que emplean las compañías de
macrodatos para monitorizar la información sensible en los ámbitos
comercial y geopolítico deja muy claro que el compromiso de la industria
con el mantenimiento de la privacidad de los usuarios nunca va más allá
de la simple palabrería.
Consideremos, una vez más, el ejemplo de Pakistán. En mayo de 2017, Dawn,
el periódico en inglés más grande de Pakistán, publicó un informe en el
que detallaba cómo cuarenta y uno de los sesenta y cuatro grupos
terroristas que habían sido prohibidos en Pakistán seguían operando
libremente en Facebook.
Los grupos eludieron los sencillos protocolos de usuario
para crear cientos de páginas y hacer proliferar los perfiles
individuales y de grupo. Los periodistas de Dawn localizaron a
los grupos prohibidos variando una serie de siglas y acrónimos y luego
documentaron una larga lista de “me gusta” y seguidores para cada
organización.
Descubrieron que el más popular de estos grupos era Ahle
Sunnat Wal Jamaat (los seguidores de la Sunna), anteriormente conocido
como Sipah-e-Sahaba (Soldados de los Compañeros del Profeta).
Ahle-Sunnat tenía doscientas páginas bajo su actual alias, mientras que
SSP tenía 148 páginas.
Las autoridades pakistaníes prohibieron Sipah-e-Sahaba por
primera vez en 2002, y luego prohibieron Ahle Sunnat Wal Jamaat en
2012; los tribunales pakistaníes condenaron a sus miembros por asesinar a
cientos de musulmanes chiíes e incitar a que otros hicieran lo mismo.
Los investigadores relacionaron a los líderes Ahle Sunnat con el
poderosísimo Consejo de Defensa de Pakistán, y el grupo también
escenificaba concentraciones de masas en las que exigía que el Estado de
Pakistán rompiera toda relación con los países occidentales.
Sipah-e-Sahaba, prohibida de forma oficial en 2002, tenía el mismo
programa y utilizaba la misma estrategia fraudulenta en las redes
sociales (operar bajo una gran variedad de nombres y asesinar a
musulmanes chiíes y minorías). Asimismo, sus líderes también trabajaron
en conjunto con el organismo de inteligencia militar de Pakistán.
El escrito de Dawn documentaba con profusión de
detalles cómo los esfuerzos oficiales por reducir la presencia yihadista
en internet sirven a los gigantes como Facebook, en el ámbito de su
política operativa, como una cortina de humo. En su afán por eludir la
intromisión del gobierno en su país de origen, Facebook simula estar
tomando duras medidas contra el contenido con tintes remotamente
terroristas, pero en un mercado nacional como el de Pakistán, la macro
red social no tiene ningún problema en ignorar ese tipo de contenido y
aplicar un régimen de vigilancia mucho más permeable. Por ese motivo,
más de una década después de haberlos prohibido, ambos grupos pueden
seguir disfrutando y explotando libremente una significativa y visible
presencia en Facebook, y un apoyo gubernamental poco disimulado.
Muerte a los blasfemos
En realidad, en lugar de negociar con las autoridades de
Pakistán para frenar las actividades de estos grupos extremistas tanto
dentro como fuera de internet, Facebook hizo lo imposible por acomodar
el programa de los líderes islamistas en un ámbito clave: la vigilancia
del contenido ostensiblemente blasfemo. El pasado mes de marzo, el
gobierno Pakistaní anunció que Facebook retiraría a partir de ahora de
la plataforma social “todo el contenido blasfemo”.
El ministro del
Interior de Pakistán hizo referencia a la reciente correspondencia que
mantuvo con altos cargos de Facebook en la que le aseguraban que la
empresa estaba tomándose “muy en serio las preocupaciones planteadas por
el gobierno de Pakistán”. Algunos otros miembros del gobierno pakistaní
y de la Agencia Federal de Investigación de Pakistán declararon
asimismo que Facebook había aceptado retirar el contenido blasfemo y
entregar la información de los usuarios que estuvieran relacionados con
investigaciones criminales a las autoridades pakistaníes.
El 11 de junio
de 2017, un tribunal pakistaní condenó a muerte a Taimoor Raza, tras
acusarlo de blasfemia por un comentario que había publicado en Facebook.
Facebook todavía no ha confirmado de forma independiente
el contenido íntegro de este proclamado cambio de política en Pakistán.
Tras el anuncio de esta primavera, el vicepresidente de políticas
públicas de Facebook, Joel Kaplan, viajó a Pakistán para encontrarse con
el ministro de Interior de Pakistán, Nisar Ali Khan. Las noticias del
encuentro citaron un email de la empresa que afirmaba que “Facebook se
había reunido con las autoridades pakistaníes para expresar el fuerte
compromiso de la empresa por proteger los derechos de la gente que usa
su servicio y por permitir que la gente se exprese libremente y de forma
segura”.
Durante la reunión del 7 de julio, Khan supuestamente ofreció
establecer una oficina en Pakistán para dar servicio a los 33 millones
de usuarios de Facebook que se calcula que hay en el país. El
cumplimiento de las peticiones gubernamentales relacionadas con la
entrega de información de los usuarios que registró la propia empresa
demuestra que Pakistán está entre los diez regímenes que más solicitan
ese tipo de información sensible.
Facebook informó de que había cumplido
con dos tercios de ese tipo de peticiones, aunque a mediados de julio
la empresa denegó la petición del gobierno de Pakistán para sincronizar
las cuentas personales con los números de teléfono, lo que habría
simplificado a las fuerzas del estado hacer un seguimiento de los
usuarios.
Ese es el valor, según parece, de la emotiva promesa de
Mark Zuckerberg de repartir amor y empatía a lo largo y ancho del
tenebroso mundo que se conecta a su sitio web. En su lugar, la principal
directriz de Facebook sigue siendo maximizar su acceso a los mercados y
adaptar los protocolos de vigilancia terrorista según corresponda. El
gobierno de Pakistán ya prohibió YouTube por negarse a retirar el
contenido blasfemo (aunque no extremista); por lo que resulta evidente
que la reciente iniciativa antiblasfemia de Facebook está pensada
claramente para evitar un destino corporativo similar.
Si tenemos en
cuenta las particulares exigencias políticas de Pakistán, el cálculo
comercial resulta sencillo: la supuesta amenaza blasfema siempre
prevalecerá sobre las consecuencias más que reales de un discurso de
odio extremista. En la misma línea, una investigación de ProPublica
sobre las repercusiones para las redes sociales de la Primavera Árabe
concluyó que era mucho más probable que Facebook colaborara con los
gobiernos opresores que buscan limitar el acceso a las plataformas
sociales que con los manifestantes y los organizadores que intentan
organizar movimientos de resistencia.
Ni gratis ni barato
En cierto modo, la postura de Facebook de colaborar con
los regímenes autoritarios del mundo Árabe no difiere mucho de la
postura adoptada por Motorola y Westinghouse, por poner un ejemplo, de
beneficiarse del apartheid en Sudáfrica. En ambos casos, la mínima
decencia política no es más que agua de borrajas: la obligación
principal de una empresa privada es conservar su marca y el valor de sus
acciones, y perseguir el objetivo conjunto de asegurar la confianza del
consumidor y atraer al mayor número posible de usuarios.
Por lo general, en estas situaciones las empresas de redes
sociales buscan afianzar su credibilidad de mercado realizando un
delicado ejercicio de equilibrismo: evadir la regulación del gobierno y
al mismo tiempo asegurar que los usuarios confíen en la plataforma y la
consideren como un benévolo repositorio donde pueden expresar sus
opiniones y guardar su información. Tanto Facebook como Twitter saben
que coordinar de forma conjunta la experiencia de libertad y seguridad
en sus plataformas es vital para expandir su cuota de mercado y así
monetizar las ingentes cantidades de información que recopilan de los
perfiles online de sus clientes.
Por el momento, están teniendo éxito. De acuerdo con las
cifras que ha publicado SmartInsight, Facebook es la red social más
popular del mundo. En EE.UU. ostenta un 89% de penetración de mercado,
lo que significa que la gran mayoría de los adultos estadounidenses
utilizan la plataforma. Además, la experiencia de Facebook está diseñada
para que los usuarios crean que usarla sale gratis, aunque, por
supuesto, todo el modelo de negocio de Facebook se basa en recopilar
información de los usuarios y venderla a otras plataformas, o gobiernos,
cuando surja la necesidad.
Bajo la engañosa tapadera de suministrar a
los usuarios un “servicio gratuito”, la red social más grande del mundo
evita cualquier escrutinio público de sus algoritmos de clasificación de
la información y por otra parte consagra una gran cantidad de recursos
propios a encubrir con quién comparte su valiosísima información sobre
los usuarios.
Taimoor Raza, el hombre que fue sentenciado a muerte por
haber supuestamente cometido un pecado de blasfemia en Facebook,
permanece en el corredor de la muerte en Pakistán. Mark Zuckerberg no ha
publicado ningún mensaje conmovedor en Facebook para llamar la atención
sobre el drama de Raza, o sobre el régimen autoritario que diseñó el
sistema que suprime la libertad de expresión de forma brutal.
Ni tampoco
los usuarios pakistaníes que se conectan a la página de Zuckerberg
reciben ninguna advertencia sobre la capacidad del gobierno pakistaní o
sus órganos policiales para acceder a su información sin su
consentimiento, aparte, claro está, de una serie de complejas cláusulas
legales que se ocultan en lo más profundo del contrato que regula los
términos del servicio.
Pero eso no es lo único que se echa en falta en esa
alianza que se está concretando entre el gobierno y las empresas bajo la
apariencia de una dudosa y prolongada guerra occidental contra el
terrorismo. Al promover una estricta definición del terrorismo político
como si fuera un monopolio exclusivo del islam, los líderes del cártel
occidental de los macrodatos han distorsionado la noción de aquello que
representa un discurso online “aceptable” y lo han convertido en
cualquier cosa que pueda mejorar su cuota de mercado. Pero para detener
esa amenaza nadie puede activar una convincente comprobación del estado
de seguridad. " (Rafia Zakaria, CTXT, 15/11/17. Este artículo se publicó en The Baffler)
No hay comentarios:
Publicar un comentario