"A finales de 2011 un miembro del equipo de 'data scientists' de Facebook,
y las universidades de Cornell y California, se ponen de acuerdo para
analizar y manipular el 'feed' de noticias de los usuarios de la red
social. Introducen un programa, el 'Linguistic Inquiry and Word
Count' (LIWC2007),
para determinar si un elemento del 'feed' contiene palabras
emocionalmente positivas o negativas. Por ejemplo, “happy” (feliz) o
“hurt” (ofendido).
Durante una semana de
enero de 2012, eligen al azar 689.003 conejillos de Indias. A un grupo
le muestran menos noticias con palabras negativas, mientras que al otro
le muestran menos con palabras positivas. A la semana siguiente,
comprueban que los usuarios que vieron menos elementos negativos
escribieron más 'posts' positivos, y viceversa: los que vieron menos
noticias positivas, publicaron más cosas negativas.
De ello deducen que una comunidad puede afectar el estado emocional de
uno de sus miembros online y de forma casi exclusivamente textual, sin
necesidad de contacto personal ni de comunicarse verbalmente.
En resumen, Facebook intentó manipular el
estado de ánimo de un grupo de personas y, en teoría, lo consiguió. Esto
sitúa el estudio en el ámbito de una investigación en seres humanos,
según la 'Declaración de Helsinki de la AMM - Principios éticos para las investigaciones médicas en seres humanos', y la opinión de buena parte del mundo académico.
Ahora bien, también hay quien defiende que estamos ante un simple test de modelo A/B como los que, por ejemplo, ayudan a elegir una interfaz u otra.
¿Es cierto todo esto?
Sí, aquí
tienes el interesante 'paper' que lo explica para que lo leas por ti
mismo (en inglés). Una investigación que, por cierto, lleva publicada
desde el 2 de junio y no se hizo 'popular' hasta que The Atlantic la mencionó hace unos días.
En cualquier caso, lo que mucha gente está obviando sobre los
resultados es que el cambio fue minúsculo, de un 0,07%, en el caso del
incremento de mensajes positivos. Podría ser simple ruido estadístico y no estar estrictamente relacionado con la manipulación de Facebook.
Además, hay otro problema: el 'software' que se utilizó, el citado
LIWC, data de 2007, antes del fenómeno de las redes sociales. Es decir,
está pensado para analizar textos de unas 400 palabras pero no mensajes
de 100 caracteres. De hecho, justo por esa razón, la metodología del estudio podría ser cuestionable.
En todo caso, Facebook ya ha pedido disculpas por el estudio, lo que no ha evitado que el Reino Unido esté pensando abrir una investigación sobre el asunto.
¿Pudo afectarme?
A no ser que utilices Facebook en inglés, no. De hecho, ese fue en teoría el único criterio para elegir a los participantes, un 0,04% de los miembros de la red social en ese momento. (...)
¿Se tomaron las medidas adecuadas?
Las previsiones de la “Common Rule”, que a nivel europeo tendría su equivalencia en la ya citada Declaración de Helsinki,
podrían resumirse en:
1) que un comité de ética revise y apruebe por
adelantado el estudio,
2) que se minimicen los riesgos de los
participantes,
3) que esos riesgos sean razonables respecto a los
supuestos beneficios y
4) que exista consentimiento informado por parte
de los que participan.
Facebook dice que al
ser una entidad privada no tenía que pasar por dicho comité de ética.
La universidad de Cornell añade que, como ellos simplemente trabajaron
sobre unos datos que Facebook ya tenía, se trata de una excepción a la necesidad de todo el proceso legal (aunque esa afirmación es cuestionable).
Finalmente, la editora de la revista que publicó el artículo afirma que, como Facebook no es una entidad gubernamental, no tenía necesidad de cumplir con estos requisitos (aunque la revista no suele publicar artículos que no hayan pasado previamente ese proceso).
A pesar de todo, parece que el estudio sí pasó por el comité de ética,
que dio su visto bueno porque, en teoría, los datos los había recogido
Facebook previamente, mientras que las universidades se limitaban a
analizarlos y no tomaban parte en su recolección.
¿Los usuarios dieron su consentimiento?
El otro gran requisito en este tipo de estudios es que exista
consentimiento informado por parte de los participantes. Según Facebook,
lo hubo: el proporcionado al darse de alta en el servicio,
concretamente el que se especifica en su Política de Uso de Datos.
A ese consentimiento, sin embargo, se le
pueden poner algunas pegas. Para empezar, ese texto supera en castellano
las 10.000 palabras. Basar la idea de un consentimiento informado (que
no es un simple “Aceptar”, según los artículos 25 y siguientes de la Declaración de Helsinki) en dos de esas diez mil palabras - "la investigación" - quizá resulte algo atrevido.
Pero aún hay más. Esas dos palabras, o el término “research” en inglés,
no se añadieron a la Política de Uso de Datos de Facebook hasta mayo de
2012, es decir, 4 meses después de que se realizara el experimento.
Por tanto, el consentimiento nunca pudo basarse en esos términos, que
ya de por sí son poco concretos, sino en algo todavía más genérico.
Además, este tipo de estudios exigen que el participante pueda retirar
en cualquier momento su consentimiento, pero ¿cómo puedes retirarlo si
no sabes que lo has dado? Por no decir que retirarlo implica darse de
baja del servicio, porque Facebook se basa en el visto bueno que el
usuario concede al registrarse.
A pesar de todo, hay quien argumenta que
el estudio podría no requerir este consentimiento informado, dado que
implica un riesgo mínimo para el sujeto, que Facebook modifica
constantemente su algoritmo y que la manipulación fue relativamente
inocua. El tema, por lo tanto, es más complejo de lo que parece.
¿Podría ocurrir en otros servicios?
Ahora todas las empresas medirán muy bien sus actos antes de caer en
algo parecido, pero ¿podrían en teoría hacer lo mismo otros servicios
que emplean algoritmos para filtrar el contenido de los usuarios? Entre
servicios como Linkedin, Twitter, Spotify o Google+, que también
utilizan este tipo de 'software', sólo Linkedin hace referencia al término “research” (y en un ámbito mucho más específico).
El resto simplemente menciona que analizarán tu uso del servicio para la mejora del mismo.
¿Sueñan los algoritmos con 'feeds' organizados de noticias?
De todo este embrollo pueden hacerse varias lecturas:
- El estudio en sí resulta muy interesante, y sus posibles potenciales aplicaciones algo preocupantes. Sin embargo, sus resultados tampoco son tan concluyentes.
- La transparencia de Facebook en este caso ha dejado mucho que desear, por el proceso en general y por el asunto del consentimiento en particular.
- El abuso por parte de los servicios de lo que consentimos al tuntún en sus términos y condiciones alcanza un nuevo nivel de exceso.
- Facebook, como otras grandes corporaciones, sigue actuando como si determinadas normas no fueran de aplicación para ellas dada su magnitud, ahora en el ámbito académico.
- Como acertadamente apuntaba Jorge Campanillas, en el fondo todo esto surge de la alteración (no indicada) de un algoritmo o proceso automatizado, cuyas consecuencias para nosotros, los usuarios, hace tiempo que dejaron de ser ficción.
Finalmente, no hay que olvidar uno de los motivos por los que Facebook inició el estudio: comprobar si el pesimismo de tus amigos en la red social podría hacer que la abandones.
Facebook tampoco quiere quedarse solo." (Jorge Morell, eldiario.es, 02/07/2014)
No hay comentarios:
Publicar un comentario