8/7/14

Quizá Facebook no manipuló tus sentimientos, pero sí las reglas del juego

"A finales de 2011 un miembro del equipo de 'data scientists' de Facebook, y las universidades de Cornell y California, se ponen de acuerdo para analizar y manipular el 'feed' de noticias de los usuarios de la red social. Introducen un programa, el 'Linguistic Inquiry and Word Count' (LIWC2007), para determinar si un elemento del 'feed' contiene palabras emocionalmente positivas o negativas. Por ejemplo, “happy” (feliz) o “hurt” (ofendido).

Durante una semana de enero de 2012, eligen al azar 689.003 conejillos de Indias. A un grupo le muestran menos noticias con palabras negativas, mientras que al otro le muestran menos con palabras positivas. A la semana siguiente, comprueban que los usuarios que vieron menos elementos negativos escribieron más 'posts' positivos, y viceversa: los que vieron menos noticias positivas, publicaron más cosas negativas.

De ello deducen que una comunidad puede afectar el estado emocional de uno de sus miembros online y de forma casi exclusivamente textual, sin necesidad de contacto personal ni de comunicarse verbalmente.

En resumen, Facebook intentó manipular el estado de ánimo de un grupo de personas y, en teoría, lo consiguió. Esto sitúa el estudio en el ámbito de una investigación en seres humanos, según la 'Declaración de Helsinki de la AMM - Principios éticos para las investigaciones médicas en seres humanos', y la opinión de buena parte del  mundo académico

Ahora bien, también hay quien defiende que estamos ante un simple test de modelo A/B como los que, por ejemplo, ayudan a elegir una interfaz u otra.

¿Es cierto todo esto?

Sí,  aquí tienes el interesante 'paper' que lo explica para que lo leas por ti mismo (en inglés). Una investigación que, por cierto, lleva publicada desde el 2 de junio y no se hizo 'popular' hasta que  The Atlantic la mencionó hace unos días.

En cualquier caso, lo que mucha gente está obviando sobre los resultados es que el cambio fue minúsculo, de un 0,07%, en el caso del incremento de mensajes positivos. Podría ser simple  ruido estadístico y no estar estrictamente relacionado con la manipulación de Facebook.

Además, hay otro problema: el 'software' que se utilizó, el citado LIWC, data de 2007, antes del fenómeno de las redes sociales. Es decir, está pensado para analizar textos de unas 400 palabras pero no mensajes de 100 caracteres. De hecho, justo por esa razón, la metodología del estudio podría ser cuestionable.

En todo caso, Facebook ya ha pedido  disculpas por el estudio, lo que no ha evitado que el Reino Unido esté pensando abrir una  investigación sobre el asunto.

¿Pudo afectarme?

A no ser que utilices Facebook en inglés, no. De hecho, ese fue en teoría el  único criterio para elegir a los participantes, un 0,04% de los miembros de la red social en ese momento.  (...)

¿Se tomaron las medidas adecuadas?
Las previsiones de la “Common Rule”, que a nivel europeo tendría su equivalencia en la ya citada  Declaración de Helsinki, podrían resumirse en: 

1) que un comité de ética revise y apruebe por adelantado el estudio, 
2) que se minimicen los riesgos de los participantes, 
3) que esos riesgos sean razonables respecto a los supuestos beneficios y 
4) que exista consentimiento informado por parte de los que participan.

Facebook dice que al ser una entidad privada no tenía que pasar por dicho comité de ética. La universidad de Cornell añade que, como ellos simplemente trabajaron sobre unos datos que Facebook ya tenía, se trata de una  excepción a la necesidad de todo el proceso legal (aunque esa afirmación es cuestionable).

 Finalmente, la editora de la revista que publicó el artículo afirma que, como Facebook no es una entidad gubernamental,  no tenía necesidad de cumplir con estos requisitos (aunque la revista no suele publicar artículos que no hayan pasado previamente ese proceso).

A pesar de todo, parece que el estudio sí pasó por el comité de ética, que dio su visto bueno porque, en teoría, los datos los había recogido Facebook previamente, mientras que las universidades se limitaban a analizarlos y no tomaban parte en su recolección.
¿Los usuarios dieron su consentimiento?

El otro gran requisito en este tipo de estudios es que exista consentimiento informado por parte de los participantes. Según Facebook, lo hubo: el proporcionado al darse de alta en el servicio, concretamente el que se especifica en su Política de Uso de Datos.

A ese consentimiento, sin embargo, se le pueden poner algunas pegas. Para empezar, ese texto supera en castellano las 10.000 palabras. Basar la idea de un consentimiento informado (que no es un simple “Aceptar”, según los artículos 25 y siguientes de la  Declaración de Helsinki) en dos de esas diez mil palabras - "la investigación" - quizá resulte algo atrevido.

Pero aún hay más. Esas dos palabras, o el término “research” en inglés, no se añadieron a la Política de Uso de Datos de Facebook hasta mayo de 2012, es decir,  4 meses después de que se realizara el experimento. Por tanto, el consentimiento nunca pudo basarse en esos términos, que ya de por sí son poco concretos, sino en algo todavía más genérico.

Además, este tipo de estudios exigen que el participante pueda retirar en cualquier momento su consentimiento, pero ¿cómo puedes retirarlo si no sabes que lo has dado? Por no decir que retirarlo implica darse de baja del servicio, porque Facebook se basa en el visto bueno que el usuario concede al registrarse.

A pesar de todo,  hay quien argumenta que el estudio podría no requerir este consentimiento informado, dado que implica un riesgo mínimo para el sujeto, que Facebook modifica constantemente su algoritmo y que la manipulación fue relativamente inocua. El tema, por lo tanto, es más complejo de lo que parece.

¿Podría ocurrir en otros servicios?

Ahora todas las empresas medirán muy bien sus actos antes de caer en algo parecido, pero ¿podrían en teoría hacer lo mismo otros servicios que emplean algoritmos para filtrar el contenido de los usuarios? Entre servicios como Linkedin, Twitter, Spotify o Google+, que también utilizan este tipo de 'software', sólo  Linkedin hace referencia al término “research” (y en un ámbito mucho más específico).

El resto simplemente menciona que analizarán tu uso del servicio para la mejora del mismo.

¿Sueñan los algoritmos con 'feeds' organizados de noticias?

De todo este embrollo pueden hacerse varias lecturas:
  • El estudio en sí resulta muy interesante, y sus posibles potenciales aplicaciones algo preocupantes. Sin embargo, sus resultados tampoco son tan concluyentes.
  • La transparencia de Facebook en este caso ha dejado mucho que desear, por el proceso en general y por el asunto del consentimiento en particular.
  • El abuso por parte de los servicios de lo que consentimos al tuntún en sus términos y condiciones alcanza un nuevo nivel de exceso.
  • Facebook, como otras grandes corporaciones, sigue actuando como si determinadas normas no fueran de aplicación para ellas dada su magnitud, ahora en el ámbito académico.
Finalmente, no hay que olvidar uno de los motivos por los que Facebook inició el estudio: comprobar si el pesimismo de tus amigos en la red social podría hacer que la abandones.
Facebook tampoco quiere quedarse solo."              (Jorge Morell, eldiario.es, 02/07/2014

No hay comentarios: