Y eso es lo que debió pensar Facebook en el estudio que realizó durante una semana en el año 2012 (y que ha visto recientemente la luz) a través del cual se modificaba los contenidos que recibieron 689.003 usuarios de la plataforma social en su news feed. Dicha modificación se basaba en la alteración de los contenidos positivos y negativos que recibían unos y otros (entre un 10% y un 90% del contenido emocional fue omitido) con la finalidad de estudiar y llegar a la conclusión que los estados emocionales pueden ser transferidos a través del contagio emocional en Internet. En dicho estudio, «Experimental evidence of massive-scale emotional contagion through social networks», se analizaron un total de más de 3 millones de publicaciones, la cuales contenían más de 122 millones de palabras (4 millones de estas palabras eran positivas y 1,8 millones eran negativas).

El estudio señala como conclusiones que el contagio emocional se produce también de manera textual a través del ordenador y no solo a través de persona a persona, que se puede predecir las expresiones emocionales de los amigos, incluso días más tarde de una publicación (tanto negativa como positiva) y que la difusión de publicaciones emocionales son las que hacen en mayor medida que el resto de personas participen.

Práctica no ética, pero que aceptamos

Una vez que decides darte de alta en Facebook tendrías que ser consciente (aunque no quieras aceptarlo) que entras a formar en parte del juego (aunque en ocasiones puedas considerar que es un juego sucio).

De hecho si vamos al apartado de Facebook “Qué información recibimos y cómo se utiliza” vemos que ya nos avisan de que nuestros datos son suyos también, de hecho no sabría decir a quién pertenecen más esos datos que subimos tras leer las cláusulas de “Declaración de derechos y responsabilidades” y “Política de uso de datos

[Podemos utilizar la información que recibimos] para operaciones internas, incluidos la solución de problemas, el análisis de datos, la investigación, el desarrollo y la mejora del servicio.

Pero que lo aceptemos no significa que sea ético. De hecho una gran cantidad de personas y usuarios de la plataforma social han mostrado su disconformidad ante este tipo de prácticas, y de las cuales no sabemos si son muy habituales o si ahora mismo estamos metidos en alguna investigación. Únicamente nos damos cuenta de estas prácticas si salen publicadas en algún estudio o nota de prensa de la propia plataforma.

Uno de los autores del estudio ha salido al paso a estas críticas publicando un mensaje en su perfil de Facebook y en el cual viene a decir que se hizo porque se preocupan del impacto emocional de Facebook y de las personas que están dentro de la plataforma. Que lo hicieron con la meta de aprender como proporcionar un mejor servicio.

A modo de conclusión

Este tipo de estudios en el cual se manipula la información que reciben las personas da que pensar. No sabes si realmente estás viviendo en una realidad “real” o en una realidad forzada. ¿Qué podemos pensar ahora de Facebook? ¿Será la próxima arma de cambio de opinión de las personas? ¿Podrá Facebook cambiar gobiernos e incendiar a la gente para rebelarse?

Lo que está claro es que nuestras emociones, e incluso nuestro futuro, depende de la información que recibamos en cada momento… y si esa información está manipulada o sesgada están creando una poderosa arma explosiva con la información.