En enero de 2012, Facebook manipuló los sentimientos de sus usuarios en un experimento sobre el poder de contagio de las redes sociales. La ética corporativa, nuestra confianza en la Red y nuestra soledad online quedaron al desnudo.
¿Estamos tristes porque usamos las redes sociales? ¿O usamos las redes sociales porque estamos tristes? ¿Cuánto afecta lo que vemos diariamente en ellas nuestro ánimo? Facebook sabe que mucho. O al menos intuía, como plataforma donde expresamos nuestras emociones y vemos las vidas de los otros durante cuarenta minutos –promedio-, que la relación es muy cercana. Y decidió comprobarlo.
Durante una semana de enero de 2012, su equipo de investigadores y científicos de la Universidad de Cornell llevaron adelante un estudio que luego fue publicado en la prestigiosa revista “Procedimientos de la Academia Nacional de Ciencias”. Tomaron a 700 mil usuarios y los dividieron en dos grupos. Al primero, le alteraron el algoritmo para que recibiera actualizaciones positivas, basadas en un filtro de palabras relacionadas (feliz, alegría, bueno). Al segundo, para leer lo contrario: noticias negativas, imágenes de tragedias, frases con la palabra “no”. Al terminar la semana, tomaron nota de qué posteaban los usuarios de uno y otro grupo. El resultado fue obvio: quienes habían recibido estímulos positivos, publicaban cosas felices, y viceversa. Los investigadores comprobaron lo que habían ido a buscar: las redes sociales tienen un enorme poder de contagio y los usuarios somos directamente vulnerables a él. El problema es que ninguno de los usuarios sometidos al estudio fue avisado de que estaba siendo parte de él.
En junio de 2014, dos años después de la investigación, la experiencia se hizo pública. De inmediato, los medios, las redes sociales y otros científicos se lanzaron a criticarlo. Y Facebook tuvo que salir a dar explicaciones. “La investigación se realizó solamente durante una semana y ningún dato utilizado estaba ligado a una persona en particular”, dijo Isabel Hernández, vocera de Facebook. La empresa también se defendió diciendo que sólo se afectó al 0,04 por ciento de los usuarios, y que su intención era mejorar el servicio para mostrar contenido más relevante. Pero las críticas seguían, y Adam Kramer, coautor del estudio, fue expuesto para dar la explicación pública: “Nos importa el impacto emocional de Facebook en las personas que lo usan, por eso hemos hecho el estudio. Sentíamos que era importante investigar si ver contenido positivo de los amigos les hacía seguir dentro o si, el hecho de que lo que se contaba era negativo, les invitaba a no visitar Facebook. No queríamos enojar a nadie”.
El problema es que nada de esto es nuevo y se resume en dos frases de la lengua popular: “El que avisa no es traidor” y “El problema no es el chancho sino el que le da de comer”.
Facebook nos avisó. Pero también nos traicionó. Sus términos y condiciones -que firmamos al abrir una cuenta- tienen 9 mil caracteres, unas 3 carillas de Word que nadie realmente lee. Directamente, ponemos “Aceptar”, para estar conectados ya (y, digamos la verdad: para no enterarnos de lo que ya sabemos que harán). En todo ese palabrerío, actualmente la empresa menciona dos veces la palabra “investigación”, informando a los usuarios que pueden ser parte de experimentos. Sin embargo, la revista Forbes reveló que la palabra fue recién incluida en mayo de 2012, cinco meses después del estudio. Y la comunidad científica aclaró: existen reglas estrictas para que los participantes de un estudio brinden un consentimiento informado ante cada procedimiento. No existe algo así como un “consenso general”.
Pero Facebook no sólo hizo esta investigación. Su equipo de Data Science, un grupo de sociólogos e informáticos que se dedican a transformar la big data de la red en resultados sobre los comportamientos y expectativas de los usuarios, trabaja “a plena luz del día”, da entrevistas y publica sus estudios en los medios. Esta vez, en vez de estudiar si los enamorados bajan su nivel de interacción cuando se ponen de novios, alteró emociones sin consentimiento previo, algo con hipotéticas consecuencias (la depresión incrementa el riesgo cardíaco un 5 por ciento, por poner un ejemplo). Pero aun cuando lo admitan, siguen siendo responsables y pasibles de reclamo, como lo hacemos cuando el Estado se mete con nuestros datos o una empresa privada lo hace. “Sería inimaginable que una empresa farmacéutica pudiera experimentar, aleatoriamente, con una droga, en cientos de miles de personas. Imaginen al investigador diciendo: ´Yo no sabía si te iba a afectar, y no te molesté para hacerlo´”, escribió Jaron Lanier, filósofo de la tecnología, en el New York Times.
La red social fue tan lejos que el profesor de Cornell Jeff Hancock, coautor del estudio, admitió a The Atlantic: “El algoritmo de Facebook es algo raro que la gente no entiende. No lo hemos discutido mucho como sociedad. Hay un tema de confianza alrededor de las tecnologías”. ¿Cinismo? ¿Pragmatismo? ¿Descaro abierto? La respuesta es: todo junto. El argumento de Hancock es que hasta sus propios alumnos no entienden cómo funciona el algoritmo de Google. “Cuando empieza el cuatrimestre les pido que busquen cada uno, en su computadora, la misma palabra. A todos les salen palabras diferentes. Piensan que Google es una ventana objetiva sobre el mundo. Y no entienden que es están algorítmicamente manejados”, dice, y propone que, si no nos gusta, lo discutamos (mientras sigue con sus estudios, claro).
¿Pero el problema se termina en Facebook o en Hancock? Definitivamente no. ¿El problema es si la red usa nuestros datos, nos investiga y vende los resultados a las empresas? ¿O somos nosotros, que aceptamos no sólo ser parte sino brindarle estados de ánimo, fotos, opiniones y pensamientos? La respuesta es clara; somos nosotros. Pero aceptarlo requiere dos cosas que no son fáciles de practicar como usuarios-consumidores: responsabilidad y control.
La responsabilidad parte de saber que las redes sociales (en realidad, toda internet) no son un ámbito privado. Son un espacio público, como una plaza, donde lo que decimos o mostramos puede verlo cualquiera que pase por ahí. Pero agregan una complejidad: al tiempo que son públicas están controladas por empresas privadas, que establecen las condiciones de la convivencia y las modifican según requieren sus objetivos comerciales (a veces sin avisar). Entonces, ¿por qué en el mundo físico conocemos –y exigimos conocer y que se cumplan- las leyes, pero no lo hacemos en el mundo digital? ¿Qué hace que no pongamos una foto de nuestro bebé en la puerta de casa pero sí lo hagamos en una red social? La responsabilidad, en ese punto, supera a las empresas, malas o buenas. Es nuestra, como ciudadanos de las redes, un espacio más que habitamos.
También está en nuestras manos el control. ¿Estamos felices porque nos enamoramos, o porque subimos una foto con nuestro novio, nuestras amigas nos dan like y nuestro ex se enteran de que lo superamos? Sí, todos necesitamos que nos halaguen, ¿pero a qué precio? Es claro que a veces usamos las redes sociales como vía de escape: estamos aburridos, saturados de trabajo, nos sentimos solos, no soportamos a la familia, dejamos la dieta. En las redes, el mundo es lindo. Hay fotos de vacaciones, bebés y gatitos. Hay, como dice el filósofo Christian Ferrer, una farmacología de la Red, que más funciona cuanto menos fuerte está nuestro espíritu. La droga es efectiva. El problema es tomarla con todo lo que viene adentro sin leer el prospecto. Si lo hiciéramos, tal vez elegiríamos sentirnos un rato más solos, pero participar un poco menos de un modelo de negocios, el de internet, que no considera más que su felicidad en forma de anuncios, y que se alimenta de nuestros likes.
(Publicada en la revista Brando en noviembre de 2014)