fbpx

¿Cómo Facebook te manipula? Lo que todo el mundo debe saber

¿Cómo Facebook te manipula? Las plataformas de redes sociales dependen en gran medida del comportamiento de las personas para decidir el contenido que ven. Aunque parece una práctica común, la verdad es que Facebook lo ha llevado más allá, y tenemos mucho que cuestionarnos.

cómo Facebook te manipula

¿Qué es Facebook?

La red social más grande del mundo actualmente es muchas cosas: una revolución tecnológica, una ballena publicitaria, la estrella de una exitosa película con guión de Mark Zuckerberg.

Muchos usuarios ocasionales no se dan cuenta de que Facebook también es una gran fuente de datos para investigadores tecnológicos y académicos, tanto dentro como fuera de la empresa. Después de todo, piensa en toda la información que millones de personas dan libremente al sitio. No solo sus nombres, escuelas y ubicaciones, sino también sus afiliaciones políticas, estados emocionales y mapas detallados sobre sus redes sociales y de información.

En conjunto, estos datos representan parte de la mejor información que los científicos sociales tienen sobre el comportamiento humano. Facebook sabe todo eso, desde al menos 2008, la red ha administrado activamente su propio centro de investigación y ha empleado a varios de los principales científicos sociales para recopilar y analizar los datos de los usuarios.

En parte, esta investigación ha sido usada para mejorar los resultados de la red social, no es un secreto que Facebook también ha utilizado sus datos para impulsar una serie de estudios académicos fascinantes sobre temas importantes, como la forma en que las redes sociales ayudan en la difusión de información.

Frances Haugen, fue la fuente principal de una exposición del Wall Street Journal sobre la empresa. Llamó a los algoritmos de Facebook peligrosos, dijo que los ejecutivos de Facebook estaban al tanto de la amenaza pero antepusieron las ganancias a las personas y pidió al Congreso de los Estados Unidos que regulará la empresa. Aquí se confirmó lo que muchos sospechaban cómo Facebook te manipulaba sin darte cuenta.

¿Cómo se hace un experimento en Facebook? ¿Y eso qué significa?

Las plataformas de redes sociales dependen en gran medida del comportamiento de las personas para decidir el contenido que ven. En particular, miran el contenido al que las personas responden o con el que “interaccionan” al darle me gusta, comentar y compartir.

Las granjas de trolls, organizaciones que difunden contenido provocativo, explotan esto copiando contenido de alta participación y publicándose como propio, lo que les ayuda a llegar a una amplia audiencia. Así es en parte cómo Facebook te manipula.

Más del experimento 

Hay diferentes formas en que el equipo de datos de Facebook (y otros investigadores independientes) pueden estudiar los datos de la red social. Tal vez la forma más obvia, y menos controvertida, es recopilar datos anónimos sobre una población específica y analizarlos en busca de patrones. Por ejemplo, cuando Facebook investigó cómo las personas con discapacidad visual usan el sitio, recopiló actualizaciones de estado anónimas, comentarios y otra información de una muestra de los 285 millones de personas que acceden al sitio con lectores de pantalla. De esa gran cantidad de datos, los investigadores pudieron extraer algunas perlas de información: las personas con discapacidad visual, por ejemplo, tienen más probabilidades de ser amigos entre sí.

En ese tipo de experimento, es cierto que los investigadores nunca manipulan lo que los usuarios ven o cómo experimentan el sitio. Eso lo convierte en una buena manera de establecer correlaciones: una relación aparente entre dos cosas que no necesariamente muestra cuál causó la otra.

Pero, ¿y si los investigadores quieren estudiar una relación de causa y efecto? Para estudiar ese tipo de cambio directo, necesitan provocar el cambio ellos mismos manipulando lo que los usuarios ven en el sitio. Esto en realidad no es terriblemente raro. Para probar el diseño o las actualizaciones de la interfaz, por ejemplo, Facebook primero presenta esos cambios a un pequeño grupo de usuarios para ver cómo reaccionan. Del mismo modo, dado que los algoritmos determinan qué publicaciones se muestran en tu suministro de noticias, Facebook puede cambiar estos algoritmos y cambiar lo que ves.

No todo lo viral merece serlo

Todas las plataformas de tecnología web, como las redes sociales y los sistemas de recomendación de noticias, tienen un fuerte sesgo de popularidad. Cuando las aplicaciones están impulsadas por señales como el compromiso (contenido que ves o que te gusta) en lugar de consultas explícitas del motor de búsqueda, el sesgo de popularidad puede tener consecuencias dañinas no deseadas.

Las redes sociales como Facebook, Instagram, Twitter, YouTube y TikTok dependen en gran medida de los algoritmos de inteligencia artificial para clasificar y recomendar contenido. Estos algoritmos toman como entrada lo que ves, te gusta, comentas y compartes; en otras palabras, el contenido con el que interactúas. El objetivo de los algoritmos es maximizar la participación averiguando lo que le gusta a la gente y clasificándose en la parte superior de sus feeds.

En la superficie esto parece razonable y normal. Si a los usuarios les gustan las noticias creíbles, las opiniones de expertos y los videos divertidos, estos algoritmos deberían identificar ese contenido de alta calidad. Pero la sabiduría de las multitudes hace una suposición clave aquí: que recomendar lo que es popular ayudará a que el contenido de alta calidad “estimule”, y sí así es cómo Facebook te manipula.

Disminuyendo el compromiso

¿Qué hacer? Las plataformas tecnológicas están actualmente a la defensiva. Se están volviendo más agresivos durante las elecciones para eliminar cuentas falsas e información errónea dañina. Pero estos esfuerzos pueden ser similares a un juego de golpear un topo.

Un enfoque diferente y preventivo sería agregar fricción. En otras palabras, para ralentizar el proceso de difusión de la información. Las pruebas de CAPTCHA, que requieren que un humano responda, o las tarifas, podrían inhibir comportamientos de alta frecuencia, como me gusta y compartir de forma automática. Esto no solo disminuiría las oportunidades de manipulación, sino que, con menos información, las personas podrían prestar más atención a lo que ven. Dejaría menos espacio para que el sesgo de participación afecte las decisiones de las personas.

También ayudaría si las empresas de redes sociales ajustaran sus algoritmos para depender menos de las señales de participación y más de las señales de calidad para determinar el contenido que le ofrecen. Quizás las revelaciones de los denunciantes proporcionen el impulso necesario.

El explosivo estudio de Facebook sobre los sentimientos de los usuarios y el suministro de noticias parece sacado de una mala película de ciencia ficción. Hay un “contagio emocional”. Reticencias éticas terribles.

Es aterrador, confuso y agobiante. Pero, afortunadamente, queremos explicarte un poco más del experimento y en tus manos tengas la información necesaria para responder cómo Facebook te manipula.

cómo Facebook te manipula

¿Cuál fue el gran experimento de “contagio emocional” del que todos hablan?

Ese experimento fue realizado por científicos de datos de Facebook, junto con un profesor de la Universidad de Cornell para investigar. El experimento consistía en manipular lo que los usuarios veían.

Básicamente, los investigadores de Facebook querían saber si las cosas que ves en tus noticias afectan la forma en que te sientes. Si su suministro de noticias es todo pesimismo, ¿también sentirá cosas realmente deprimentes? Y si ves publicaciones más felices, ¿sentirás lo contrario?

Para probar eso, los científicos de datos de Facebook modificaron los algoritmos de suministro de noticias de aproximadamente el 0.04 por ciento de los usuarios de Facebook, unas 698.003 personas, durante una semana en enero de 2012. Durante el experimento, la mitad de esos sujetos vio menos publicaciones positivas de lo habitual, mientras que la mitad de ellos vio menos negativos. Para evaluar cómo ese cambio afectó el estado de ánimo, los investigadores también rastrearon la cantidad de palabras positivas y negativas en las actualizaciones de estado de los sujetos durante ese período de una semana. Los resultados se publicaron en Proceedings of the National Academy Sciences, una revista con gran prestigio.

¿Cuáles fueron los resultados del experimento?

Resultados bastante intuitivos, cuando ves más cosas positivas, públicas más cosas positivas. Cuando ves más cosas negativas, públicas más cosas negativas.

Entonces, realmente ¿cómo Facebook te manipula?

Con toda probabilidad, Facebook no manipuló tus sentimientos personalmente. En primer lugar, el experimento sólo afectó a una pequeña fracción de usuarios. E incluso esa pequeña fracción realmente no sintió el cambio: el estudio documenta solo pequeños cambios en el comportamiento del usuario, tan pequeños como una décima parte de un por ciento.

Así es como Adam D.I. Kramer, uno de los autores del estudio, defendió su metodología en una publicación pública de Facebook: “Al final del día, el impacto real en las personas en el experimento fue la cantidad mínima para detectarlo estadísticamente; el resultado fue que las personas produjeron un promedio de una palabra emocional menos, por cada mil palabras, durante la semana siguiente”.

Así hemos llegado al final de este arículo. Esperamos que la información brindada sea de tu ayuda ahora que sabe cómo Facebook te manipula. ¡Hasta la proxima oportunidad!

Artículos relacionados

Comentarios

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *