¿Quién decide qué noticias consultamos, Google o nosotros?

Ana Muñoz van den Eynde, Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas (CIEMAT)

¿Es el algoritmo el que está detrás de la selección de las noticias que aparecen cada día destacadas en nuestras líneas de tiempo y muros de las redes sociales y otros medios digitales? ¿O somos nosotros los que activamente buscamos un determinado sesgo en las noticias y contenidos que leemos?

La respuesta más probable a estas preguntas es: una combinación de ambos. Es una respuesta importante si queremos entender el papel que desempeñan las redes sociales e internet en el aumento de la polarización y la desinformación. Para contestar con algo más de seguridad, vamos a seguir el procedimiento con el que se aborda un problema científico.

Cámaras de eco y sesgos

La ciencia es una forma de conocimiento que se distingue de otras por un conjunto de valores y perspectivas compartidos. Se apoya en datos obtenidos empíricamente, contrastables y reproducibles. Además, cambia continuamente según surgen nuevas evidencias. Así que primero hay que consultar la evidencia disponible.

Algunos estudios muestran la existencia de “cámaras de eco” en internet, resultado de la tendencia de los buscadores y las redes sociales a mostrar a los usuarios información del mismo tipo, acorde con sus ideas.

Una tendencia que refuerza el sesgo de confirmación, uno de los sesgos cognitivos más potentes. Los sesgos son las estrategias desarrolladas por nuestro cerebro para atender a la gran cantidad de información que recibe. El sesgo de confirmación, en concreto, es la tendencia a buscar la información que refuerza nuestra opinión y a descartar la que la contradice.

También hay evidencia de que los “chorros” (feeds en inglés) de las redes sociales muestran a los usuarios contenidos proporcionados por quienes piensan de manera diferente para fomentar la polarización. Es lo que se conoce como el efecto “nut picking”, que podríamos traducir como “recolección de puntos de vista antagonistas”.

Tanto el nut picking como las cámaras de eco son fenómenos dirigidos por los algoritmos, pero con sentido contrario (aunque un mismo efecto polarizante): en las cámaras de eco se prioriza la información a favor de nuestras opiniones, para reforzarlas, y en el nut picking se nos ofrece el punto de vista contrario sobre todo, para contribuir a polarizarnos. Podrían incluso ocurrir de manera simultánea si unos algoritmos (o unas redes) deciden adoptar una estrategia y otros otra.

Por último, un nuevo estudio publicado en Nature apunta a que la decisión de compartir y leer información sesgada o no fiable la toman los usuarios y no se puede atribuir al algoritmo que utilizan los buscadores.

Tres hipótesis

Hay, por tanto, tres hipótesis:

  • Internet y las redes sociales fomentan que la gente se refugie en cámaras de eco donde solo se exponen a la información que confirma sus opiniones.
  • Las redes sociales fomentan la polarización exponiendo a los usuarios a información contraria a sus opiniones, para activarlos.
  • Las personas no se dejan llevar por los algoritmos y deciden a qué información se exponen y comparten.

¿Relación causal?

Planteadas las hipótesis, hay que ver si la evidencia permite aceptarlas. La ciencia trata de obtener explicaciones causales. Por tanto, hay que ver quién es el “culpable” de la desinformación, los que la proporcionan o quienes deciden consumirla y distribuirla.

Para establecer una relación causal deben cumplirse tres requisitos:

  1. La causa debe ocurrir antes que el fenómeno a explicar.
  2. La causa y el fenómeno deben variar simultáneamente, es decir, debe haber una asociación.
  3. Debemos descartar explicaciones alternativas.

Solo podemos estar seguros de que hay una relación causal cuando obtenemos los datos en un experimento bien controlado. Los estudios sobre el consumo de información en internet son correlacionales (analizan la covariación, el criterio 2, pero no permiten establecer el criterio 1 ni el 3).

No excluyentes

Por otro lado, al valorar la evidencia disponible debemos tener en cuenta que las tres hipótesis no son excluyentes. Tampoco son equiparables. Las dos primeras se centran en el papel de las redes sociales. La tercera, en el papel de los buscadores.

La segunda quiere explicar la polarización. La primera y la tercera, la desinformación. Por tanto, la evidencia a favor de cualquiera de ellas no permite descartar las otras.

Cámara de eco en redes sociales

Los estudios sobre la cámara de eco analizan de forma masiva la circulación de información en redes sociales. Manejan grandes cantidades de datos que implican a miles de usuarios. Pero no estudian directamente su comportamiento. Y hay evidencia de que existen diferencias individuales en la susceptibilidad al sesgo de confirmación.

Además, el efecto cámara de eco parece depender del medio en el que se busque la información. No está presente en el consumo de noticias, pero sí en el contenido de las redes sociales.

Medios digitales y algoritmo

Los estudios sobre el efecto nut picking o selección interesada son más recientes que los del efecto “cámara de eco”. Por tanto, las diferencias pueden deberse a la decisión empresarial de aumentar algorítmicamente la exposición a ideas opuestas.

Estos estudios reflejan la asociación entre el consumo de medios digitales y la polarización, pero no tienen en cuenta a los buscadores. Tampoco a los individuos, que muestran diferentes niveles de propensión a este fenómeno. Además, en vez de utilizar datos empíricos, analizan la literatura publicada.

Exposición, participación y seguimiento

El estudio sobre el papel de los buscadores diferencia entre exposición (las URL proporcionadas por los algoritmos), participación (engagement, las URL con las que los usuarios interaccionan) y seguimiento (interacción con las URL proporcionadas por los buscadores). Sus resultados indican que la exposición a información sesgada se explica sobre todo por la participación.

El análisis de la evidencia proporcionada muestra algunos problemas. Las URL con las que interaccionaron los participantes se obtuvieron tras realizar una búsqueda, por lo que no se puede rechazar la influencia de los buscadores.

El papel de los buscadores

Comprobar la influencia de los buscadores en la información que recibimos es sencillo. Basta con poner las mismas palabras clave en nuestro ordenador y pedirle a otra persona que haga exactamente la misma búsqueda. Podemos ver que los resultados son diferentes.

No se dice cuántas personas participaron, no se describe el procedimiento para obtener la muestra y no se describe a los participantes. Y son variables que pueden influir notablemente en el resultado.

Por ejemplo, se ha encontrado que las personas con más capacidad de pensar de manera analítica son más exigentes al utilizar las redes sociales: interaccionan menos con cuentas poco fiables, siguen menos cuentas y tienden a compartir información más fiable.

Otros sesgos

En el reciente artículo de Nature se habla de “alrededor” de 900 participantes. ¿Qué peso tiene el comportamiento de 900 personas entre los millones que utilizan internet?

Los participantes accedieron a instalar una aplicación para que se pudieran monitorizar sus búsquedas en internet. No podemos descartar que eso generara cambios en su comportamiento, entre otros factores debido al sesgo de deseabilidad social.

Volviendo al principio, tanto los usuarios como los algoritmos influyen en los contenidos que reciben. Internet y las redes sociales han cambiado radicalmente el modo en que nos informamos. Lo que sabemos sobre los efectos de los medios de comunicación en general sugiere que influyen de muchas maneras. Pero necesitamos más conocimiento científico sobre sus efectos, investigaciones que tengan en cuenta a los individuos. Esa es la principal aportación de la evidencia más reciente.The Conversation

Ana Muñoz van den Eynde, Responsable de la Unidad de Investigación en Ciencia, Tecnología y Sociedad (UICTS), Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas (CIEMAT)

Este artículo fue publicado originalmente en The Conversation. Lea el original.