Sobre Facebook. Eso se le cruzo por su escamosa cabeza con ojillos que brillan al encontrar en la Redes una intervención del notable Rober Mur, periodista, poeta y libertino intelectual de Berazategui, en el mismísimo Facebook. El Pejerrey Empedernido es el nombre que él mismo eligió, a contramano de su primer bautizo, que le había llegado de arriba. Navega por las Redes, porque de redes sabe escapar. Para quienes aun no lo conocen recordemos que esta sección, cuyo título deriva de ciertos textos del sabio mexicano Alfonso Reyes – en el Descanso IX de su libro de obligatoria lectura “Diez descansos de cocina (Fragmento de Memorias de cocina y bodega y Minuta)”; Fondo de Cultura Económica; México; 1998) –, se dedica a retomar intervenciones en las llamadas redes sociales, en algunos casos con firmas conocidas y en otros no tanto, que hacen a la pugna por la sobrevivencia existencial de los habitantes de estas tierras, más allá de sus géneros, credos o no credos, colores, sean o no unicornios azules; identidades varias o pertenencias culturales. Luz, cámara y al abordaje.
Habrás visto que Facebook te hace creer que le importa mucho tus ideas, con esa leyenda en el recuadro para que escribas, que dice “¿Qué estas pensando…?”. Mentirita, mentirita; a ellos les interesas lo mismo que a Mauricio Macri le preocupa tu felicidad: un mero y sencillo carajo. Como el gobierno de Cambiemos, Facebook sólo existe para hacer negocios. Y leé por favor lo de Rober Mur.
En las redes sociales no hay verdades acabadas. Es imposible encontrarlas. Todo lo que circula ahí se diluye en ese laberinto virtual que –como todo en el capitalismo- tiene dueño. La mano invisible del mercado del lenguaje digital no entiende de realidad o ficción. Al final del día da lo mismo postear “hoy me voy a suicidar” que «quiero comer una tortilla de papas a la española”. Al final del día, todas las palabras van a parar a la cuenta bancaria de Mark Zuckerberg. Sólo el Estado ha buscado históricamente ser el referí que impone los límites institucionales de la verdad y la justicia. Pero eso no viene al caso. Porque para el machismo, se sabe, ni el Estado tiene reglas explícitas como tampoco el mercado tiene limitaciones concretas. No obstante, entre medio del caos silencioso, sí hay pistas que hablan de un mundo que nos está enviando señales de manera permanente.
Por eso, entre otros puntos, hay que bancar los escraches. Porque en un acto tan contundente como lo es el escrache de una figura pública vinculada a un acto de violencia machista, anteponer de antemano el “yo no fui” es desviar la atención de lo que intenta gritarnos a todos: no es un abuso, son todos. No es un músico, un político o un actor, es un sistema de violencia misógina. Entrar en el juego de “es verdad o mentira” es “inocente o culpable” (obviamente aferrado al vicio tácito de la posverdad, donde la gente es benévola o maligna solo porque me parece que lo es o no lo es) es caer en la trampa liberal de “mi machismo termina donde empieza el del otro”. Es juzgar un hecho por sí mismo, aislado de su historia, de su condición y del mapa del poder en que está encarcelado.
En el escrache no es la verdad individual de la venganza la que habla, es la verdad histórica de la opresión la que intenta salir a flote como sea. Es el estallido de una frustración colectiva ante un sistema que no tiene respuestas para dar.
Un escrache no es sólo la denuncia urgente que intenta significar. Es la advertencia de algo más grande. Ahí, las redes sociales –como todo medio de comunicación- no son el origen de una verdad informativa unívoca, son apenas un resultado más de un mundo prendido fuego que nos está intentando decir algo desde miles de lugares. Ya sea en el alboroto de las calles, en las discusiones parlamentarias o desde la soledad privada de una pantalla de computadora o celular.
Mientras nos quedamos debatiéndonos en criterios de culpas e inocencias individuales y circunstanciales en la virtualidad atomizada de los medios, hay una marea de mujeres, gays, lesbianas, travestis y trans que están peleando contra un mundo de urgencias, contra una realidad que desborda de crudeza todos los lenguajes y códigos para narrarla; mientras tanto, esa marea avanza sobre los escombros que Estado y mercado le han dejado a mano. En todas esas trincheras, estamos todos indudablemente obligados a escuchar, entender y compartir esas peleas. La emergencia de un mundo de violencia e injusticia nos lo exige.
A propósito de Facebook y en otras aguas no muy limpias nuestro Pejerrey Empedernido encontró esto que publicara el diario La Nación:
Un estudio mide cómo Facebook influye en la manera en que se informan los argentinos
¿Quién define qué noticias leemos? Históricamente fueron los medios: periodistas dándole relevancia a ciertos hechos. En los últimos años surgió un intermediario: Facebook , el sitio más visitado del país, y que el 65 por ciento de los argentinos usa como fuente de información, según el Instituto Reuters para el Estudio del Periodismo. Facebook es un vehículo para ver lo que generan otros. Pero no todo lo que publica un medio en Facebook será visto, aún si el usuario eligió «seguir» el perfil de ese medio, es decir, aun si demostró un interés directo por el contenido de ese perfil.
Esto es un problema. Para los medios, sin duda: pierden el control sobre su audiencia, que sólo verá las notas que Facebook selecciona (para ver el resto deberán ir a la Web del medio, o usar su aplicación). Pero lo es también para quienes creen que Facebook es un informante neutral, y que no decide qué notas se ven más y cuáles no. Esto último es lo que buscó hacer evidente un experimento hecho en nuestro país a fin del año pasado.
El experimento lo hicieron Renata Ávila, Juan Ortiz Freuler, Craig Fagan, de la World Wide Web Foundation, la fundación que aboga por una Web abierta y por democratizar el acceso a la información, iniciada por Tim Berners-Lee, el creador de la Web ( que considera que la Web abierta está bajo amenaza). Tuvieron la colaboración de Claudio Agosti en la recolección de datos.
En diciembre de 2017 crearon cuentas falsas en Facebook: seis mujeres de 30 años, sin ingresar más datos que esos. Todas siguieron a las mismas 22 fuentes de noticias dentro de Facebook, incluyendo La Nación, Clarín, Infobae, Página 12 y otros medios, y también los perfiles de Mauricio Macri y de Cristina Fernández de Kirchner. Todas se conectaron a la misma hora en forma periódica. Una semana después de su creación, el 15 de diciembre, hicieron un cambio: dos cuentas le dieron Me gusta a varias publicaciones de Mauricio Macri; dos hicieron lo mismo con posteos de Cristina Fernández de Kirchner; y otras dos permanecieron «neutrales». Querían medir cómo cambiaba el contenido que se le mostraba a cada perfil.
El resultado: de las 11.603 notas publicadas por las 22 cuentas noticiosas dentro de Facebook durante 11 días, sólo el 18 por ciento de esas notas fue mostrado a los seis perfiles. Facebook eligió contenido diferente incluso para las cuentas que tenían un perfil similar.
La medición es limitada, y el alcance del experimento también lo es. Pero confirma en forma local estudios hechos en otros países: las redes sociales eligen qué noticias ven sus usuarios; el filtro noticioso, que antes era social y compartido, ahora depende de un algoritmo. Facebook no es un medio, pero termina actuando como tal.
«La amplitud de esta brecha entre lo que se ve y lo que se oculta representa el gran margen de discrecionalidad con el que cuenta la plataforma, y que se encuentra fuera del control de los usuarios», afirman los autores del experimento, al que accedió LA NACION, y que puede leerse en el sitio de la Fundación o junto a estas líneas.
Qué responde Facebook: «La sección de Noticias de cada persona en Facebook es única y está diseñada para que encuentren el contenido más relevante para cada una de ellas. Lo que cada persona ve es determinado por sus intereses e interacciones con otras personas, Páginas, noticias, negocios y contenidos», explica Ana Clara Prilutzky, Gerente de Comunicaciones de Facebook Argentina. Existe una fórmula que valora las publicaciones de amigos y familiares, primero (esto no era así cuando se hizo el experimento), luego las noticias y el contenido entretenido.
«No favorecemos ciertos tipos de fuentes ni ideas. Nuestro objetivo es entregar las historias que, según hemos aprendido, le interesan más a un individuo -dicen en Facebook-. Hacemos esto no solo porque creemos que es lo correcto, sino también porque es bueno para nosotros. Cuando la gente ve contenidos que le interesan, es probable que pasen más tiempo en el News Feed y disfruten de la experiencia.»
Las redes sociales generan así una suerte de diálogo, como oposición al monólogo de los medios tradicionales, que antes de la Web publicaban casi a ciegas. Facebook no esconde que hace una selección (en el caso analizado, no hubiera sido posible mostrar los 11 mil posteos completos; es muchísima información): pero, argumentan en la World Wide Web Foundation, es difícil determinar cómo y por qué decide qué muestra.
En enero, después de que se hiciera la medición del estudio, Facebook cambió cómo organiza las publicaciones, privilegiando las de amigos por sobre las noticias. También incorporó una herramienta llamada Artículos Relacionados (no disponible todavía en la Argentina) que muestra, en una publicación, cómo otros medios están tratando la misma noticia.
Lo hizo respondiendo a la tormenta en la que está envuelta la compañía en los últimos años por su papel como vehículo de noticias falsas y propaganda política.
Esta decisión afectó el número de visitas que Facebook le deriva a los medios, que tienen una relación ambivalente con la red social; les trae visitantes, pero en el medio se queda una parte creciente de la torta publicitaria. Algunos medios, que producían contenido sólo para este sitio, debieron cerrar; algo similar pasó cuando Instagram probó con cambiar el orden cronológico por uno algorítmico.
«Lo que intentamos mostrar es el margen de discrecionalidad de Facebook al definir qué contenido muestra y cuál oculta -sintetiza Craig Fagan, uno de los autores del estudio-. Estas plataformas tienen como objetivo maximizar el tiempo que pasamos conectados (para vendernos más publicidad), y son quienes definen qué noticias circulan y cuáles no. Alguien podría argumentar que los medios de comunicación tradicionales también tienen esta tensión. Pero en el caso de Facebook no es posible reclamarle a una persona en particular, ni conseguir una respuesta de por qué cierto contenido no fue visibilizado. Necesitamos más transparencia, y que el control el algoritmo esté en manos del usuario, y no de la plataforma.»
En este sentido, hace unos pocos días Facebook anunció la posibilidad de cambiar el orden de la lista de publicaciones (Noticias, o News Feed, en inglés) del orden algorítmico a uno cronológico: primero se ve lo más reciente. Pero es una configuración temporal: después de un tiempo volverá al formato predefinido: lo más popular primero.
Los medios siempre eligen qué publicar y qué no. Pero la oferta completa está disponible para el lector: todas las notas de un sitio, la duración entera de un noticiero o programa de radio. En Facebook esa oferta es opaca: en el período que midió el experimento, por ejemplo, a las cuentas analizadas no se les mostró noticias sobre femicidios, aunque hubo notas publicadas sobre el tema en los perfiles que seguían. El algoritmo ( esa fórmula de aplicación automática, pero programada por personas, por lo que también tiene un sesgo) las consideró irrelevantes.
«Es como recibir un diario con notas recortadas -argumentan los autores del informe-. Los usuarios necesitan comprender mejor cómo la tecnología funciona y afecta a sus dietas informativas, y su percepción de la realidad».
El tema no es nuevo: ya en 2011 el activista estadounidense Eli Pariser acuñó el término «burbuja de filtros» ( filter bubble , en inglés) para dar cuenta de este fenómeno: un canal de información hecho tan a medida termina siendo una anteojera.
Eli Pariser habla de la burbuja de los filtros – Fuente: YouTube 8:55
Las redes sociales no son la única fuente de información: mucha gente también lee noticias en los medios en forma directa, ve televisión, escucha radio. Pero no todos. En Estados Unidos, por ejemplo, el 50 por ciento de los adultos encuestados por el Pew Research Center en agosto último tenían a Facebook como única fuente de información.
«Hasta hace no tanto te informabas con la lógica de un medio; veías algo porque un grupo de gente lo había elegido. En lo que muestra Facebook influye lo que el medio publica en esa red social, lo que comparten tus amigos, y otro tanto lo que define el algoritmo. Se mezclan la lógica editorial, la de la recomendación social, y la algorítmica», describe Eugenia Mitchelstein, profesora de la Universidad de San Andrés y autora, junto a Pablo Boczkowski, de La brecha de las noticias.
Según Mitchelstein, esto cambia la jerarquización de la noticia: «en un medio tradicional sabés qué se consideró más importante por su ubicación en la página del diario, o el tiempo dedicado en el noticiero. En Facebook no está esa jerarquía: la noticia de la falta de quórum para un debate parlamentario aparece mezclada con el posteo del casamiento de un amigo.»
Así, explica la investigadora, se diluyen los límites entre la información pública masiva y la información personal, mezcladas en una línea infinita de publicaciones (aunque ciertas noticias sigan sin verse). Tener más en claro cómo se produce ese cruce es lo que busca esclarecer el estudio: y lograr una mayor transparencia para la elección y distribución de noticias que, para un número significativo de personas, llegan vía Facebook.