La preocupación de las sociedades occidentales por la difusión de bulos (o fake news) por las redes sociales se disparó tras la elección hace un año de Donald Trump. Descubrimos con asombro que un millón de americanos vieron la noticia falsa en Facebook de que el Papa Francisco había apoyado la candidatura de Trump y que otro millón vio la noticia de que Trump había prestado su avión privado para rescatar a unos marines. Historias absurdas e inverosímiles adquirieron enorme eco, como que la campaña de Hillary Clinton encubría una red de “trata de blancas” centrada en una pizzería de Washington.

Los 20 bulos con mayor difusión (todos menos tres, pro Trump) tuvieron más impacto que las 20 noticias de mayor calado de los medios tradicionales. A menor escala, algo similar ha sucedido en la campaña del Brexit o en la del referéndum catalán del 1-O.

Al principio, las redes sociales, Facebook y Twitter principalmente, respondieron al interés de los políticos en los bulos centrando la atención de las investigaciones en los anuncios pagados. Facebook inicialmente explicó que solo hubo 3.000 anuncios falsos en la campaña americana, por un coste total de 100.000 dólares.

Es conveniente para Facebook, Twitter y Google hablar solo de anuncios, un aspecto relativamente fácil de tratar, porque desvía la atención del enorme problema que solo ahora empezamos a entender: el modelo de negocio de estos gigantes, que controlan entre ellos el 95% de la publicidad online del mundo, tiene un grave fallo de base: la información falsa se expande a enorme velocidad a través de cuentas ficticias y campañas “orgánicas” (no pagadas) y este fenómeno es mucho más significativo que los anuncios. En realidad, los anuncios son solo la punta del iceberg.

Por eso el Parlamento británico ha exigido a Facebook una nueva investigación, más allá de la publicidad, del impacto de la interferencia rusa en la propagación de bulos a través de la red social en el referéndum del Brexit, petición a la que Facebook accedió el pasado miércoles. Por su parte, el Congreso y Senado americanos han abierto varias investigaciones sobre el impacto de estas campañas de desinformación y el papel de Rusia en ellas, incluyendo en el referéndum del 1-0 de Cataluña. El Congreso americano ha dejado claro a Facebook, a Twitter y a Google que no tolerará que traten de restringir las investigaciones a los anuncios. Los legisladores quieren entender cómo la información falsa y maligna se propaga con facilidad por las redes para decidir cómo regular su funcionamiento.

Para entender esta propagación, es crucial entender los incentivos de los ingenieros y ejecutivos de Facebook, Twitter o Google: se trata de vender publicidad, y para ello es necesario que pasemos mucho tiempo enganchados en sus redes. Nosotros no somos sus clientes, al contrario: nuestra atención es el producto que ellos cosechan, y luego tratan de vender a los anunciantes, sus clientes. Como dice el dicho, “si no pagas, no eres el cliente, eres el producto”. Los algoritmos que diseñan nos observan, aprenden nuestras preferencias, y se van adaptando a ellas. El ingeniero que progresa es el que formula algoritmos para que las noticias, los vídeos, las fotos que alguien cuelga se extiendan más y mejor por la red, para que se hagan virales, las leamos, las compartamos, las discutamos.

En parte, este esfuerzo por maximizar el interés es positivo para nosotros, los usuarios. Si soy fan del Betis, me enseñarán noticias sobre el Betis, y esto me satisface. Pero hemos descubierto que también tiene un lado muy oscuro. El trabajo que investiga este lado oscuro tuvo su origen en un grupo de activistas que llevan años indagando en la propagación de bulos por Internet. Su historia nos sirve para entender el problema al que nos enfrentamos.

La pionera de estos activistas se llama Renee DiResta y es directora de marketing de una empresa. Descubrió el poder de los bulos por casualidad, de una forma que nos resultará familiar: los bulos sobre las vacunas. Cuando nació su hijo, estudiando sobre vacunaciones, descubrió que tras entrar de forma casual en los sitios de los chiflados de las conspiraciones anti-vacunas, Facebook la “empujaba” a leer otras historias de otros anti-vacunas. El universo se ampliaba siempre en la misma dirección. Cuantos más chiflados leía, más se le presentaban, en un universo homogéneo de (si me permiten) idiotez auto-confirmada por las historias conspirativas de los demás.

No solo eso. Cuando el algoritmo descubrió que ella era sensible a las teorías conspiratorias de los antivacunas, Facebook le presentaba nuevas teorías conspiratorias en otras áreas—gente que cree, por ejemplo, que las nubes blancas que dejan los aviones en el cielo son esprays químicos para manipularnos. Gente que en el pasado sería el “tonto del pueblo” en la esquina de un bar contando sus alucinaciones, ignorado por todos, y que ahora encuentra un público similar a él o ella y dispuesto a colaborar en extender estas noticias—.

Noten que no se trata de que alguien en Facebook publique noticias falsas, o quiera que leamos noticias falsas. Simplemente el mismo algoritmo que “aprende” que nos gusta el Betis, aprende que las historias raras que cuenta X nos gustan, y nos busca otras similares. La desinformación, las noticias falsas peligrosas, se extienden de persona a persona. No hace falta que un gobierno malvado nos manipule, porque si creemos en los ovnis, veremos historias sobre gente que vio ovnis, o, por dar un ejemplo más cercano a casa, si creemos que España es un Estado represor parecido a Turquía, nos presentarán otras historias de otros chiflados que crean lo mismo, hasta que vivamos en un burbuja de falsedades.

Facebook, o Twitter, nos dirán “es el problema de nuestros usuarios si buscan historias falsas, no nuestro. Nosotros somos una empresa de tecnología y solo facilitamos que la gente se comunique con quien quiera, no somos un medio de comunicación”.

Pero esto no es correcto. El algoritmo no distingue verdadero o falso, y nos presenta lo falso como verdadero, porque está diseñado con un objetivo, y solo con un objetivo: maximizar el impacto, la viralidad. Si el algoritmo buscara otras cosas (por ejemplo, balancear el impacto con la veracidad) nos presentaría otras noticias.

Revertir esta situación nos exige poner fin a la impunidad de estas redes sociales. Las sociedades occidentales deben dejar claro que son responsables de las noticias que sus algoritmos propagan y dan relevancia las redes propietarias de estos algoritmos. Cuanto antes se convenzan Facebook, Twitter, Google y el resto de que no son empresas tecnológicas, sino editores y medios, y por tanto responsables del contenido que propagan, antes conseguiremos recuperar una visión positiva y optimista del papel de Facebook, Google y Twitter.

Luis Garicano es Profesor de Economía y Estrategia en el IE Business School y responsable de economía y empleo de Ciudadanos.

Fuente: El País