Nos hemos pasado los tres últimos años hablando de Fake News y bots como la base que explica y fundamenta el nuevo marco de guerra asimétrica entre potencias.  Entendemos por asimetría del conflicto que ya no hay crisis offline y online, locales y nacionales, todas tienen capacidad de mutar rápidamente debido al ciberespacio hiperconectado. Es más, todas las crisis se dirimen en un espacio digitalizado porque el ciudadano es ciborg en virtud de sus extensiones móviles.

Buena parte de la explicación de cómo Donald Trump había llegado a la Casa Blanca estaba fundada, según algunos, en la manipulación desarrollada por ejércitos de agentes externos que difundían noticias falsas y que usaban bots para viralizar aún más el contenido. Facebook parecía ser el nuevo escenario donde manipular las conciencias. Una suerte de campo de batalla especialmente diseñado para producir lo que Eli Parisier describe como el filtro burbuja. Es decir, cómo el algoritmo decide lo que vemos y leemos porque entiende que es lo que queremos ver y leer sin darnos la posibilidad de encontrar otro tipo de contenidos. Todo parecía indicar que las noticias falsas se difundían de forma inusitada gracias a los robots pero resulta que no. Resulta que somos nosotros, los seres humanos, el tan manido “factor humano”, el mayor agente de viralización y la novedad y la sorpresa parecen explicar el fenómeno. Pero si hay algo que me parece aún más revelador es que las noticias falsas llegan mucho más lejos, más rápido, más profunda, y más ampliamente que las verdaderas. Así lo aseguran en la revista Science un equipo de investigadores del MIT capitaneados por Deb Roy a quien conocí hace 4 años en Granada.

Era la primera vez que acudía al TAT Granada (Talking About Twitter) en aquel momento en calidad de Jefe de Prensa del 112 de Madrid. Deb Roy era por aquel entonces Chief Media Scientist de Twitter. Ofreció una magnífica ponencia sobre Twitter y la TV. A mi me tocó hablar sobre “Cómo Twitter salva vidas en emergencias”. Deb Roy y yo tuvimos la oportunidad de tener un par de conversaciones privadas (la más larga de media hora) en las que estuvo presente Pepe López de Ayala, entonces CEO de Twitter España. Todavía recuerdo la pregunta de Deb “¿Cómo crees que un rumor en Twitter puede llegar a condicionar el desarrollo de una gran emergencia? Le contesté que estaba convencido de que sólo era cuestión de tiempo que un rumor no neutralizado a tiempo fuera viralizado por algún nodo influyente y que la cadena de retuits lo hicieran imparable, llegando a producir una gran alarma social y pudiendo provocar víctimas adicionales. Me preguntó cómo se podía poner freno a esto. Le contesté que cuando la conversación es limitada es posible monitorizar el estado de la red con personal suficiente. Le conté entonces la gran ayuda que los VOST (voluntarios digitales en emergencias) prestaban a las administraciones en este sentido. Sin embargo, añadí, ante catástrofes del tamaño del terremoto de Japón, con ritmos de conversación de 6.000 tuits/sg, ni con todos los bomberos del mundo a la vez se podría controlar la rotura de la presa informativa. Sorprendido me preguntó si creía que podría haber alguna solución. Le dije, obviamente, que no lo sabía, pero que el control de una presa debe estar basado en aplicar toda la tecnología posible que identifique las pequeñas grietas antes de que se abran y eso, evidentemente, no puede hacerse sólo con voluntarios vigilando. Es decir, era el propio Twitter quien debía poner los medios para limitar el riesgo. Dos semanas después Deb Roy acudió a Madrid a conocer el Centro de Emergencias 112. Deb había identificado al 112 de Madrid como el servicio de emergencia europeo de referencia en el uso de redes sociales y nos ofreció la posibilidad de participar en el proyecto Twitter Life line que estaba desarrollando en el MIT junto a los servicios de emergencia que mejor lo estaban haciendo en redes en los 5 continentes entre los que citó: los bomberos de Nueva York, La policía de Boston, la policía de Tokio y la de Queensland. Lamentablemente la Comunidad de Madrid decidió en aquel momento no participar en el proyecto por motivos que no vienen ahora al caso.

Es obvio que Deb ya estaba decidido a profundizar en el fenómeno de las noticias falsas pero creo que aquellas conversaciones le confirmaron en la necesidad de identificar los componentes íntimos de la propagación de bulos, rumores y mentiras.

El Factor Humano como piedra angular de las mentiras

Si hay un elemento de gran valor en las conclusiones del informe ahora publicado en Science es demostrar que los robots impulsan al mismo ritmo las noticias falsas y las verdaderas, lo que implica que “las noticias falsas se extienden más que la verdad porque los humanos, no los robots, tienen más probabilidad de propagarlo”.

Los investigadores fueron capaces de extraer en el análisis los tuits procedentes de bots y comprobaron que, según sus cálculos, tuvieron la misma influencia al difundir verdades que falsedades (por cierto, las falsedades sobre política, leyendas urbanas y negocios, se propagan más que en otros ámbitos que el terrorismo, los desastres naturales, la ciencia o el entretenimiento).

Es decir, el comportamiento humano contribuye más a la diferente propagación de falsedades que verdades. Esto nos lleva a pensar que la neutralización del impulso humano de la mentira debe focalizarse más en aspectos relacionados con el comportamiento en vez de en la persecución de bots como parece haberse establecido como tendencia. Todo un campo abonado, en mi opinión, para unir especialistas de diferentes disciplinas como la comunicación, el marketing, la psicología y la sociología.

Una pequeña brecha puede producir un seísmo comunicativo

Otras de las grandes sorpresas de este estudio es que los usuarios que propagan las noticias falsas tenían significativamente menos seguidores, seguían significativamente a menos personas, eran significativamente menos activos en Twitter, había menos con cuentas verificadas, y llevaban en Twitter menos tiempo comparados con los que difundían informaciones verdaderas. Es decir, (y esto es una opinión personal) parece que la experiencia en Twitter, el tiempo que una persona lleva en la red, su alto nivel de contacto con otros, quizá su mayor experiencia para identificar noticias falsas, funciona como una especie de vacuna para limitar las posibilidades de difundir rumores o noticias falsas.

De alguna manera, las noticias falsas se están difundiendo pese a que quienes las propagan no son precisamente influencers ni lo líderes de una comunidad. Para los autores, las mentiras, pese a ello, se expanden viralmente y la explicación, según los autores, reside en la novedad y en que provocan respuestas de temor, indignación y sorpresa. Citan para ello la Teoría de Bayesian “cuando la información es nueva, y no sólo sorprendente, además tiene más valor”. Unamos a esto el sesgo de confirmación señalado en varios estudios psicológicos según el cual las personas prefieren creer lo que confirma sus creencias.

Es decir, volviendo a la charla que tuve en su día con Deb Roy, la clave está en esa pequeña brecha que se inicia con la concatenación de cascadas de informaciones falsas que comparten personas con escasa influencia y que, de no ser neutralizadas en su inicio, corren el riesgo de generar una grave rotura en el momento en el que un nodo influyente caiga en la trampa y comparta el contenido generando una cascada adicional de noticias falsas que terminen por derribar la presa.

Cómo contener las grietas empleando Digital Experience

Utilizando como base el modelo comunicación y Marketing descrito por (Iván Pino y Marcos González, 2018) para LLORENTE & CUENCA, voy a intentar proponer una metodología preventiva para la construcción de alianzas que contribuyan a limitar el efecto de la publicación de falsedades sobre marcas y compañías.

Como explican los autores debemos tratar de hacer la “Conversión” de la persona hacia el “Advocacy” de la marca a través de procedimientos de atracción “Inbound” que nos permitan obtener su recomendación. Todo ello, a través de la automatización de la analítica de grandes datos y desplegando contenidos en los puntos de contacto digitalizados. Todo desde la comprensión de que son las expectativas y creencias compartidas por las personas (Reputación), con predominio de lo emocional (como hemos visto en el estudio de Science) las que determinan la relevancia de las experiencias con las marcas.

Definimos según el siguiente esquema los principales grupos de interés.

GruposInterés

La forma de llegar a estos grupos de interés será lo que, Pino y González, denominan touchpoints “Puntos de Contacto”. Es decir, “todas las interacciones entre cliente y marca por cualquier tipo de canal que generan impronta y por lo tanto emociones en los grupos de interés”.

Para lograr el Advocacy de los grupos de interés, donde muchos con poca influencia son capaces de viralizar la falsedad, debemos hacer una gestión de la reputación (creencias compartidas) que convierta a esos grupos en promotores y defensores de las marcas desde sus propias redes personales de comunicación. Este sería el esquema que proponen Pino y González:

  • Definir la identidad corporativa de la marca: creencias y propósitos diferenciales
  • Compartir esas creencias y propósito con los grupos de interés mediante referencias, evidencias y experiencias.
  • Estimular acciones en sus grupos de interés coherentes con esas creencias y propósitos que generen valor compartido.
  • Sostener experiencias favorables a partir de aquellas acciones que generen confianza en los grupos de interés
  • Habilitar plataformas que transformen confianza, basada en el propósito y creencias compartidas, en una promoción y defensa genuina de la marca (advocacy) por parte de los grupos de interés

Quiero poner foco de forma especial en este último punto. La constitución de plataformas compartidas que defiendan a las marcas. No me refiero a plataformas tecnológicas. Hablo más bien de identificar grupos de personas que se conviertan en auténticos aliados de las marcas. Parece algo muy complicado pero es exactamente eso lo que los servicios de emergencia españoles promovieron en su momento con el apoyo en la constitución de los equipos VOST de voluntarios digitales en emergencias. Profesionales de las emergencias que ayudan de forma voluntaria a los servicios de emergencia a hacer protección civil en las redes sociales.Trasladar ese modelo al campo corporativo se convierte ahora en un gran reto si queremos contar con aliados (auténticos Brand Lovers) que en caso de incidente acudan a defender a la marca.

Cómo identificar las grietas en su origen

Sin duda es este el factor más complejo de abordar hoy día porque requiere de desarrollar tecnología capaz de analizar grandes paquetes de datos en muy poco tiempo y ser capaz de identificar vectores de riesgo mediante análisis semántico justo en su inicio. Además, el estudio del MIT lo que demuestra es que la difusión de falsedades no se resuelve identificando a los influencers que habitualmente publican información negativa sobre las marcas. El problema es antes, mucho antes, y a sus responsables no les conocemos, no son influencers. Trabajar en esa dirección es pues el reto que el bueno de Deb Roy pone ahora encima de la mesa. Espero que luz Nazarí de Granada nos ilumine a todos.

@LuisSerranoR

Director área de Crisis

Madrid