Creo que fue D. Zarrella, autor de “La ciencia del marketing”, quien dijo que “La próxima vez que escuches un mito sobre los social media, cuestiónalo”, haciendo alusión a la ingente información que circula sobre estos medios y a las reglas que parecen controlar su comportamiento, siendo éstas la mayoría de las veces fruto de la intuición y no consecuencia de análisis rigurosos siguiendo procedimientos científicos cuyos resultados sean contrastables y reproducibles.
Lo cierto es que las herramientas de análisis que permiten aproximarse al concepto de éxito o de retorno de la inversión en acciones de marketing digital o de notoriedad en medios sociales online, siguen unas métricas formal y comúnmente aceptadas pero que no alcanzan el rango de axiomas, ya que lo que hay detrás de los resultados es la conducta de personas con las que no se interactúa directamente sino a través de sus respuestas o acciones ante la pantalla del ordenador o de dispositivos móviles.
Somos capaces de saber (o de calcular) los costes por visionado, por conversión, de adquisición, por contacto, por click, por impresiones… o los ingresos medios por usuario, o los ratios de retorno de la inversión, de la vinculación emocional, del engagement o de la reputación online; podemos identificar los niveles de audiencia, de visibilidad, de interacción o de influencia con tan sólo hacer uso de las llamadas matrices SMO (Social Media Optimization) o cuadros de mando que nos permitirán adoptar las estrategias pertinentes para obtener el máximo rendimiento de nuestras acciones en el mundo digital. Pero la interpretación correcta de esos datos sólo estará justificada por un incremento de negocio cuando las cifran así lo hayan predicho; pero ¿y cuándo se producen gaps importantes entre lo esperado y lo obtenido?.
Todo esto me recuerda dos cuestiones: la teoría de la incompletitud de Gödel y las propiedades emergentes de las poblaciones.
Con el teorema de Gödel llegamos a la conclusión de que no todo es demostrable con razonamientos lógicos matemáticos y, para ello, se establecen teorías formales o conjuntos de reglas que pueden definir las hipótesis como consistentes o como completas, pero nunca las dos a la vez. Una formulación consistente no puede contener contradicciones; es decir, no podemos demostrar un supuesto y su contrario al mismo tiempo. Y una formulación completa es capaz de dar respuesta a una propuesta y a su contraria (o refutable).
Con el teorema de la incompletitud barajamos dos ideas básicas: la primera es que podremos usar fórmulas y operaciones para describir las relaciones entre los datos que usemos, y la segunda es que podemos manejar reglas para manipular las fórmulas mediante algoritmos con los que obtener los resultados pretendidos.
En cuanto a la propiedad emergente, cuando nos referimos a un sistema o a una población, son los atributos que no se aprecian en los individuos que lo componen y que, sin embargo, se ponen en evidencia sólo cuando estos coexisten en un espacio dado. Pensemos, por ejemplo, en el sistema nervioso; las neuronas de forma aislada son capaces de llevar a cabo una serie de acciones y reacciones que por sí solas no determinan un comportamiento, una emoción, un recuerdo, etc., pero la actividad conjunta de un número determinado de ellas sí que es responsable de que se produzca. Más aún, el cerebro, como reunión de todas las células nerviosas y sus diferentes funciones, es responsable del carácter de un individuo mientras que una neurona no tiene personalidad por sí misma.
La propiedad emergente tiene la particularidad de que el resultado global de las interacciones de todos y cada uno de los individuos es mucho mayor y tiene un sentido que la suma de cada una de sus acciones individuales. Esto es así en el caso del cerebro humano, de una colonia de hormigas o de un sistema químico complejo. Pero, ¿y en los medios sociales?
Hace unos años, un joven N. Silver rompió todos los esquemas de predicción electoral de los “sesudos analistas políticos tradicionales” al pronosticar con exactitud los porcentajes de participación y de voto de los ciudadanos estadounidenses, en las elecciones del 2008 y del 2012. Su procedimiento fue el uso de herramientas estadísticas y de un complejo método estadístico de pronóstico que barajaba la información global y por estados, por separado y agregada. Pero sobre todo una especial capacidad para interpretar los resultados en base los argumentos que previamente había descrito, con claridad, precisión y convicción.
De ahí que D. Zarrella nos invite a desconfiar de ciertas afirmaciones referentes a los social media, o en general al mundo digital, ya que la mayoría de la veces, a los especialistas que barajan datos relevantes o las estadísticas complejas para explicar o predecir el éxito o fracaso de una acción online, carecen de la aptitud suficiente para observar la información atomizada para construir hipótesis consistentes o complejas, y la sagacidad necesaria para detectar la propiedad emergente que caracteriza al conjunto de usuarios de la red.
José Manuel Navarro Llena
@jmnllena