Un artículo original de Luca Dellanna. Podéis aprender más sobre su magnífico trabajo en su página web y suscribíos a su boletín sobre novedades de Covid-19. También podéis encontrarle en Twitter.
He leído a muchos argumentando que el virus nos sorprendió porque la mente humana tiene problemas para comprender los exponenciales.
Mi abuela te diría que no necesitas entender exponenciales para saber que el virus es peligroso. La humildad sería suficiente.
La humildad de mirar las camas de hospital improvisadas construidas en China y a España convirtiendo una pista de hielo en una morgue porque los crematorios en Madrid están saturados y darse cuenta de que este podría ser su futuro sería suficiente.
La humildad de darse cuenta de que Lombardía no es el tercer mundo, y lo que sucedió allí sucederá en otros países, a menos que reaccionen más rápido y con mayor eficacia.
Es fácil saber cómo reaccionar mejor: sería suficiente mirar lo que funcionó (en Taiwán, Singapur, Corea del Sur y China) y lo que no (en Italia) y hacer más de lo primero y menos de lo segundo.
Desafortunadamente, algunos prefieren parecer inteligentes a hacer lo que funciona, por lo que tenemos modelos. Probablemente, no por inclinación, sino porque eso es por lo que han sido valorados.
Las elecciones políticas y los comités científicos formados por pares ejercen una presión darwiniana para sonar inteligente en lugar de hacer lo que funciona, siendo esta última competencia de empresarios y otras profesiones arraigadas en el mundo real.
El resultado: una bandada de astrólogos modernos que usan modelos matemáticos.
El problema con los modelos
Algunos modelos funcionan. Sin embargo, hay tres posibles problemas con los modelos, y cualquier modelo que tenga al menos uno de ellos no debe usarse bajo ninguna circunstancia (esta discusión está inspirada en muchos trabajos de Nassim Nicholas Taleb).
Primero, el error en los resultados. En algunos modelos, pequeños errores en las entradas (inputs) producen pequeños errores en las salidas (outputs). En otros, pequeños errores en las entradas producen grandes errores en las salidas. Los modelos epidemiológicos tienden a ser del segundo tipo.
Tomemos un modelo muy simple: los casos crecen un 30% cada día. Este modelo predeciría que un brote de 100 casos crecería a 3.937 casos en dos semanas. Sin embargo, si la entrada fue incorrecta y el virus realmente crece en un 40%, el modelo predeciría 11.112 casos en dos semanas. Una diferencia absoluta del 10% en la entrada crea una gran diferencia en la salida (casi 3 veces).
En segundo lugar, el error en los parámetros. ¿Cómo sabemos si los casos crecen en un 20%, 30% o 40%? Lo estimamos. Sin embargo, si tenemos muestras pequeñas, tendremos una alta incertidumbre sobre el coeficiente, creando una incertidumbre aún mayor sobre el resultado.
Tenga en cuenta que en este caso, no es (solo) el tamaño de la muestra lo que importa, sino cómo de agrupadas están las muestras. Una muestra de 10.000 casos en 5 países es más confiable que una muestra de 100.000 casos en China, ya que este último podría proporcionar información sobre el virus o podría estar proporcionando información sobre China.
El excelente libro Gut Feelings (que significa «Instintos») de Gerd Gigerenzer muestra que la razón por la cual los humanos y los animales usan heurísticas simples no es porque sean más rápidas que los modelos complejos, sino porque funcionan mejor cuando las muestras son pequeñas o los parámetros son volátiles. En este caso, una heurística simple es: los virus se propagan rápidamente y matan a muchas personas, es mejor reaccionar rápidamente y, en caso de duda, hacer lo que funcionó durante siglos: aislar a los enfermos.
Tercero, la falsa sensación de seguridad. No me importa si su modelo puede predecir con un 95% de precisión cómo resultará la epidemia. Me importa lo que sucederá en el 5% restante de los casos. ¿Qué sucede fuera del intervalo de confianza? ¿Mueren el doble de personas? ¿O mueren miles de millones de personas?
Además, y esto lamentablemente nunca es mencionado, ¿cuál es la incertidumbre del 95%? En otras palabras, ¿cómo sabemos que el intervalo de confianza del 95% no es, en realidad, el 50%?
La respuesta: no lo sabemos. O, más precisamente, lo sabemos cuando estudiamos fenómenos que se han observado durante décadas y que no tienen posibilidad de evolucionar. Claramente, este no es el caso del nuevo COVID-19.
Modelos durante la pandemia
Es irresponsable usar modelos durante esta pandemia. Son culpables de los tres problemas mencionados anteriormente: pequeños errores en las entradas que crean grandes errores en la salida, no tenemos suficiente información sobre los parámetros y no tenemos suficiente información sobre lo que no sabemos.
Es mucho mejor vencer el miedo, tener la humildad responsable de admitir que ningún modelo puede predecir con suficiente resistencia al error lo que sucederá para justificar la creación de una política adicional, y actuar como se haría ante la falta de información confiable: hacer lo que ha demostrado funcionar y suponer que, a menos que se haga, el país terminará como los países que no lo hicieron.
Ejemplos prácticos
Taiwán no intentó modelar la propagación epidémica ni esperó a recopilar datos para informar sus decisiones. Comenzó a examinar a los viajeros de Wuhan el 5 de enero, el día en que se publicó un informe de neumonía anormal en el sitio web de la OMS.
Primero, protege; segundo, piensa; tercero, mide. (¿Por qué es necesario pensar antes de medir? Porque de lo contrario, extrapolamos de coincidencias espurias).
Singapur, al sospechar que alguien podría tener el virus (porque tiene síntomas o porque estuvo en contacto con alguien que dio positivo), primero los aísla, luego los prueba y finalmente espera los resultados antes de finalmente levantar la orden de aislamiento.
El uso de modelos
Los modelos tienen su función: comprender lo que sucedió, por qué sucedió y proponer cambios incrementales para futuros prototipos (para ser validados en el mundo real).
Sin embargo, los modelos siempre deben estar más abajo de la realidad, no más arriba, y siempre deben estar subordinados a la gestión de riesgos. Primero, proteja, luego modele, luego valide y finalmente optimice. Solo funciona de abajo hacia arriba.
No podemos permitirnos basar nuestra reacción en modelos, no cuando un error sería fatal.
Ya sabemos lo que funciona; solo necesitamos la humildad para transformarlo en acciones, incluso si no fue nuestra idea, incluso si no estamos convencidos de que sea el mejor curso de acción.
Como siempre, que nos guste un resultado y no las acciones que nos llevarían allí es una receta para la frustración.