¿Por qué ignoramos las advertencias que podrían salvarnos?

ANASTACIO ALEGRIA
9 Lectura mínima

Conduzca rápido, tal vez demasiado rápido, por la autopista de noche. Tal vez está nevando o lloviendo, o tus ojos se ponen vidriosos porque te sientes cansado después de un largo día, o suena tu teléfono y miras hacia abajo por un momento. De repente, el coche que está detrás de ti se detiene y pisas el freno. Sientes que tus neumáticos patinan y por un momento estás seguro de que te has estrellado.

Pero luego: Nada.

Te detuviste a tiempo. El corazón late, exhalas. Estás conmocionado, pero también impresionado por tus rápidos reflejos. Piensa para ti mismo: no ha habido ningún daño.

Pero el daño ya casi está hecho. Y ese es el problema.

Estos fracasos a menudo desaparecen de nuestra mente tan rápido como ocurren. Pero son la información de seguridad más valiosa que tenemos. Las personas, las organizaciones y las sociedades a menudo no logran prevenir los desastres, no por falta de advertencia, sino porque no toman en serio los fracasos.

El científico de seguridad James Rison vio los cuasi accidentes como “inmunizaciones” para un sistema de seguridad, oportunidades de descubrir y corregir vulnerabilidades subyacentes antes de que ocurra un daño real. Pero con demasiada frecuencia perdemos estas oportunidades. Tenemos suerte y en lugar de investigar o analizar qué salió mal, seguimos adelante.

Mi interés en los cuasi accidentes surge de mi práctica de la medicina y mi investigación sobre la historia de los desastres y fallas del sistema, trabajo que inspiró mi libro Escrito con sangre. El estudio de los desastres en campos que van desde los incendios hasta el transporte y la atención médica muestra que las señales de advertencia a menudo son visibles mucho antes de que ocurra el desastre.

La actualización del software iOS 26.1 de Apple solucionó múltiples vulnerabilidades críticas que podrían haber permitido a los atacantes tomar el control de los iPhone. (Unsplash+/Getty Images) La suerte no es una estrategia

Tome algo tan cotidiano como su teléfono. A finales de 2025, Apple lanzó iOS 26.1, una actualización de software de rutina. Excepto que no era una rutina. Parchó múltiples vulnerabilidades críticas que podrían haber permitido a los atacantes tomar el control de los iPhone. Si los piratas informáticos hubieran tenido éxito, los datos y la privacidad de millones de usuarios podrían haberse visto comprometidos. Y aunque es posible que algunos teléfonos hayan sido pirateados, para la mayoría de las personas la crisis se evitó.

En la atención sanitaria, los cuasi accidentes son comunes: un medicamento que casi se administra al paciente equivocado pero que se detecta a tiempo, o una herramienta quirúrgica que se contó mal pero se encontró antes de que se cerrara la incisión del paciente. Estas son señales graves, pero con demasiada frecuencia no se denuncian. La mayoría de los proveedores de atención médica no informan los cuasi accidentes debido al miedo a la culpa, la falta de retroalimentación o la falsa creencia de que sin daño no hay problema.

El personal de atención médica a menudo ni siquiera se da cuenta de que se ha producido una falla. Si no buscamos los cuasi accidentes, es casi seguro que no aprenderemos de ellos.

Coches borrosos en la intersección.

Un estudio reciente de la Asociación Canadiense de Automóviles encontró que solo 20 intersecciones monitoreadas registraron más de 610.000 “cuasi accidentes” entre septiembre de 2024 y febrero de 2025. CANADIAN PRESS/John Woods

El transporte muestra el mismo patrón. Casi accidentes en carreteras heladas. Los trenes frenan justo antes de cruzar la señal. Una aeronave que se desvía después de que los sistemas de la aeronave detectan una falla mecánica en vuelo. En la aviación y el ferrocarril, estas situaciones cercanas se tratan como datos. En muchos otros sectores, se los descarta como ruido de fondo. Pero los datos están ahí.

Un estudio reciente de la Asociación Canadiense del Automóvil (CAA) encontró que solo 20 intersecciones monitoreadas registraron más de 610.000 incidentes de “cuasi accidentes” (cuasi accidentes entre vehículos y peatones o ciclistas) desde septiembre de 2024 hasta febrero de 2025.

Nuestros sistemas envían señales. Cada vez que tenemos suerte es una oportunidad para aprender: una oportunidad para construir mejores capas de defensa; una oportunidad de prevenir la próxima tragedia. Los fallos no son falsas alarmas. Son la retroalimentación más honesta que da el sistema: el futuro, un susurro en el presente.

Nuestros cerebros no están equipados para la prevención

Entonces, ¿por qué no aprender de los momentos difíciles?

Los psicólogos saben desde hace mucho tiempo que el cerebro humano es terrible a la hora de procesar riesgos invisibles. Reaccionamos exageradamente ante eventos dramáticos pero reaccionamos insuficientemente ante accidentes. Confundimos felicidad con certeza. Y rechazamos lo que “casi” pasó.

Tres trampas psicológicas son particularmente perniciosas:

Sesgo de disponibilidad: recordamos los grandes desastres, pero no los cientos de veces que se evitaron los desastres. Esto distorsiona nuestro radar de riesgo. Sesgo de confirmación: asumimos que el sistema es seguro porque no ha fallado. Pero muchos sistemas sobreviven no porque sean fuertes, sino porque todavía no se ha creado nada para romperlos. Optimismo: Sabemos que a otras personas les pasan cosas malas, pero asumimos que nuestra habilidad o suerte nos protegerán.

El modelo del “queso suizo” de Reason describe cómo ocurren los desastres cuando se alinean las debilidades en múltiples capas de defensa. Un cuasi accidente ocurre cuando casi se alinean y algo, a menudo por accidente, bloquea el camino. Pero si no tapamos esos agujeros, es posible que no tengamos tanta suerte la próxima vez.

Pista de un aeropuerto con un avión rodando en primer plano y otro despegando al fondo

La aviación, la energía nuclear y el control del tráfico aéreo son las llamadas “organizaciones de alta confiabilidad” que tratan las situaciones cercanas como puntos de datos. PRENSA CANADIENSE/Darryl Dick

Hay excepciones. La aviación, la energía nuclear y el control del tráfico aéreo, las llamadas “organizaciones de alta confiabilidad”, lo entienden. Idealmente, tratan cada situación cercana como un punto de datos. Institucionalizan la presentación de informes. Nunca olvidan tener miedo.

Estas organizaciones alimentan un malestar crónico, una especie de paranoia productiva. No es pesimismo; eso es realismo. Saben que los sistemas suelen fallar a menos que se corrijan constantemente. Esa mentalidad es la razón por la que se encuentran entre los sectores más seguros del mundo.

Imagínense si lleváramos esa forma de pensar a múltiples sectores, si cada texto de phishing que casi engaña a alguien se convirtiera en una razón para mejorar la seguridad, si cada error médico menor fuera visto como un fracaso. El precio de ignorar un cuasi accidente siempre acaba pagándose: en reclamaciones de seguros, fallos de infraestructura, demandas y duelos evitables.

¿Qué puedes hacer ahora?

Si los cuasi accidentes son señales de advertencia, el paso más sencillo es dejar de ignorarlos. Cuando algo casi sale mal, el instinto suele ser perder la suerte. Pero la felicidad son datos. Esta es la prueba de que el sistema estaba al borde del fracaso.

La verdadera lección de los cuasi accidentes es que nos permiten aprender sin pagar el precio total del desastre. La industria aeroespacial, la energía nuclear y otras industrias de alto riesgo han construido sistemas de seguridad completos en torno al estudio de estos momentos.

Y en nuestra vida cotidiana debemos tratarlos de la misma manera: en la carretera, en casa y en el trabajo. Fíjate en ellos. Habla de ellos. Corregir las condiciones que los hicieron posibles.

Porque el objetivo no es simplemente evitar el desastre. El objetivo es aprender de los momentos en los que las cosas casi salen mal.


Descubre más desde USA TODAY NEWS INDEPENDENT PRESS US

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Comparte este artículo
Deja un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish

Descubre más desde USA TODAY NEWS INDEPENDENT PRESS US

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo