Hay organizaciones que sí trabajan con Error Cero.
No lo consideran una opción, simplemente cometer un error si quieres, aunque suceda a veces. Las HRO más conocidas son las plantas nucleares, portaaviones, instalaciones de misiles, fábricas de semiconductores, controladores de tráfico aéreo y la industria de la aviación en general.
En estas organizaciones los errores no son aceptables. El criterio que trabajan es el de nunca eventos, bajo ninguna circunstancia estos hechos pueden suceder. Por otro lado, tenemos muchas industrias que trabajan con lineamientos 6 Sigma, es decir, logrando menos de 4 errores por millón de eventos o productos. En salud tenemos el 10% de Eventos adversos (AE) en la atención, es decir, errores procesales con perjuicio, el 50% de los cuales son evitables. Este indicador lo dan la Organización Mundial de la Salud y Anvisa. Pero tomando sólo el 10% y el 50% llegamos a 50.000 errores por millón, muy lejos de los 4 por millón de las compañías 6 Sigma, o de los 12 accidentes por millón de vuelos de la industria de la aviación comercial. Aunque la medicina es una ciencia mucho más compleja que la aviación, cuando entramos en el área de los errores humanos, los sistemas y la disciplina de la seguridad, los valores se vuelven comparables.
Debemos enfatizar que el 95% o más de los AA son causados por deficiencias del sistema y no por errores humanos. Así, podemos aprovechar los criterios de seguridad que otros han adaptado para llegar a cifras mucho más bajas.
Después de visitar hospitales en más de 20 países, encontramos una enorme disparidad en el nivel de seguridad entre ellos.
- Muchos países todavía no hablan de Seguridad del paciente
- En varios lugares, sacar el cloruro de potasio de las salas de los hospitales y dejarlas sólo en la farmacia, una tarea sencilla, se convierte en algo heroico.
- Muchos paquetes de medicamentos son iguales y nadie ayuda a cambiar eso.
- Muchos hospitales carecen de tecnología básica, como el escaneo de códigos de barras
- El 30% de desperdicio en los hospitales impide invertir en automatización
- La falta de un alto directivo Calidad en hospitales
- Sigue vigente una política de culpabilidad para el profesional de la salud
- El gradiente de autoridad entre los empleados ralentiza los comentarios, sugerencias y alertas
- Los gobiernos incluso compran equipos costosos, pero invierten poco en sistemas básicos como el sistema sanitario de la población (agua y alcantarillado).
- La salud es un derecho universal en muchos países y su provisión es responsabilidad de los gobiernos. Entonces falta inversión por falta de prioridad.
- La inversión en prevención y educación sanitaria en general ya es demasiado escasa para reducir el gasto
- No hay obligación de que otros sectores ayuden. Por ejemplo: laboratorios, industrias alimentarias y educación en las escuelas.
Por tanto, queda mucho camino por recorrer para mejorar el sistema de Salud, y el primer cambio que tenemos que hacer es Actitud y preocupación por lo que está pasando. Al cambiar actitudes, tenemos una creciente preocupación por la incidencia de los procesos cognitivos en los resultados. En particular, se habla de la técnica de la plena conciencia.
O Sistema Opuspac ofrece libros electrónicos gratuitos para realizar la administración de medicamentos de forma consciente. Ver el enlace: https://www.opuspac.com/br/downloads/
Hemos resumido a continuación el repertorio de políticas y criterios organizativos de HRO:
- Preocupación por los fracasos
Hay conciencia de que pueden ocurrir fracasos. Cometer errores es humano y es casi una condición natural que podamos fallar. Los sistemas automáticos, con sus algoritmos, no interpretan todas las situaciones de la realidad y sólo manejan situaciones lógicas que pueden ocurrir. La incidencia de varios factores simultáneos conduce a resultados inesperados. Los HRO se centran en estudiar errores pequeños y cuasi errores, con la misma determinación, como si fueran fallos mayores. La gestión se orienta tanto a estudiar los fallos como a mantener la productividad.
- Renuencia a simplificar las interpretaciones.
En un sistema complejo, la simplificación es un error metodológico. De ninguna manera podemos dar una respuesta simple o simplista a un problema que ocurre dentro de un sistema complejo. Debemos considerar las limitaciones que impone el contexto: nuestro sistema mental, las limitaciones de la estructura física, del pensamiento lógico, qué partes de la totalidad no estamos viendo.
- Sensibilidad para las operaciones
Tener la burbuja es un término utilizado en la Armada norteamericana para definir cuando un comandante tiene una percepción de la integridad de los elementos de la compleja realidad del entorno, junto con la dinámica operacional. Es percibir la totalidad, a través de instrumentos integrados con la acción humana. Esté atento a posibles malas interpretaciones, cuasi accidentes, sobrecargas del sistema, distracciones, sorpresas, señales confusas, interacciones, etc.
- Compromiso con la resiliencia
Se refiere a anticipar posibles problemas, incluyendo cierta simultaneidad y capacitación para resolver la situación ante ellos. Resiliencia aquí se refiere a superar las sorpresas que algunos incidentes pueden producir y resistir, estar preparado para el error, aceptar la inevitabilidad del error y prepararse para luchar cuando llegue el incidente.
- Estructuras jerárquicas más planas
Se ha estudiado que en instituciones con una fuerte orientación jerárquica los errores se propagan más rápidamente. Esto sucede en mayor medida cuando el incidente comienza en los niveles organizacionales más altos que en los niveles inferiores. Tener una organización que trabaje más en base al consenso ayuda a prevenir estos problemas. El término “anarquía organizada” ha sido definido como un medio de control.
La responsabilidad de resolver una incidencia recae más en los especialistas en la materia que en los responsables jerárquicos. Estar presente en el momento del incidente también determina quién puede tomar decisiones. Una característica deseada es una estructura jerárquica definida pero más flexible.
Una organización es confiable cuando, ante fluctuaciones anormales en las condiciones internas y externas del sistema, mantiene un resultado deseado.
No basta con obtener resultados deseables cuando se controlan los parámetros de entrada. TRH, Teoría altamente confiable (Charles Perrow) define que no es la estabilidad de los insumos lo que nos dará la estabilidad de los resultados.
Entonces la conclusión es:
a) Ocurrirán errores y debes estar preparado.
b) Tu objetivo debe ser cero errores.
Nuestro modelo de seguridad preferido es siempre tener dos sistemas trabajando simultáneamente, como el sistema computarizado, que a través de algoritmos predefinidos gestiona automáticamente todas las operaciones, y el control humano, que supervisa paso a paso todos los eventos para corregir y mejorar la seguridad.