Error humano
Por Tomás Buch
En los últimos tiempos se han producido por lo menos tres eventos graves que fueron atribuidos a «errores humanos». El primero, y el que nos toca más de cerca, es el accidente del avión de LAPA. El segundo, es el grave accidente nuclear que se produjo en el Japón. El tercero, menos publicitado porque no hubo pérdida de vidas ni peligros siniestros, fue la pérdida del vehículo espacial 'Mars Climate Orbiter' en las inmediaciones del planeta rojo. Los tres casos son igualmente difíciles de entender.
En el caso del avión, se dice que una alarma sonó durante más de medio minuto, y al parecer los pilotos no le hicieron caso. En el segundo, los operarios violaron la regla de seguridad más elemental y obvia, que es la de no juntar jamás «masa crítica» de un nucleido fisionable. En el tercero, la NASA y uno de sus contratistas no se pusieron de acuerdo sobre las unidades de medida que usaban, y unos hablaban de centímetros y los otros entendían pulgadas. Los tres casos son simplemente… ¡increíbles!
Tan increíbles son, que llevan a una reflexión acerca de cuál es el papel humano en sistemas tecnológicos que son tan altamente complejos que su funcionamiento está casi más allá de la comprensión. El humano es en todos esos casos el eslabón más débil de una cadena que sería más segura sin ellos. ¡Los robots no pueden equivocarse!
¿Qué es, en primer lugar, un error? Uno piensa en un acto fortuito, un acto debido al azar, o a un acto fallido. Hay errores por comisión, cuando yo hago algo que no debiera haber hecho, y por omisión, cuando no hago algo que debería hacer. Pero en los tres casos mencionados, no puede haberse tratado de meros «accidentes fortuitos». Las consecuencias de tales errores eran demasiado graves como para dejar las cosas a la deriva, abiertas a la posibilidad de que ocurra un hecho fortuito. En todos ellos hubo un «pecado» previo, más grave que el mismo error que fue la causa inmediata del accidente: hubo una negligencia que creó una vulnerabilidad donde no debería haberla. Para tomar un ejemplo trivial: si yo echo sal en vez de azúcar en mi café, cometo un error similar al de los operarios japoneses. Pero la sal no viene habitualmente en un recipiente igual al del azúcar.
El accidente pudo ocurrir porque antes hubo alguien que llenó de sal la azucarera, o alguien que decidió que la azucarera no fuese claramente distinguible del salero. Si hubiese habido controles antes del accidente, éste no hubiera podido producirse.
Y una negligencia tiene a su vez razones. Si no tiene mala intención, se basa en una forma de pensamiento mágico: ¡no va a pasar nada! Es el más grave error de pensamiento que pueden cometer los que no respetan las estrictas normas que rigen el mantenimiento de los aviones, y también las operaciones en una instalación nuclear.
Pero lo peor de todo puede ocurrir si este tipo de pensamiento mágico se refuerza con los intereses económicos: en ese caso alguien puede llegar a convencerse de que no va a pasar nada porque las medidas de precaución cuestan dinero. Allí el pensamiento mágico puede rozarse con la negligencia criminal. En un sistema tecnológico complejo se pueden cometer errores en todas las etapas de su «vida», desde la concepción y el diseño en adelante, aunque los que son más conocidos son los errores en la manipulación del funcionamiento, que es sólo la última etapa de una larga secuencia. Los modernos métodos de gestión de la calidad tienen mucho que ver con esto: cuando una empresa se rige por las famosas «normas ISO 9000» que son cada vez más publicitadas, la calidad empieza por las normas de diseño, para evitar que se cometan errores que más adelante puedan conducir a consecuencias graves. Los análisis «post factum» revelan estos errores y contribuyen a evitar que se reproduzcan en el futuro. Por ejemplo, al hacer el análisis de lo que pasó en Chernobyl, se encontraron errores de concepto en el diseño, que hacía insegura la operación de la central en ciertas condiciones. Esa central nunca hubiera debido construirse ni operar. No hubiese sido autorizada en Occidente.
Una norma elemental de este tipo es la que establece qué sistema de unidades han de usarse en todos los proyectos. Al parecer esto inexplicablemente no se cumplió en el caso del satélite marciano.
Probablemente no vieron este problema porque era demasiado obvio. A veces no vemos lo que está delante de nuestra nariz…
Un buen diseño involucra elementos tales como el tamaño de las letras que los operadores deben leer con comodidad, la iluminación de los lugares de trabajo, la posición de las palancas o botones que debe operar, la comodidad de su asiento, etc. Todos estos factores contribuyen a la comodidad del operador, y a la buena atención que dispensa a loverdaderamente importante. Cuando se produce un accidente grave, siempre se genera un gran debate acerca de las responsabilidades. Bien llevados, es decir, si no sirven simplemente para sacarse de encima responsabilidades, estos debates valen para evitar que los accidentes se repitan. Los operadores humanos ¿estaban bien capacitados para la tarea que deben desempeñar, estaban bien alertas, descansados, cómodos, en el momento del accidente? ¿Hubieran podido evitarlo? La opinión pública no acepta bien la idea del error humano. Que un piloto o un operario se haya equivocado, causando la muerte de una cantidad de gente, y muchas veces la suya propia, nos resulta menos tolerable que una falla del «sistema». Resulta, por supuesto aún más inaceptable para los parientes de los supuestos responsables que se equivocaron.
Y si no fue el operador inmediato, ¿Quién fue? Preferimos creer en la fatalidad, el «acto de Dios» cuyos designios son inescrutables. En este caso, el accidente se asimila a un terremoto o a un huracán, y nadie pudo evitarlo ni tiene culpa alguna. La tercera categoría de culpables es el «sistema», o la misma complejidad de la situación. El sistema abarca una serie variada de categorías, que son todas escrutadas con desconfianza por la opinión pública. El primer eslabónvisible del «sistema» es la empresa, que tal vez priorizó sus ganancias, que no se esmeró en el mantenimiento de sus equipos, ni en cuidar el estado psicofísico de sus operarios; o en respetar sus decisiones técnicamente fundadas, aún cuando sean inconvenientes para los intereses de la empresa.
Una persona mal pagada, cansada o preocupada se equivoca mucho más frecuentemente que si está en perfecto estado de satisfacción. En el caso del avión, las instalaciones del aeropuerto forman parte obvia del «sistema», aunque en este caso echarle la culpa fue un acto de oportunismo mal fundado. Lo cual no debe hacernos olvidar que allí hay una grave fuente de posibles errores humanos en los controladores aéreos, sobre cuyos hombros descansa una responsabilidad enorme, y que, como nos enteramos hace algún tiempo, ganan unos sueldos sin relación con la capacitación y la disposición que su tarea requiere. Por suerte, en esta oportunidad su intervención no fue parte del cuadro. Otros integrantes del «sistema» son las autoridades, que deben regular lo que hacen las empresas y muchas veces miran para otro lado.
El operador humano suele ser el eslabón más débil y de comportamiento menos previsible en la secuencia de acciones que desencadenan un accidente. Por lo tanto, se debe tender a reducir al mínimo las ocasiones para que se produzca este «error humano». Ello se logra de dos maneras: aumentando el grado de automatismo de las instalaciones, y la «inteligencia» en los circuitos automáticos, para reducir las fuentes de error, y llevar al mayor nivel posible el entrenamiento de los operadores humanos, con el fin paradojal de que su respuesta sea lo más automática posible. Es decir: un piloto bien entrenado manejaría casi tan bien como un robot… Pero aún no existe el pilotaje totalmente automático.
Según algunos investigadores del tema, las acciones humanas en la operación de aparatos o sistemas complejos son de tres tipos. El primer tipo abarca las acciones que se automatizan y casi desaparecen de la conciencia, como el caminar o el hablar la lengua materna. Manejar un auto puede automatizarse de este modo, lo cual es una fuente grave de accidentes. Es el caso del que conduce con una mano, mientras tiene un celular en la otra y piensa en el tema de su conversación. El segundo tipo de acciones son las basadas en reglas y decisiones pautadas. Éstas son las que debe ejecutar un operador de un sistema complejo, como un avión o una instalación industrial o nuclear. En este caso las reglas deben estar bien diseñadas, y, sobre todo, deben cumplirse al dedillo. El tercer tipo de acciones es el de aquellas que requieren conocimientos y un alto nivel de reflexión. Una tarea como la de escribir esta nota requiere de los tres tipos de acciones, y las más automáticas, como tocar las diferentes teclas de mi computadora, tienden a desaparecer de la conciencia. Las del segundo tipo son las que se refieren al manejo de las instrucciones a la máquina, para las que tengo que tomar decisiones de nivel más alto. La del tercer tipo, es la de creación del texto, a la cual debo dedicar casi toda mi atención.
Todo humano tiende a ejecutar una tarea en el nivel más bajo posible, minimizando la cantidad de decisiones o reflexión que deberá tomar o aplicar a la ejecución. Las tareas basadas sólo en habilidades requieren muy pocas decisiones conscientes, y en ellas se pasa directamente de un estímulo activador a la fase de ejecución. Las tareas basadas en reglas requieren cierta elaboración, al integrar la información disponible y seleccionar cuál regla resulta aplicable. Las tareas basadas en conocimiento requieren un nivel de evaluación y elaboración superior para la selección de procedimientos adecuados para la ejecución de la tarea. Cada tipo de tarea se asocia con un tipo de error que le corresponde. Los de la primera clase, pueden ser actos fallidos o no; son actos tales como el de pisar mal y torcerse un pie. Los de la segunda, muchas veces consisten en la omisión de una tarea pautada. Aquí es donde se cometen la mayoría de los «errores humanos» que nos ocupan en esta nota. Los de la tercera, son errores de criterio, o la mala evaluación de una situación de peligro.
Es relativamente fácil recuperarse de los errores de las dos primeras clases, siempre que existan adecuados mecanismos de realimentación para darse cuenta del error y el comportamiento del sistema no sea irreversible. El caso de una equivocación o error de criterio es más complejo, porque un operador puede pretender insistir en un recurso erróneo ante la presencia de información contradictoria. Los casos anotados, los errores humanos más frecuentes y graves son aquellos en los que se reemplaza una decisión automática pautada, o el cumplimiento de una norma con una decisión de orden superior. Es allí donde el operador se cree más inteligente que el sistema. Esa es la vez donde el sistema toma venganza.
Una de las generalizaciones más frecuentemente citadas en relación con este tema es la denominada «Ley de Murphy»: todo lo que puede andar mal, lo hará, y del modo que ocasione más daño. Algunos agregan a esto: Murphy era un optimista. Y sin embargo, la ley de Murphy es enteramente falaz. Si miramos a nuestro alrededor y vemos cuántos son los aviones que NO se caen, queda cierto margen para un optimismo más realista. De todas las cosas que pueden andar mal, sólo unas pocas lo hacen. Pero hacen mucho ruido, y duelen tanto…