Наталья Малинина


Занимаясь проблемой моделирования много лет, я сталкивалась со случаями, когда отлаженная система давала сбои в условиях, отличающихся от тестовых вариантов. Похоже, что это и произошло при аварии на Саяно-Шушенской ГЭС. Перераспределение мощностей Сибири после пожара на Братской ГЭС привело к резкой перегрузке Саяно-Шушенской ГЭС. Логически рассуждая, системы защиты должны были быть построены таким образом, чтобы это было невозможно сделать в принципе или возможно только при кратковременных пиковых нагрузках. Повышение уровня вибрации также должно было привести к срабатыванию систем защиты. Остается только гадать, то ли подобный сценарий развития событий не предусматривался при создании систем защиты, то ли системы защиты были банально отключены. Подобная же причина, а именно: сбой программы в компьютере, проскользнула и в комментариях к аварии на подводной лодке «Нерпа» в ноябре прошлого года. Виновным тогда был признан человеческий фактор.

Но почему системы так легко реагируют на негативные проявления человеческого фактора? Почему не закричат во весь голос, почему не спросят о подтверждении его действий? Конечно, свалить проблему на человеческий фактор всегда проще. Где, когда и какая корпорация захочет признать свою системную ошибку? А если системная ошибка все-таки найдется, то это почти всегда будет неисправность конкретной детали.

Впрочем, проблема «человеческого фактора» всегда будет присутствовать, поскольку в мире усложняющихся систем часто бывает удобно организовывать их сопровождение с помощью человека.

Иногда это бывает выгодно экономически, а иногда это происходит от безысходности. Взять, к примеру, катастрофу на МАКСе. Там целиком и полностью, по всей видимости, виновен именно «человеческий фактор». Конечно, такие случаи крайне редки. Однако нельзя питать иллюзии, что можно будет когда-нибудь создать такую автоматизированную систему, которая сможет полностью заменить военного летчика или летчика-испытателя.

Полностью материал публикуется в бумажной версии журнала