Рис. 15. Главные и побочные последствия изменения пропускной способности воды в реакторе
Как показывает схема, следствием включения всех восьми насосов стало снижение давления пара. Это совершенно естественно: когда воду закачивают в систему отопления с более высокой скоростью, вода нагревается не так быстро, что приводит к относительно более низкому выходу пара. Относительно низкий в сравнении с количеством закачиваемой воды выход пара может быть и абсолютно низким, и в этом случае вышло именно так. Поскольку паровые турбины были нужны для предстоящего эксперимента, были приняты встречные меры: проток воды увеличили в три раза. Это привело вовсе не к желаемому результату; вместо этого давление пара еще больше снизилось, то есть эффект оказался прямо противоположным. Само по себе это не было бы опасно. Опасным было то, что еще больше графитовых стержней автоматически поднялись из реактора. Почти излишне говорить о том, что помимо этого было отключено и устройство, которое при падении давления пара вызывало автоматическое отключение реактора.
В 1.22 начальник смены потребовал отчет о количестве стержней в реакторе. В результате выяснилось, что в реакторе находится лишь 6–8 стержней. Это гораздо ниже количества, требуемого для нормального уровня безопасности. Работа реактора менее чем с двенадцатью стержнями категорически запрещалась.
Если вы предполагаете, что требование отчета о количестве стержней вызвало некое чувство опасности, в которой находились люди, то вы ошибаетесь. До взрыва оставалось меньше двух минут, но руководитель смены решил продолжить эксперимент. Это означало, что реактор будет использоваться практически без тормозов.
В 1.23 закрыли одну из пароотводящих труб, ведущую к одной из турбин, – это было необходимо согласно программе тестирования. Следствием этого стало, однако, то, что включилась система безопасности с обратной связью. Минутой позже – по-видимому, что-то заметив – операторы попытались совершить нечто вроде аварийного торможения. Была предпринята попытка вернуть графитовые стержни обратно в реактор, однако это было невозможно, так как трубы, в которые должны были проскользнуть стержни, уже деформировались из-за слишком большого повышения внутренней температуры. В этот момент произошло два взрыва. Остальное в этой истории всем известно.
Что из области психологии мы здесь обнаруживаем? Мы видим склонность проводить слишком много мероприятий под давлением времени. Мы видим неспособность мыслить нелинейно, то есть не причинно-следственными цепочками, а причинно-следственными сетями; неспособность принимать в расчет немедленные и отдаленные последствия собственного поведения. Мы видим недооценку экспоненциальных процессов – неспособность увидеть, что экспоненциально происходящий процесс, раз начавшись, развивается с высоким ускорением. Все это – когнитивные ошибки, погрешности в способности к осознанию.
Рис. 16. Скрытые причины Чернобыльской аварии
Эти изначальные ошибки имеют свои собственные скрытые причины, представленные на рисунке 16. В отношении сотрудников, работавших на украинском реакторе, речь шла о сплоченной команде из весьма авторитетных профессионалов, которая даже получила премию за то, какую масштабную роль их реактор играл в электросети. Возможно, именно высокая степень самоуверенности этой команды была отчасти ответственна за аварию: реактором управляли не «аналитически», а до некоторой степени «интуитивно». Люди считали, будто они знают, что именно должны принимать в расчет, и, возможно, считали себя выше «смехотворных» предписаний безопасности, созданных для «детишек», которые только начали работать с реактором, а не для команды опытных профессионалов.
Склонность группы специалистов утверждать, что они все делают хорошо и правильно, скрыто подавлять критику внутри группы через гнет единообразия, описал в 1972 году Ирвинг Дженис[18], говоря об опасности группового мышления у команд политиков, принимающих важные решения[19], – например, у команды советников Кеннеди перед катастрофически окончившейся операцией в бухте Кочинос[20] (см. также главу 8 этой книги).
Свой вклад в чернобыльскую аварию внесло и то, что все эти нарушения предписаний безопасности «в виде исключения» допускались вовсе не в первый раз – они повторялись и прежде, только без последствий. Это превратилось в «метод», в привычку; это делали потому, что всегда поступали именно так.
В связи с чернобыльской катастрофой и другими (произошедшими или едва не произошедшими) несчастьями речь часто заходит о сбое в работе людей, то есть человеческом факторе. У понятия «сбой», конечно, есть огромное количество разных значений. И конечно, у персонала четвертого реактора в Чернобыле этот «сбой» оказался настолько сильным, что реактор взорвался.
Однако если говорить о сбое в том смысле, что кто-то не добился нужного результата, то применительно к отдельным элементам поведения, в результате которых в конечном итоге произошла чернобыльская авария, мы имеем дело не со сбоем. Никто не заснул, когда должен был бодрствовать. Никто не проглядел сигнал, который должен был увидеть. Никто по ошибке не привел в действие неправильный выключатель. Все произошедшее операторы делали осознанно и явно с убеждением, что они все делают правильно. Как нечто само собой разумеющееся они отключили предохранительные устройства, хотя это было запрещено. При этом они ничего не проглядели и ничего не сделали по ошибке – напротив, по их мнению, меры по обеспечению безопасности были слишком ограничивающими для их слаженной и опытной команды. Подобные убеждения можно встретить не только при обращении с атомным реактором. Такую лестную веру в себя можно обнаружить абсолютно на любом промышленном предприятии и у любого автомобилиста, не пристегивающего ремень безопасности.
В поведении операторов реактора мы видим многое из того, что уже наблюдали у испытуемых в экспериментах с Таналандом и Лоххаузеном: трудности в отношениях со временем, трудности в оценке экспоненциально развивающихся процессов, трудности с пониманием ближайших и отдаленных последствий и склонность к изолированному мышлению по схеме «причина – результат». На фоне результатов экспериментов с Таналандом и Лоххаузеном поведение операторов в Чернобыле кажется совершенно понятным. Эти выдающиеся эксперты АЭС были бы совершенно обычными испытуемыми в Таналанде или Лоххаузене.
3. Требования
До сих пор мы описывали случаи – примеры того, как вели себя те или иные люди в тех или иных реальных или не совсем реальных ситуациях. В следующих главах мы дадим более систематизированную информацию. Мы проанализируем, какие требования предъявляют комплексные ситуации к умственным способностям людей и к их умениям строить планы и принимать решения. Мы проанализируем, как человек должен вести себя в отношении этих требований и какие возможности для ошибочного поведения неизбежно возникают из специфических видов этих требований.
В начале этой главы мы займемся общими особенностями сложных для принятия решения ситуаций, чтобы получить некоторое представление о том, к каким требованиям должен быть готов человек, чтобы прийти к разумным решениям.
Особенности комплексных ситуаций
Лоххаузен, Таналанд, Чернобыль – во всех этих местах речь шла о преодолении проблем в сложных, непрозрачных, динамических ситуациях с разветвленной структурой. Системы в каждом из этих случаев состояли из многочисленных переменных, которые были связаны в единую сеть и в большей или меньшей степени влияли друг на друга – это и составляло их сложность. Эти системы непрозрачны, по крайней мере отчасти: человек не видит всего того, что хочет увидеть. И наконец, эти системы самостоятельно развиваются – они обнаруживают собственную динамику.