В 1979 году на АЭС Three Mile Island в США произошла одна из самых известных ядерных аварий. Но самое страшное было не в поломке. А в том, как люди её интерпретировали. Операторы видели данные с приборов и сделали, казалось бы, логичный вывод: 👉 система переполнена водой 👉 нужно её уменьшить Они действовали «по инструкции». Но реальность была противоположной. 💥 Реальная проблема: • реактор терял охлаждение А действия операторов только усугубили ситуацию Почему это произошло? Потому что они опирались только на видимые сигналы, игнорируя то, чего не было видно напрямую. 🧠 Это тот же тип ошибки мышления, что и у Вальда: **мы доверяем тому, что видим и игнорируем то, чего не видим** После аварии провели масштабное расследование. И выяснилось: - интерфейсы показывали слишком много лишнего - ключевые сигналы были «спрятаны» - операторы не понимали, что действительно важно ⚡️ Что изменилось после этого: - появилось направление human-centered design в критических системах
🔥 История, которая перевернула безопасность во всём мире и всё из-за одной «невидимой» ошибки
19 марта19 мар
31
1 мин