Представьте себе пилота, осуществляющего перелет по уже хорошо знакомому маршруту. Но сейчас на пути — грозовой фронт.
Летчик понимает, что лететь через сильную грозу очень рискованно, и если исходить из знаний и навыков, полученных во время обучения, необходимо либо вернуться на аэродром, либо делать крюк.
Но пилот летал этим маршрутом уже не раз, и в одном случае, кстати, погода была такая же, и ничего плохого не случилось! Лететь ли дальше? Или вернуться?
Если вы считаете, что надо продолжать полет, то вы попались на удочку когнитивного искажения, известного как «предвзятость, связанная со знанием результата».
Исследования показывают, что мы часто оцениваем качество решения или поведения по уже известному нам конечному результату, при этом игнорируя множество факторов, способствовавших успеху или неудаче.
Это делает нас невосприимчивыми к потенциально катастрофическим ошибкам собственного мышления.
В нашем примере ранее принятое решение продолжать полет само по себе было рискованным, и летчик, возможно, избежал аварии только по стечению счастливых обстоятельств.
Но из-за той самой предвзятости, связанной со знанием результата, он может снова проигнорировать возможность катастрофы и решить: либо опасность преувеличена, либо его исключительное мастерство пилота, позволившее избежать неприятностей в прошлый раз, делает рискованные ситуации еще более увлекательными и притягательными.
И чем больше таких случаев, тем меньше летчик беспокоится по поводу того, какую опасность представляет его стиль пилотирования.
Но помимо того, что предвзятость, связанная со знанием результата, ведет нас к принятию все более рискованных решений, она не позволяет замечать некомпетентность и неэтичное поведение коллег по работе.
Последствия этого могут быть по-настоящему ужасны. Исследования показывают, что такая предвзятость способствовала многим печально знаменитым катастрофам, в том числе — гибели американского космического челнока «Колумбия» и разлитию нефти в Мексиканском заливе из-за аварии на буровой платформе Deepwater Horizon.
Результат, а не способы его достичь
Как и многое из того, что связано с пониманием нерационального поведения людей, предвзятость, связанная со знанием результата, впервые была замечена в 1980-х, во время основополагающего исследования того, как принимаются решения в медицине.
Участников познакомили с описанием различных сценариев, а также с рисками и преимуществами разного рода поведения и процедур, а затем попросили их оценить качество решений медиков.
Например, участникам рассказали о решении врача предложить пациенту операцию коронарного шунтирования (на сердце), которая потенциально могла добавить много лет здоровой жизни, но — с небольшой вероятностью смерти во время операции.
Как, в общем, и следовало ожидать, участники судили о решении врача гораздо более сурово в том случае, если им говорили, что пациент погиб во время операции, чем в случае, если всё закончилось благополучно. Так происходило, даже если все риски и преимущества были абсолютно одинаковыми (и одинаково просчитаны) в обоих случаях.
Предвзятость, связанная со знанием результата, настолько глубоко въелась в нас, что очень легко понять, почему мы требуем наказать врача в случае смерти пациента.
Однако в этом нет никакой логики: когда хирург принимал решение оперировать, он сделал всё возможное, чтобы взвесить возможные риски, и в тот момент всё указывало на то, что операция будет успешной.
Но если вы знаете о последующей трагедии, очень трудно избежать назойливого чувства, что это вина хирурга. Что и привело к тому, что участники исследования поставили под вопрос компетентность врача.
Такой результат впервые был получен в исследовании 1988 года и затем подтверждался много раз: знание о плохом исходе подталкивает нас обвинить кого-то, кто на самом деле никак не мог контролировать события. Мы делаем это даже тогда, когда нам известны все факты, оправдывающие принятое решение.
И, как мы теперь уже знаем, верно и противоположное: из-за предвзятости, связанной со знанием результата, удачный исход заставляет нас не обращать внимания на ошибки в принятии решения, из-за чего люди начинают думать, что победителей не судят.
В одном из экспериментов Франчески Джино из Гарвардской бизнес-школы участникам рассказали историю об ученом, который подделал результаты исследований, чтобы доказать эффективность лекарства, которое тестировал.
Джино обнаружила, что участники менее критически относились к поведению ученого, если в итоге оказывалось, что лекарство и в самом деле безопасное и эффективное, чем в том случае, если знали, что у него есть опасные побочные действия.
В идеальном варианте вы должны одинаково строго оценивать обе ситуации, поскольку человек, который повел себя настолько безответственно, может стать серьезным бременем в будущем.
Такой порочный подход — серьезная проблема, если речь идет, например, о продвижении по карьерной лестнице. Ведь он означает, что, скажем, инвестор должен быть вознагражден за полосу удачи, даже если есть ясные указания на его некомпетентность или неэтичное поведение. Так оно и случится, если его начальник не в состоянии отделить то, как принимаются решения, от конечных результатов.
Точно так же ваши неудачи могут постепенно подрывать вашу репутацию, даже если вы все делаете правильно на основе той информации, которой располагаете.
Проблема состоит в том, что людей либо высоко оценивают, либо обвиняют в том, что произошло по большому счету случайно. Это происходит и на уровне правительственных чиновников, и на уровне бизнес-менеджеров — всех, кто принимает решения
Предвзятость, связанная со знанием результата, может даже влиять на то, как мы понимаем спорт.
Артуро Родригес из Чилийского университета недавно изучил рейтинги футболистов, проставленные экспертами на сайте Goal.com. Для матчей, исход которых определялся по пенальти, он обнаружил, что короткие последние минуты игры могли полностью изменить мнение эксперта о том, как тот или иной футболист отыграл матч целиком.
И самое главное — это влияло на итоговую оценку футболиста, даже если он не участвовал в серии пенальти.
Опознать скрытую опасность
Предвзятость, связанная со знанием результата, может иметь и куда более серьезные последствия, когда мы начинаем следовать ей, оценивая риски.
В одном из исследований в авиационной отрасли, например, изучалось, как пилоты оценивают условия полета в опасных погодных условиях, при плохой видимости.
Обнаружилось, что летчики были более склонны недооценивать опасность, если слышали, что другой пилот уже успешно совершал полет в подобных условиях на этом маршруте.
На самом деле успех того пилота никак не гарантировал безопасный полет в предложенном случае — ведь ранее все прошло благополучно только из-за везения. Но летчики не задумывались над этим.
Кэтрин Тинзли из Джорджтаунского университета обнаружила аналогичную тенденцию в реакции людей на природные бедствия — такие, как ураганы. Если кто-то пережил ураган целым и невредимым, то в дальнейшем с меньшей долей вероятности покупал страховку от подобного бедствия.
Из более позднего исследования Тинзли следует, что этим феноменом можно объяснить многие организационные ошибки и катастрофы.
Шаттл НАСА «Колумбия» погиб из-за разрушения наружного теплозащитного слоя на плоскости крыла челнока, вызванного падением на него куска теплоизоляции кислородного бака при старте корабля.
Теплоизоляция отваливалась и во время многих предыдущих полетов, но раньше просто везло, и это не приводило к катастрофе.
Затем коллектив ученых под руководством Тинзли предложил участникам рассмотреть гипотетическую ситуацию, которая чудом не окончилась катастрофой, и оценить компетенцию главы проекта.
Тинзли обнаружила, что упор на безопасность и наглядность позволил людям осознавать случившееся как тревожный сигнал о потенциальной опасности.
Участники с большим успехом обнаруживали скрытую опасность, если их предупреждали: им придется объяснить свое решение старшему руководителю.
Таким образом, в организациях стоит сделать упор на ответственности каждого за нахождение скрытых рисков и вознаграждать за сообщение о них.
Савани согласен с тем, что мы можем себя защитить от когнитивных искажений такого рода. Он обнаружил, например, что, призывая людей более тщательно исследовать контекст, в котором принимается то или иное решение, мы делаем их менее восприимчивыми к эффекту предвзятости, связанной со знанием результата.
Главное тут — обдумывать конкретные обстоятельства, в которых принималось решение, и иметь в виду, что на результат могли решающим образом повлиять такие факторы, как везение.
Для этого можно, например, прибегнуть к методу контрфактивного анализа, то есть рассматривать альтернативный ход событий, говорит Савани. Когда оцениваются действия человека, стоит задуматься: а какие факторы могли бы привести к другому результату?
И если бы так случилось, была бы ваша оценка решений и действий этого человека прежней?
Вспомним пример с ученым, подтасовавшим результаты испытаний лекарства. Даже если лекарство и оказалось безопасным, представьте себе наихудший сценарий — пациенты начали гибнуть. Тогда, возможно, вам станет более понятно, на какой риск шел этот ученый, подделав результаты.
Теперь поставьте себя на место летчика, который решил лететь в неподходящих условиях. Вы можете вспомнить о своих предыдущих полетах, о том, чем вы рисковали, и о том, что могло случиться, если бы обстоятельства немного изменились.
Неважно, кто вы — инвестор, пилот или ученый НАСА. Предвзятость, связанная со знанием результата, представляет для вас опасность. Конечно, жизнь — это азартная игра, но вы, по крайней мере, можете увеличить вероятность благоприятного для вас исхода, трезво глядя на вещи и не давая вашему разуму убаюкать вас ощущением мнимой безопасности.
Читайте также:
Смотрите наши видео: