АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция

Ошибка, связанная с неверным переносом закономерностей одной системы на другую

Читайте также:
  1. I. Формирование системы военной психологии в России.
  2. I.СИСТЕМЫ ЛИНЕЙНЫХ УРАВНЕНИЙ. МЕТОД ГАУССА
  3. II. Органы и системы эмбриона: нервная система и сердце
  4. II. Цель и задачи государственной политики в области развития инновационной системы
  5. II. Экономические институты и системы
  6. III. Мочевая и половая системы
  7. III. Органы и системы эмбриона: пищеварительная система
  8. IV Структура АИС. Функциональные и обеспечивающие подсистемы
  9. IV. Механизмы и основные меры реализации государственной политики в области развития инновационной системы
  10. IV. Органы и системы эмбриона: дыхательная и др. системы
  11. MathCad: способы решения системы уравнений.
  12. S-элементы I и II групп периодической системы Д.И.Менделеева.

А) Игнорирование роста сложности структуры как фактора, снижающего надёжность системы. Если от растения можно отрезать большую часть, не повредив его способности к полноценному восстановлению, то, чтобы убить животное, достаточно удалить очень маленький кусочек организма. То есть, чем сложнее система, тем больше в ней уязвимых точек. Нельзя не отметить, что, по мере нарастания процессов глобализации, связность и структурность земной цивилизации растёт.

Б) Снижение надёжности системы пропорционально четвёртой степени плотности энергии. Это эмпирическое обобщение (точное значение степенного показателя может отличаться в зависимости от разных факторов) можно обнаружить, сравнивая надёжность самолётов и ракет: при равных размерах, количестве и затратах надёжность ракет примерно в десять миллионов раз меньше – в значительной мере за счёт того, что плотность энергии в двигателях в несколько раз больше, и ряда других факторов. Похожее эмпирическое обобщение верно и для статистики смертельных аварий автомобилей в зависимости от скорости. Нельзя не отметить, что энерговооружённость человечества постоянно растёт.

88. Двусмысленность и многозначность любого высказывания как источник возможной ошибки. С точки зрения авторов регламента работ на Чернобыльском реакторе персонал нарушил их требования, а с точки зрения персонала, пользовавшегося этим регламентом, он действовал точно в соответствии с его требованиями. Регламент требовал «заглушить реактор» – но разработчики считали, что это надо произвести немедленно, а операторы – что постепенно. Другой вариант – когда автоматическая система спасения и пилот могут совершать набор действий, каждый из которых в отдельности спас бы самолёт, но вместе они накладываются друг на друга и приводят к катастрофе (гибель А310 в 1994 году в Сибири). Трудно достичь однозначного понимания терминов, когда у нас нет экспериментального опыта, как в случае с глобальными катастрофами.

89. Отказ рассматривать некий сценарий по причине его «невероятности». Однако большинство катастроф случаются в результате именно невероятного стечения обстоятельств. Гибель «Титаника» связана с экзотической, если так можно сказать, комбинацией 24 (!) обстоятельств.

90. Переход от обмана к самообману. Сознательный обман других людей с целью получения определённой выгоды, в нашем контексте – сокрытия рисков – может незаметно принять форму самогипноза. Самообман может быть гораздо более устойчив, чем иллюзия или непреднамеренное заблуждение. Ещё один вариант такого опасного самогипноза – команда себе: «Я подумаю об этом завтра» (но завтра никогда не наступает).

91. Переоценка собственных возможностей вообще и выживаемости в частности. Просто проиллюстрирую это цитатой из статьи Бострома об угрозах существованию: «Эмпирические данные о предубеждениях в оценке рисков двусмысленны. Доказано, что мы страдаем от систематических предубеждений, когда мы оцениваем наши собственные перспективы рисков в целом. Некоторые данные показывают, что людям свойственно переоценивать собственные способности и перспективы. Три четверти всех автолюбителей думают, что они более аккуратные водители, чем среднестатистический водитель. Согласно одному исследованию, почти половина социологов верит в то, что они принадлежат к лучшим десяти учёным в своей области, и 94 % социологов думают, что они лучше в своей работе, чем их коллеги в среднем. Также было показано, что находящиеся в депрессии люди имеют более точные предсказания, чем нормальные люди, за исключением тех предсказаний, которые касаются безнадёжности их ситуации. Большинство людей думает, что они сами с меньшей вероятностью подвержены обычным рискам, чем другие люди. Широко распространено убеждение, что публика склонна переоценивать вероятности часто освещаемых в печати рисков (таких, как катастрофы самолётов, убийства, отравления едой и т. д.), и недавнее исследование показывает, что публика переоценивает большое количество распространённых рисков здоровью в отношении себя. Другое недавнее исследование, однако, предполагает, что доступная информация согласуется с предположением, что публика рационально оценивает риск (хотя и с некоторым сужением из-за расхода мыслительных усилий на удержание в уме точной информации)».

92. Стремление к прекрасному будущему, заслоняющее восприятие рисков. Это явление можно заметить у революционеров. Опыт Великой Французской революции вполне мог научить, что революция ведёт к гражданской войне, диктатуре и внешним войнам, однако русские революционеры начала ХХ века питали те же иллюзии, что и их французские коллеги за 120 лет до них, хотя, в конечном счёте, получили аналогичный результат. И у современных сторонников радикального развития технологий есть необъективность такого же рода – то есть вера в том, что новые технологии не приведут новым видам оружия, его применению, и новым технологическим катастрофам. Психологически это связано с тем, что человек отвергает размышления о рисках, как препятствия на пути к светлому будущему.

93. Фильтры, мешающие поступлению информации к руководству. Информация существует не в вакууме, а внутри конкретной системы. Ценность информации определяется её новизной и суммарной способностью системы реагировать на неё. Поэтому важно исследовать не только высказывания о глобальных рисках, но и то, как они могут распространяться в обществе. Г.Г. Малинецкий в книге «Риск. Устойчивое развитие. Синергетика» [Капица, Курдюмов, Малинецкий 2001] пишет: «Еще одна особенность информации в условиях возникновения ЧС состоит в том, что поступающие в систему управления данные проходят через ряд фильтров. Первыми из них являются используемые в системе управления методы изучения и анализа внешней среды, посредством реализации которых входная информация, прежде чем поступить к руководству, отсеивается. Этот фильтр, как правило, настроен на прошлое и настоящее, а не на возможные экстремальные изменения ситуации в будущем.

Вторым фильтром является психологический, суть которого заключается в неприятии руководством информации вследствие ее стратегической новизны.

Третий фильтр на пути поступающей информации образует руководящая иерархия. Новая информация не сможет влиять на формирование реакции на изменения, если руководители не будут обладать достаточной властью, чтобы официально признать актуальность этой информации.

Четвертый фильтр связан с тем, что в последние годы информация рассматривается как ценный стратегический товар, к которому следует относиться бережно и не передавать его по первому требованию. Подчеркнем, что в условиях ЧС любые задержки в передаче исходной информации не только безнравственны, но и преступны».

94. Любопытство может оказаться сильнее страха смерти. Вовсе не любая информация о глобальных рисках полезна. Например, если мы произведём некий опасный эксперимент и в результате выживем, мы узнаем, что этот тип экспериментов безопасен. Но стоит ли это знание того риска, которому мы себя подвергли? Тем не менее, людям свойственно рисковать жизнью ради знаний или переживаний. Можно вспомнить, что были жертвы в толпе любопытных, наблюдавших штурм белого дома в 93 году. И, я уверен, многим людям любопытно, каков будет «конец света». Кто-то может согласиться на опасные эксперименты попросту ради любопытства.

95. Система и регламент. Глобальная катастрофа, как и любая обычная техногенная авария, может быть не результатом какой-то одной фатальной ошибки, а следствием случайного фатального совпадения десятка незначительных ошибок. Для гладкого функционирования системы приходится позволять нарушать регламент по мелочам. И в какой-то момент эти нарушения складываются подходящим образом – непотушенный окурок, незакрытый бак, упрощённая схема запуска – и приводят к образованию цепочки событий, ведущей к катастрофе. Дальше происходит следующее: «Мне приходилось принимать участие в расследованиях (или изучать материалы) несчастных случаев и аварий в промышленности (неатомной). По их результатам я для себя сделал следующий вывод: практически никогда не бывает какой-то "единственной главной" причины и соответственно "главного виновного" (я имею в виду не официальные выводы комиссий, а фактическую сторону дела). Как правило, происходит то, что я для себя условно называю: десять маленьких разгильдяйств. Все эти маленькие разгильдяйства совершаются у всех на виду в течение многих лет подряд, а т.к. по отдельности каждое из них не способно привести к тяжелым последствиям, то в силу этого внимание на них не обращается. Но когда все они происходят в одно время, в одном месте и с одними людьми – это приводит к трагическому результату. Ну а когда происшествие имеет общественный резонанс – тогда обычно и назначают главного стрелочника по принципу: "кто не спрятался, я не виноват"[128].

96. Эффект «стрелочника». Вместо поиска подлинных причин аварии ищут стрелочника, в результате чего подлинные причины не устраняются, и она становится возможной ещё раз. В отношении глобальной катастрофы этот может иметь тот смысл, что вместо того, чтобы обнаруживать и устранять общесистемные закономерности, ведущие к ней, будет вестись борьба с частными проявлениями. Общесистемными закономерностями, ведущими к глобальной катастрофе, являются технический прогресс, принципиальная невозможность экспериментальной проверки, сверхуверенность людей и т. д., тогда как распространение генетического кода одного взятого вируса – частным проявлениям этих закономерностей.

97. Минимальный воспринимаемый риск. Существует минимальный воспринимаемый риск, то есть, если вероятность события меньше некого порога, человек воспринимает её как нулевую. Было выдвинуто предположение, что это обусловлено тем, что человек принимает решения, исходя не из реальных вероятностей, возможных вариантов событий pi, а из своих представлений о них f (pi). Например, ряд экспериментов показывает, что человек не воспринимает вероятности меньше 10‑5, несмотря на очень большой возможный ущерб [Капица, Курдюмов, Малинецкий 2001]. Это мы выше объясняли исходя из того, что такой уровень риска незаметен на фоне ежедневного риска, которому подвергается человек.

98. Отвержение новых идей. Люди и учёные часто отвергают новые идеи, так как это означало бы признать собственную неправоту. Динамика такого процесса обрисована куном в его теории научных революций, и, к сожалению, дискуссии о новых идеях часто окрашены теми же моделями поведения, что и борьба за власть в стае обезьян. Часто предупреждения о новых рисках носят не вполне доказанный характер. Пример такого отвержения, стоивший миллионы жизней – длительное отвержение идей венгерского врача Игнаца Филиппа Земмельвейса (1818-1865), который утверждал, что родильная горячка связана с тем, что врачи не моют руки после вскрытия трупов.

99. Воздействие эмоциональной реакции шока. Известно, что катастрофы провоцируют определённую последовательность психологических переживаний, каждое из которых влияет на объективность принимаемых решений. В книге «Психогении в экстремальных условиях» сказано: «… психологические реакции при катастрофах подразделяются на четыре фазы: героизма, «медового месяца», разочарования и восстановления» [Александровский 1991] при этом фазе героизма может предшествовать период отрицания, паники или паралича в первые мгновения катастрофы.

Каждая из этих стадий создаёт свой вид необъективности. Если начнётся глобальная катастрофа, то она будет настолько ужасна, что вызовет реакцию отрицания в духе «не может быть», «это какая-то ошибка» и т. д. Например, видеокадры о теракте 11 сентября многие восприняли как кадры из нового голливудского кинофильма. Затем идёт стадия сверхреакции, которая может создать новые опасности из-за опрометчивого поведения. Например, лётчики, вылетевшие патрулировать 11 сентября небо над Нью-Йорком, были уверены, что началась война с русскими. В том же духе было и заявление президента Буша о том, что «мы объявляем войну» в тот же день. Затем на стадии эйфории чувство опасности притупляется, хотя на самом деле опасная ситуация ещё не закончилась. Уныние, наоборот, связано не с уменьшением оценки риска, а с уменьшением мотивации с ним бороться, возможно, связанное с масштабами потерь и осознанием неизбежности. Принятие приводит к тому, что катастрофы забываются, а риск принимается как должное. То есть на этой стадии происходит и уменьшение оценки риски, и уменьшение мотивации по его преодолению. Такое описание относится к переживанию катастроф, которые начались и закончились, вроде землетрясений, и клинике острого горя при смерти близких. Однако глобальная катастрофа не относится к таким событиям – скорее, если её наступление удастся заметить, она будет выглядеть как всё более нарастающий грозный процесс.

При этом важно то, что эмоции воздействует на поведение людей независимо от того, хотят они этого, или нет, даже если они знают об этом воздействии, и хотят его избежать. На этом основано действие рекламы. Кроме того, если начнётся глобальная катастрофа, например, всеобщая эпидемия, то у почти каждого будут близкие люди, умершие в результате неё или находящиеся в зоне повышенного риска. В голливудском кинематографе это изображается обычно так: главный герой успевает и страну спасти, и высвободить любимую девушку из завалов. Но это весьма сказочный, нереальный сценарий развития событий. Все люди, и принимающие решения, и исполнители, в случае глобальной катастрофы будут думать не только о судьбах планеты, но и о спасении своих близких (а также своих стран, родных городов и других общностей, с которыми они связаны), и в силу этого их выбор будет неоптимален. Даже если они примут решение пожертвовать своими близкими и целиком сосредоточиться на предотвращении катастрофы, эмоциональный стресс от такого решения нанесёт вред их объективности и работоспособности. Фактически, они будут находиться в состоянии острого горя или шока. Г. Г. Малинецкий пишет: «Ряд специалистов по психологии риска считают, что доля руководителей, способных адекватно действовать в условиях ЧС, не превышает 0,5 %» [Капица, Курдюмов, Малинецкий 2001].

100. Проблемы отбора экспертов. Поскольку по каждому отдельному вопросу мы вынуждены полагаться на мнение наиболее компетентных людей в этой области, нам нужен эффективный способ отбора таких людей – или их книг. Методики отбора экспертов обычно таковы: во-первых, имеют значение их регалии: индекс цитирования, научные звания, должности и т. д. Во-вторых, можно полагать на число сбывшихся прогнозов для того, чтобы определить вероятность их правоты. Третий способ состоит в том, чтобы не доверять никому, и перепроверять самому все чужие выкладки. Наконец, можно отбирать людей по тому, насколько они разделяют ваши убеждения – верят ли они в Сингулярность, Пик Хубберта, либеральную модель экономики и т.д. – очевидно, что в этом случае мы не узнаем ничего нового, кроме того, что и так подразумевалось нашим отбором. А очевидно, что все способы отбора экспертов содержат свои подводные камни. Например, в отношении глобальных катастроф не может быть сбывшихся прогнозов.

101. Вина и ответственность как факторы предотвращения рисков. Нашему уму свойственно пытаться определить того, кто именно виноват в той или иной катастрофе. Вина опирается на концепции свободы воли, вменяемости и последующего наказания. Однако в случае глобальной катастрофы она утрачивает всякий смысл, так как не будет ни расследования, ни наказания, ни пользы от этого наказания, ни страха наказания. С другой стороны, концентрация на поиске виноватых отвлекает от видения целостной картинки катастрофы. Фактически, мы думаем, что если мы определим виноватых и заменим их на более эффективных исполнителей, то следующий раз катастрофы не будет, а всем разгильдяям будет хороший урок и дисциплина на производстве повысится. Очевидно, однако, что наказание виноватых бесполезно, когда речь идёт о глобальных катастрофах. Возможно, имело бы смысл «судить победителей» – то есть людей, которые допустили некий глобальный риск, даже если катастрофы в результате не произошло. При этом важно повышать ответственность людей за сохранение мира, в котором они живут.

102. Недооценка сил инерции как фактора устойчивости систем. Помимо общих соображений о сложности и механизмах обратной связи, делающих систему устойчивой, можно использовать формулу Готта (см. главу «Непрямые способы оценки рисков») для того чтобы оценить время существования системы в будущем, исходя из прошлого времени её существования. Формула Готта математически подкрепляет такие вероятностные коллизии из повседневности, – например, если автобуса не было в течении часа, то маловероятно его прибытие в ближайшую минуту. То есть прошлое время существования системы создаёт, так сказать, «временную инерцию». Когда оказывается, что некая система более устойчива, чем нам казалось, исходя из наших теорий, мы начинаем сомневаться в наших теориях, которые могут быть по сути правильными, но ошибаться в датировке событий. Таким образом, недооценка устойчивости ведёт к недооценке рисков.

103. Мнения, обусловленные мировоззрением. Суть ошибки состоит в предположении о том, что существуют истинные высказывания, не обусловленные мировоззрением. Все дискуссии о рисках глобальной катастрофы происходят на платформе определённого научного, культурного и исторического мировоззрения, которое для нас настолько очевидно, что кажется прозрачным и является незаметным. Однако возможно, что представитель другой культуры и религии будет рассуждать принципиально по-другому и предвзятость наших рассуждений будет для него также очевидна.

104. Борьба за научный приоритет. Например, в отношении глобального потепления есть несколько разных терминов, выдвинутых разными авторами с целью закрепить свой приоритет на эту концепцию: «планетарная катастрофа» у Ал. Гора, «парниковая катастрофа» у А.В.Карнаухова, «runaway global warming» в другой зарубежной литературе. Это приводит к тому, что поиск по одному из синонимов не выдаёт результатов по другому. Кроме того, важно отметить те трудности, которые испытывает наука с удостоверением уникальных событий, которые имели конечное число наблюдателей (весьма в духе известного решения французской академии наук о том, что «камни с неба падать не могут», касательно метеоритов.)

Вообще, есть много разных тонких моментов, касающихся борьбы за гранты, здания, приоритет, рейтинг цитирования, влияние на политику, а также связанных с личной неприязнью, которые превращают науку из храма знаний в банку с пауками.

105. Ошибка, связанная с сознательным и бессознательным нежеланием людей признать свою вину и масштаб катастрофы. И вытекающие из этого неправильное информирование начальства о ситуации. Сознательное – когда, например, военные скрывают некую аварию, чтобы их не наказали, желая справится своими силами. Когда люди не вызывают пожарных, сами туша пожар до тех пор, пока он не становится слишком обширным. Бессознательная – когда люди верят в то описание, которое уменьшает масштаб аварии и их вину. В чернобыле организатор испытаний дятлов верил, что взорвался не реактор, а бак с водой охлаждения – и продолжал подавать команды на несуществующий реактор. Вероятно, такое нежелание может распространяться и на будущее время, заставляя людей не принимать на себя ответственность за будущие глобальные катастрофы.

106. Систематическая ошибка, связанная с эгоцентричностью. Она состоит в том, что люди приписывают себе большее влияние на результаты коллективных действий, чем это есть на самом деле. Иногда люди преувеличивают негативное влияние (мегаломания). По мнению Майкла Анисимова, по этой причине люди преувеличивают значение собственной смерти и недооценивают смерть всей цивилизации [Ross, Sicoly 1979].

107. Систематическая ошибка, возникающая в связи с наличием или отсутствием явной причины событий. Людям свойственно более толерантно относиться к событиям, происходящим естественным образом (например, смерти от старости), чем к событиям, имеющим явную причину (смерти от болезни), и особенно – событиям, связанным со злым умыслом (убийство). В случае с глобальными рисками в настоящий момент нет объекта или человека, которого мы могли бы обвинить в том, что человеческая цивилизация находится под угрозой вымирания. Майкл Анисимов пишет: «Поскольку на горизонте не видно плохого парня, чтобы с ним бороться, люди не испытывают такого энтузиазма, который бы они, например, испытывали, протестуя против Буша»[129].


1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 | 39 | 40 | 41 | 42 | 43 | 44 | 45 | 46 | 47 | 48 | 49 | 50 | 51 | 52 | 53 | 54 | 55 | 56 | 57 | 58 | 59 |

Поиск по сайту:



Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.004 сек.)