АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция

Глава 4. Возможные общелогические ошибки в рассуждениях о глобальных рисках

Читайте также:
  1. B – технологические ошибки.
  2. I. ГЛАВА ПАРНЫХ СТРОФ
  3. I. Рвота, причины рвоты. Особенности ухода при рвоте: пациент без сознания, в сознании, ослабленный. Возможные осложнения.
  4. I.Ошибки в согласовании
  5. II. Глава о духовной практике
  6. II. Другие ошибки товарища Ярошенко
  7. II. Ошибки в управлении
  8. II. Показания, противопоказания и возможные осложнения при промывании желудка.
  9. III. Глава о необычных способностях.
  10. III. Ошибки в построении простого предложения
  11. IV. Глава об Освобождении.
  12. IV. Глава подразделения по стране

1. Путаница между вероятностью, как мерой изменчивости объекта, и степенью уверенности, как мерой информации об объекте. Первое понятие относится к вероятностному процессу, например, радиоактивному распаду, а второе к неизвестному процессу – например, угадыванию карты. Однако глобальные риски представляют собой явления, оценивая которые мы вынуждены высказывать вероятностные суждения о процессах, одновременно и вероятностных, и неизвестных. Таким образом, здесь идёт речь о степени уверенности в той или иной вероятности. В этом случае вероятность и степень уверенности перемножаются. Подробнее об этом мы говорили в 1 главе первой части, когда обсуждали смысл понятия вероятность применительно к глобальным катастрофам.

2. Ошибки, связанные с подменой анализа возможностей анализом целей. К данному типу заблуждений можно отнести рассуждения в духе «террористы никогда не станут применять бактериологическое оружие, потому что оно нанесёт удар и по тем, чьи интересы они защищают». Однако в действительности структура целей может быть очень сложна или просто содержать в себе ошибки.

3. Неверное употребление индуктивной логики. Умозаключение вида «если нечто очень давно не происходило, то оно не произойдёт ещё очень долго» работает только в том случае, если мы однократно наблюдали некое событие в случайный момент времени, и его вероятность описывается формулой Готта. Данная формула оценивает шанс завершения произвольного события в 50 процентов в промежуток от 1/3T до 3T, где T – возраст объекта в момент его случайного обнаружения. Однако если мы очень долго наблюдаем некий процесс, то он очевидным образом приближается к своему концу. Например, если мы возьмём случайного человека в случайный момент времени, то он, скорее всего, будет среднего возраста. Однако если взять случайного человека и потом очень долго наблюдать за ним, то мы однозначно увидим когда-нибудь глубокого старика, который может умереть в любой момент. (Подробнее см. мою статью «Природные катастрофы и антропный принцип» [Турчин 2007b].)

4. Ошибки, связанные с мышлением, обусловленным желанием найти доказательства. В зависимости от того, что человек хочет доказать, он будет подбирать те или иные аргументы, часто неосознанно. Другое название для этой модели – «рационализация», то есть подбор псевдорациональных аргументов под некое исходно иррациональное утверждение. В английском это называется «wishful thinking».

5. Логическая ошибка, возникающая при попытках доказать, что нужно делать, только на основании имеющихся фактов. Если в первой и второй посылке умозаключения содержатся только факты, то и в выводе могут быть только факты. Любое рассуждение о целях должно опираться на некие представления о ценностях, заданных аксиоматически. Однако это означает произвольность таких целей, и их понимание может различаться у разных исследователей глобальных рисков, что может привести к разным определениям понятия катастрофы и различным представлениям о том, что будет из неё выходом. Кроме того, любая система аксиом позволяет формулировать недоказуемые высказывания (как показал Гёдель в теореме о неполноте). И в этом несложно убедиться на примере долженствования: почти любая система базовых ценностей легко порождает внутри себя противоречия, что является основой сюжета многих литературных произведений, когда герой должен сделать выбор между, допустим, любовью к семье и долгом перед родиной (то, что ещё называется «экзистенциальным выбором»). Неизвестно, возможна ли вообще непротиворечивая система ценностей, как она будет выглядеть, и будет ли применима на практике. Однако работа над непротиворечивой системой ценностей важна, так как в будущем её нужно будет вложить в машины, обладающие искусственным интеллектом.

6. Ошибки, связанные с подменой анализа рисков анализом коммерческих мотивов лиц, исследующих риски. Можно рассуждать следующим образом: если человек исследует риски бесплатно, то он безработный и маргинал, если он хочет получать за это деньги, то он паразитирует на общественных страхах, если это его прямые должностные обязанности, то доверять ему нельзя, потому что он агент государства и запудривает мозги населению. Отсюда следует, что прямой связи между коммерческим интересом и анализом рисков нет, хотя в некоторых случаях она возможна. Объяснение через упрощение называется «редукционизмом» и позволяет объяснить всё, что угодно.

7. Использование так называемого «авторитетного знания». «Авторитетное знание» было основным источником сведений о мире в Средние века, когда истину искали в трудах Аристотеля и других мыслителей древности; потом изобрели эмпирический метод. Ссылки на мнения великих людей не должны служить достаточным основанием для того, чтобы признать некое явление безопасным. Только регулярно повторяемые вычисления могут указывать на это.

8. Неправильное применение идеи о том, что теория должна считаться истинной, только если она доказана. Если рассматривать научный метод, как способ получения наиболее достоверных знаний, то эта методология верна. Однако с точки зрения обеспечения безопасности необходим противоположный подход: некое предположение о новом опасном явлении должно приниматься всерьёз до тех пор, пока не доказано обратное. Например, новая модель самолёта считается опасной, до тех пор пока не будет доказано, путём теоретических выкладок и испытательных полётов во всех режимах, что она безопасна; тот же принцип лежит в основе клинического тестирования новых лекарств. Неясно так же, как применять принцип фальсифицируемости (лежащий в основе научного метода) в отношении теорий о тех или иных глобальных катастрофах.


1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 | 39 | 40 | 41 | 42 | 43 | 44 | 45 | 46 | 47 | 48 | 49 | 50 | 51 | 52 | 53 | 54 | 55 | 56 | 57 | 58 | 59 |

Поиск по сайту:



Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.002 сек.)