'

Ошибки в оценке рисков полностью затемняют результат

Понравилась презентация – покажи это...





Слайд 0

Ошибки в оценке рисков полностью затемняют результат +1% -1% -1% -1%+1% +1% +1% +1% -1% -1% +1% +1% +1% +1% +1% -1% -1% -1% -1% -1%+1% +1% +1% -1% -1% -1%+1% +1% +1% +1% +1% -1%-1% -1% -1% -1% +1% +1% +1% +1% -1% -1% -1% -1% -1% +1% -1% -1%+1% +1% +1% +1% -1% +1% -1% -1%


Слайд 1

Линейное представление об угрозах существованию СуперВирус ВЫМИРАНИЕ Серая слизь Ядерная зима Враждебный ИИ


Слайд 2

Системный риск: . БИО НАНО Ядерное оружие ИИ Интерференция и взаимоусиление Непредвидимое х Структурный кризис


Слайд 3

Структурный кризис как угроза существованию Превышение критического числа хищников в экосистеме. (остров Пасхи) Разрастающаяся трещина (конфликт сверхдержав) Самовоспроизводящаяся паранойя (резня в Кампучии и 37 г) Самовоспроизводящаяся дезорганизация (парад суверенитетов) Самоподдерживающаяся моральная деградация (крах Римской империи) Скручивающаяся спираль экономики (Великая депрессия) :


Слайд 4

Структурный кризис как угроза существованию Эффект домино (наркоман, который подсаживает других, чтобы достать деньги на новую дозу) «Естественный» отбор краткосрочных выгод вместо долгосрочных (Маркс: злые капиталисты вытесняют добрых)


Слайд 5

Самоорганизация рисков На примере катастрофы авианосца США Завезли устарелые бомбы. Модифицировали систему снятия с предохранителя ракет на самолётах. В самолёте произошёл бросок напряжения. (дальше этот самолёт не важен) Стартовала ракета и попала в другой самолёт (дальше ракеты не важны) Все пожарные побежали тушить горящие бомбы Бомбы взорвались и убили всех пожарных. Матросы, не понимающие в пожарном деле, стали тушить водой горючее, и оно затекло в трюмы


Слайд 6

Самоорганизация рисков Катастрофический процесс переходит от одной системы к другой. При этом масштаб его усиливается и, часто, скорость протекания возрастает. Катастрофический процесс распространяется по линиям непредсказуемости – то есть он быстрее всего развивается в областях человеческого незнания.


Слайд 7

Борьба спасателей мира друг с другом как системный риск. Даже бен Ладен хочет по своему спасти мир. Большинство войн ведётся с тем, чтобы никогда больше не было войны. «Войны не будет, но будет такая борьба за мир, что от мира камня на камне не останется». Рак, лебедь и щука


Слайд 8

Непредсказуемость Удобнее прогнозировать понятные и контролируемые риски. Наибольшую опасность представляют неожиданные, внезапные и непонятные риски. Удобнее бить вперёд, но удар сзади опаснее. Большинство катастроф последнего времени оказались неожиданными – к ним не готовились: Цунами в ЮВА Сель в Долине гейзеров Сход ледника Колка Атака 11 сентября.


Слайд 9

Принципиальная непредсказуемость угроз существованию Таких событий ещё ни разу не случалось, иначе бы мы здесь не сидели. Предсказания проверяются экспериментом, но именно «эксперимента» мы и хотим избежать Статистика таких событий невозможна. Как пользоваться вероятностными оценками таких рисков, неизвестно, так как это однократные события.


Слайд 10

Антропный принцип и катастрофы «За всю историю Вселенной ещё ни разу не случилось такой катастрофы, которая бы сделала невозможной жизнь на Земле». Ничего не говорится о будущем. Будущее не похоже на прошлое. Нельзя пользоваться выводами из прошлого для предсказания будущего.


Слайд 11

Антропный принцип перестал нас «защищать» Из 100 миллиардов сперматозоидов только один был достаточно везуч, чтобы дать начало человеку. Но из этого не следует, что этот человек выиграет даже в орлянку. Прошлое везение создаёт ложную уверенность в будущем везении. Люди систематически недооценивают риски угроз существованию.


Слайд 12

Национальная безопасность не тождественна защите от угроз существованию Миру угрожает перенаселение, а РФ – депопуляция. Увеличение ядерного потенциала способствует безопасности одной страны, но уменьшает суммарную безопасность в мире. Власть больше заинтересована в национальной, чем в глобальной безопасности. Национальная безопасность сильнее цепляет за эмоции людей. Однако угрозы существованию означают гибель всех стран.


Слайд 13

«Быстрые» проблемы отсекают «медленные» 2030 Население Земли биотехнологии


Слайд 14

Вред от ошибочных рассуждений об угрозах существованию Неправильное вложение средств Невнимание к реальным опасностям Ложное чувства успокоенности Утрата доверия к прогнозам. «Волк, волк»


Слайд 15

Вред от ошибочных рассуждений об угрозах существованию Необратимое глобальное потепление Три закона робототехники: 1. Робот не может причинить вреда человеку или своим бездействием допустить, чтобы человеку был причинён вред. 2. Робот должен выполнять приказы человека, кроме приказов, противоречащих Первому закону. 3. Робот должен заботиться о своей безопасности, если это не противоречит Первому и Второму законам.


Слайд 16

Три закона робототехники, компрометация: Ради блага всех людей всемирный ИИ отправляет их всех в рай. Всемирный ИИ не даёт людям путешествовать и вообще проявлять какую-либо активность, так как это может угрожать их жизни ИИ вводит всем людям наркотик, чтобы они были всегда счастливы.


Слайд 17

Необратимое глобальное потепление Крупная проблема выдаётся за угрозу существования Возможность необратимого глобального потепления не афишируется. НГП является системным риском, так как зависит, от множества факторов. Оно может произойти и после краха современной цивилизации, однако позитивная сингулярность сделает его невозможным.


Слайд 18

Сверхуверенность – основная причина катастроф Заставляет людей упорствовать в своих ошибках Делает их слепыми к новой информации Ведёт к неоправданному риску. Приводит к халатности


Слайд 19

Недостоверность экспертных оценок. Если эксперты утверждает, что нечто имеет шанс 1 к 10, он прав в 60 процентах случаев. Если эксперт утверждает, что нечто имеет шанс 1 к 1 000 000, он прав в 90 процентах случаев.


Слайд 20

Сверхуверенность и ошибки экспертов «Подобные уровни ошибок были обнаружены и у экспертов. Hynes и Vanmarke (1976) опросили семь всемирно известных геотехников на предмет высоты дамбы, которая вызовет разрушение фундамента из глинистых пород, и попросили оценить интервал 50% уверенности вокруг этой оценки. Оказалось, что ни один из предложенных интервалов не включал в себя правильную высоту. Christensen-Szalanski и Bushyhead (1981) опросили группу врачей на предмет вероятности пневмонии у 1531 пациента с кашлем. В наиболее точно указанном интервале уверенности с заявленной достоверностью в 88%, доля пациентов, действительно имевших пневмонию, была менее 20%».


Слайд 21

Сверхуверенность и ошибки экспертов «Типичный результат в исследованиях систематических ошибок состоит в том, что предложение денег или другой стимул не устраняет систематическую ошибку (Kachelmeier and Shehata (1992) предлагали жителям КНР эквивалент трёхмесячной зарплаты.)»


Слайд 22

Сверхуверенность и ошибки экспертов «Когда-то, давным-давно, я написал несколько сверхдетальных сценариев, не осознавая, что каждая добавленная деталь является дополнительной нагрузкой. Когда-то, давным-давно, я действительно думал, что я могу сказать, что имеется 90 процентная вероятность появления искусственного интеллекта между 2005 и 2025, с пиком в 2018 году. Это заявление кажется мне теперь полностью абсурдным. С какой стати я мог думать, что я могу определить точное вероятностное распределение для проблемы вроде этой?» Э.Юдковский


Слайд 23

Сверхуверенность и ошибки экспертов «В среднем, студентам потребовалось 55 дней, чтобы завершить свои дипломы, на 22 дня больше, чем они ожидали, и на 7 дней больше, чем они ожидали в худшем случае». «Реальность, как оказалось, зачастую преподносит результаты, худшие, чем самый наихудший случай.»


×

HTML:





Ссылка: