A A A A Автор Тема: Шкала измерения глобальных рисков  (Прочитано 1038 раз)

0 Пользователей и 1 Гость просматривают эту тему.

Оффлайн turchinАвтор темы

  • *****
  • Сообщений: 1 342
  • Благодарностей: 12
    • Сообщения от turchin
У нас вышла новая статья: “Шкала измерения глобальных рисков”
Для рисков астероидной опасности существует Туринская шкала, которая имеет пять цветовых уровней, а для измерения ураганов используется шкала Саффира-Симпосна, тоже с пятью уровнями. Основная задача подобных шкал не сколько измерение, сколько коммуникация для широкой публики и лиц принимающих решений уровня риска, чтобы они могли принять нужные решения.
Обычно для коммуникации масштаба глобальных рисков используются довольно туманные высказывания о вероятности вроде: “с вероятностью в 1 процент человечество погибнет от ядерной войны”. Однако вероятность наиболее серьезных рисков практически невозможно измерить, так как это однократные уникальные события в будущем, а среди ученых множество разногласий об их оценках. А кроме того, понятие «вероятность» не включает в себя ряд других важных аспекта риска: тайминг, характер изменения вероятности со временем, степень неопределенности, соотношение с другими рисками, вероятность успеха предотвращения. В результате высказывания о вероятности глобальных рисков полны когнитивных искажения и вызывают здоровый скептицизм.
Чтобы избежать эти трудности, мы предлагаем информировать о глобальных рисках с помощью самоочевидной шкалы, которая содержит шесть цветов от белого до пурпурного. Если вероятность риска может быть определена, то каждый цвет соответствует определенному определенному интервалу вероятности на промежутке в следующие сто лет. Каждый уровень риска также представлен через канонический пример (а для редких рисков – и через частоту повторяемости).

Пурпурный – риск около 1 в настоящее время – канонический пример: Карибский кризис
Красный – риск с вероятностью более 10 процентов в следующие 100 лет – пример: недружественный ИИ
Оранжевый – риски от 0.1 до 10 процентов в следующие 100 лет – тотальная ядерная война, ведущая к гибели человечества.
Желтый – риски от 0.001 до 0.1 процента в 100 лет – раз в миллион лет – риски извержения супервулкана, ведущие к гибели человечества.
Зеленый – риски 0.00001 до 0.001 в 100 лет – раз в 100 миллионов лет - Пример: астероидная опасность уровня астероида, который упал во времена вымирания динозавров.
Белый – менее 0.00001 – раз в миллиарды лет – Солнце превратится в красного гиганта.

И хотя наша шкала определена через вероятности, как мы уже сказали, для самых серьезных рисков вероятности очень трудно оценить. В этих случаях шкала коммуницирует размер риска через уровень необходимых усилий по его предотвращению, то есть эксперты оценивают риск сразу через цветовую шкалу, минуя уровень вычисления вероятностей. (А каждый цвет в нашей таблице сопоставлен и необходимому уровню усилий, см таблицу внизу). Точно также и шкала ураганов Саффира-Симпсона коммуницирует не скорость ветра, а степень разрушения построек – и соответственно, то, насколько глубоко надо прятаться.
Шкала опубликована в ведущем футурологическом журнале Futures в спец. выпуске по глобальным рискам.

Here's the abstract:
Existential risks threaten the future of humanity, but they are difficult to measure. However, to communicate, prioritize and mitigate such risks it is important to estimate their relative significance. Risk probabilities are typically used, but for existential risks they are problematic due to ambiguity, and because quantitative probabilities do not represent some aspects of these risks. Thus, a standardized and easily comprehensible instrument is called for, to communicate dangers from various global catastrophic and existential risks. In this article, inspired by the Torino scale of asteroid danger, we suggest a color-coded scale to communicate the magnitude of global catastrophic and existential risks. The scale is based on the probability intervals of risks in the next century if they are available. The risks’ estimations could be adjusted based on their severities and other factors. The scale covers not only existential risks, but smaller size global catastrophic risks. It consists of six color levels, which correspond to previously suggested levels of prevention activity. We estimate artificial intelligence risks as “red”, while “orange” risks include nanotechnology, synthetic biology, full-scale nuclear war and a large global agricultural shortfall (caused by regional nuclear war, coincident extreme weather, etc.) The risks of natural pandemic, supervolcanic eruption and global warming are marked as “yellow” and the danger from asteroids is “green”.
The paper is published in Futures https://www.sciencedirect.com/science/article/pii/S001632871730112X
If you want to read the full paper, here's a link on preprint: https://philpapers.org/rec/TURGCA




« Последнее редактирование: 14 Янв 2018 [20:03:21] от turchin »
Структура глобальной катастрофы.
http://avturchin.narod.ru/sgk31short.doc

Оффлайн -Юрий-

  • *****
  • Сообщений: 9 323
  • Благодарностей: 224
  • Попытка - первый шаг к провалу.
    • Сообщения от -Юрий-
Re: Шкала измерения глобальных рисков
« Ответ #1 : 14 Янв 2018 [21:06:16] »
Основная задача подобных шкал не сколько измерение, сколько коммуникация для широкой публики и лиц принимающих решений уровня риска, чтобы они могли принять нужные решения.
Ну и какие решения вы будете принимать при возникновении какой-нибудь ситуации по этой шкале? Полетите астероид сталкивать с траектории? Заткнёте супервулкан? Или Солнце будете заливать от перегрева? ::)
Надо очень много знать, чтобы понять своё невежество.
(кликните для показа/скрытия)

Оффлайн Проходящий Кот

  • *****
  • Сообщений: 19 351
  • Благодарностей: 426
    • Сообщения от Проходящий Кот
Re: Шкала измерения глобальных рисков
« Ответ #2 : 14 Янв 2018 [21:43:45] »
ПО СОЛНЦУ НАДО СТРОИТЬ СФЕРУ НАНОДАЙСОНА.

Оффлайн Rattus

  • Модератор
  • *****
  • Сообщений: 15 474
  • Благодарностей: 593
  • Души прекрасные порывы! Убеждённый Ωптимистъ
    • Сообщения от Rattus
Re: Шкала измерения глобальных рисков
« Ответ #3 : 15 Янв 2018 [06:41:39] »
Истерически смешно, конечно. Но особо хотел бы отметить вот это:
риск с вероятностью более 10 процентов в следующие 100 лет – пример: недружественный ИИ
Мало того, что эти дар... "уважаемые авторы" приняли как установленный факт бредположение о том, что сильный ИИ может быть "дружественным" или "недружественным", так ещё и вероятность того откуда-то вытащили! Остальные цифры там, надо полагать, такого же уровня достоверности. :facepalm:
Что примечательно - в эту теологию о "недружественном ИИ" влились не только известные любители и профессионалы почесать языком типа Ализера Юдковского, но и ранее весьма уважаемые большие персоны академического и делового мира как С.Хокинг и И.Маск.
Страх недружественного ИИ по природе своей очень напоминает страх кары от сурового бога у набожных людей, которые в молодости изрядно куролесили и отжигали. В народе это называется "знает кошка, чьё мясо съела".
Поэтому никакого сочувствия эти разглагольствования у Нас вызвать не могут.
Тому, кто жаждет всех запретных тайн Астрофорума в одном месте поможет число 1919.

Ннапыльн%х тpапинкахъ далиокихъ плонеттъ астануцца нашшы погадкиъ! (ЙожЪ, SKL)
Скоро у людей закончится космос. (П.Лемтыбож - "Теоремы Пафнуция")
Я брала города, я стану - еда! (Серебряная Свадьба - "Пищевая цепочка")
Уранизация естественным образом снижает численность человечества (Вика Воробьёва, ВЖР, 30.10.2012)