Показать сообщение отдельно
  #7  
Старый 22.11.2012, 21:13
Аватар для Пермский котяра
Пермский котяра Пермский котяра вне форума
гость
 
Регистрация: 14.04.2012
Адрес: Пермский район
Сообщений: 361
Пермский котяра на пути к лучшему
По умолчанию Ответ: Ядерное оружие-оружие сдерживания?! Как бы ни так!

1. Разрушение социальной системы, как после распада СССР или краха Римской империи. Здесь происходит значительное прекращение развития технологий, уменьшение связности, падение численности населения на несколько процентов, однако некоторые существенные технологии продолжают успешно развиваться. Например, компьютеры в постсоветском мире, некоторые виды земледелия в раннем средневековье. Производство и применение очень опасных вооружений может продолжаться - что чревато вымиранием или откатом ещё ниже в результате следующей фазы войны. Восстановление весьма вероятно и займёт от десятков до сотен лет.
2. Значительная деградация экономики, отчасти как в современном Афганистане, где людям предоставляется возможность лишь сеять мак и стрелять из автомата Калашникова. Утрата государственности и распад на воюющие между собой единицы. Основная форма деятельности - грабёж. Такой мир изображается в фильмах 'Безумный Макс', 'Водный мир' и во многих других произведениях на тему жизни после 'ядерной войны'. Население сокращается в разы, но, тем не менее, миллионы людей выживают. Воспроизводство технологий прекращается, но отдельные носители знаний и библиотеки сохраняются. Такой мир может быть объединён в руках одного правителя, и начнётся возрождение государства. Дальнейшая деградация произойдёт скорее случайно - в результате эпидемий, загрязнения среды, случайного применения оружия, сила которого неочевидна.
3. Катастрофа, в результате которой выживают только отдельные небольшие группы людей, не связанные друг с другом: полярники, экипажи морских кораблей, обитатели бункеров. С одно стороны, малые группы оказываются даже в более выгодном положении, чем в предыдущем случае, так как в них нет борьбы одних людей с другими. С другой стороны, силы, которые привели к катастрофе таких масштабов, очень велики и, скорее всего, продолжают действовать и ограничивать свободу перемещения людей из выживших групп. Эти группы вынуждены изо всех сил бороться за свою жизнь. Они могут осуществлять доработку неких технологий, если это нужно для их спасения, но только на базе уцелевших объектов. Период восстановления при самых благоприятных обстоятельствах займёт сотни лет и будет связан со сменой поколений, что чревато утратой знаний и навыков. Основой выживания таких групп будет способность к воспроизводству половым путём.
4. Только несколько человек уцелело на Земле, но они неспособны ни сохранять знания, ни дать начало новому человечеству, как Адам и Ева. Даже группа, к которой есть мужчины и женщины, может оказаться в таком положении, если факторы, затрудняющие расширенное воспроизводство, перевешивают способность к нему - например, если дети рождаются всё более и более больными. В этом случае люди, скорее всего, обречены, если не произойдёт некое чудо.
Можно также обозначить 'бункерный' уровень - то есть уровень, когда выживают только те люди, которые находятся вне обычной среды. И находятся они там или нарочно, или случайно, если отдельные группы людей случайно уцелели в неких замкнутых пространствах. Сознательный переход на бункерный уровень возможен даже без потери качества - то есть человечество сохранит способность и дальше быстро развивать технологии.
Возможны и промежуточные фазы постапокалиптического мира, но я полагаю, что перечисленные четыре варианта являются наиболее характерными. С каждого более глубокого уровня есть ещё больше шансов упасть ещё ниже и меньше шансов подняться. С другой стороны, возможен островок стабильности на уровне отдельных родовых общин, когда опасные технологии уже разрушились, последствия их применений выветрились, а новые технологии ещё не созданы и не могут быть созданы.
При этом неверное думать, что откат назад - это просто перевод стрелок исторического времени на век или тысячелетие в прошлое, например, на уровень общества XIX века, или XV века. Деградация технологий не будет линейной и одновременной. Например, такую вещь, как автомат Калашникова, забыть будет очень сложно. Даже в Афганистане местные умельцы научились вытачивать грубые копии Калашникова. Но в обществе, где есть автомат, рыцарские турниры и конные армии невозможны.
________________________
Али Шер:
Реальность уничтожения человечества, в 21 веке.


1. Общие замечания 15
2. Атомное оружие 35
3. Глобальное химическое заражение 53
4. Биологическое оружие 58
5. Супернаркотик 68
6. Риски, связанные с самокопирующимися идеями (мемами) 71
7. Искусственный интеллект 72
8. Риски, связанные с роботами и нанотехнологиями 87
9. Технологические способы провоцирования естественных природных катастроф 94
10. Технологические риски, связанные с принципиально новыми открытиями 98
11. Риски, создаваемые космическими технологиями 103
12. Риски, связанные с программой SETI 107
13. Риски, связанные с размыванием границ между человеческим и нечеловеческим 117
14. Риски, связанные с природными катастрофами 118
15. Глобальное потепление 141
16. Антропогенные риски, не связанные с новыми технологиями 144
17. Неизвестные нам сейчас причины катастроф 150
18. Способы обнаружения однофакторных сценариев глобальной катастрофы 151
19. Многофакторные сценарии 161
20. События, изменяющие вероятность глобальной катастрофы. 186
21. Криптовойны, гонка вооружений и другие сценарные факторы, повышающие вероятность глобальной катастрофы 205
22. Факторы, влияющие на скорость прогресса 222
23. Защита от глобальных рисков 227
24. Непрямые способы оценки вероятности глобальной катастрофы 264
25. Наиболее вероятный сценарий глобальной катастрофы 282
Часть 2. Методология анализа глобальных рисков. 287
1. Общие замечания. Ошибка как интеллектуальная катастрофа. 287
2. Ошибки, возможные только относительно угроз существованию человечества 291
3. Как когнитивные искажения, могущие касаться любых рисков, влияют на оценку глобальных рисков 307
4. Общелогические ошибки, могущие проявиться в рассуждениях о глобальных рисках 344
5. Специфические ошибки, возникающие в дискуссиях об опасности неконтролируемого развития искусственного интеллекта (ИИ) 355
6. Специфические ошибки, связанные рассуждениями о рисках использования нанотехнологий 365
7. Выводы из анализа когнитивных искажений в оценке глобальных рисков 370
8. Возможные правила для сравнительно эффективной оценки глобальных рисков 370
Заключение. Перспективы предотвращения глобальных катастроф 372
__________________
ton, Роберт, Щетин ибн Едит, - игнор
Ответить с цитированием