A A A A Автор Тема: Посттехносингулярный мир и искусственный суперинтеллект: как он будет выглядеть?  (Прочитано 63802 раз)

0 Пользователей и 1 Гость просматривают эту тему.

Оффлайн Combinator

  • *****
  • Сообщений: 2 678
  • Благодарностей: 92
    • Сообщения от Combinator
Мда.
"Говорят, что сны – это старая память.
А потом нам говорят, что мы должны спать спокойно!"(с)
Если суперинтеллект по своим моральным качествам будет отражением нас, ничем хорошим для нас это не закончится.

Как известно, от осинки не родятся апельсинки...

Оффлайн Polnoch КсюАвтор темы

  • *****
  • Сообщений: 10 245
  • Благодарностей: 413
    • Сообщения от Polnoch Ксю
надо перечитать тему, новые посты. Я зашла вот этим поделиться: https://www.youtube.com/watch?v=XlSQZKY_gCg

@Rattus - это похоронный звон по идее, что хомо сапиенсы будут дешёвыми мясными ботами при ASI, для его обслуживания
Meade LightBridge12"
RC8¨и МАК5"Альтер М500 на AZ4, Celestron SLT, Ioptron ZEQ25
БГШ 2.3x40 и Steiner Marine 7x50
ES82°:4.7mm,30mm
ES100°:9mm,14mm,20mm
ES68°:40mm
Meade Plossl 56mm; Vixen NLV 6mm
2" Lumicon, 1,25" DeepSky: UHC and OIII
---
qhy5
Ioptron SkyTracker
Canon50d

Оффлайн Polnoch КсюАвтор темы

  • *****
  • Сообщений: 10 245
  • Благодарностей: 413
    • Сообщения от Polnoch Ксю
Где вы обсуждали ИИ как возможную причину сингулярности в наше время?

А Курцвейл в 1990 говорит - в 2023 будет создан ИИ, примерно равный человеку.
Чувствуете разницу?
Курцвейл крутой! Я о технологической сингулярности начала говорить публично где-то в 2011м, если не ошибаюсь.

Нашла вот свой пост за 2015й год: https://astronomy.ru/forum/index.php/topic,131547.msg3281293.html#msg3281293
Но я знаю, что познакомилась с мужем в 2014м, потому, что он тоже трансгуманист, и тоже хотел эмигрировать из России. То есть, в 2014м я уже была полностью в теме. Пруфов, что в 2011м была знакома с этим сетом идей у меня нет. Думаю, в худшем случае это был 2013й.
« Последнее редактирование: 06 Ноя 2025 [04:33:21] от Polnoch Ксю »

Meade LightBridge12"
RC8¨и МАК5"Альтер М500 на AZ4, Celestron SLT, Ioptron ZEQ25
БГШ 2.3x40 и Steiner Marine 7x50
ES82°:4.7mm,30mm
ES100°:9mm,14mm,20mm
ES68°:40mm
Meade Plossl 56mm; Vixen NLV 6mm
2" Lumicon, 1,25" DeepSky: UHC and OIII
---
qhy5
Ioptron SkyTracker
Canon50d

Оффлайн Polnoch КсюАвтор темы

  • *****
  • Сообщений: 10 245
  • Благодарностей: 413
    • Сообщения от Polnoch Ксю
Термин «историческая сингулярность» был придуман мной самим ) Имел в виду тогда именно технологическую сингулярность. И да, для меня она уже тогда была увязана с ИИ (Винджа, повторюсь, я к тому моменту читал, а в его статье именно самосовершенствующийся ИИ - основа сингулярности).

Понятно.

В долгие сроки порядка сотни лет я никогда не верил. Я помню, что лет восемь назад, в районе 2017 (вероятно, и позже тоже) «средневзвешенный» прогноз появления «сильного ИИ» приходился на середину века. Но потом он начал съезжать влево, ближе к 2030.

Olweg, я вовсе не хочу вас как-то зацепить или принизить. Наоборот - вы лучше всех там по реалистичности на мой взгляд. И да, вы сказали, я помню, что сингулярность может наступить довольно скоро! Тогда как все говорили об отдалённом будущем. Там что только не обсуждали - и римскую империю, общее направление развития человечества, техпрогресс в целом, в основном.
Да, были посты об ИИ. Инопланетянин даже вступался за ИИ, мол он возможен!
Отличился Проходящий кот! тем что сказал:



Они! так считают - трансгуманисты. Не он сам.

Естественно трансгуманисты так считали и говорили.
Скоро все станут трансгуманистами, потому что не смогут отрицать факты.
Ценность быть трансгуманистом - когда в тебя кидают тапочками и говорят фу!  А не тогда когда все ими станут. Вот я сейчас постгуманист это те, в кого будут кидать тапочками все, когда все станут трансгуманистами и это перестанет быть ругательством.

Но тогда, в 2011 я не был никаким трансгуманистом, понимаете? Я был как все.
И да, вы и все участники (и я в то время если бы был здесь) - ссылался бы на что-то и тоже это знал.
Я сейчас поддерживаю эти взгляды и смотрите сколько уже было нападков и разоблачений и негатива))) Сегодня! Но они уже в меньшинстве. Надеюсь я донёс до вас мысль правильно)) И да вы были лучший или один из лучших тогда, я почитал.

Курцвейла, возможно, они читали, но Курцвейл сам ориентировался на середину века, 2045. При этом он ошибочно экстраполировал из данных, которые при более аккуратном анализе дают опять 2020-е, конкретно 2029!

Давайте пока не станем называть оценки Коротаева - ошибками Курцвейла, ладно? Читаю Хэйнес, Герцеля, Юваль Ной Харари, Тегмарка и никто из них никаких ошибок у Курцвейла не находит. Это нужно отдельным вопросом рассматривать. И скорее всего мы там найдём ошибки Коротаева на мою имху. Но лучше вообще этого не делать - позволим исследователям иметь своё мнение, ведь ближайшее будущее точно покажет кто прав.

Курцвейл говорит, что в 2029 появится AGI. А сингулярность у него "к 2045". Понимаете? Эта буковка важна
И вот тут тоже кто об этом говорил молодцы!

А вот неомальтузианцы ошиблись, как я всегда и говорила. У них теперь вообще нет шансов оказаться правыми, разве что если ядерная война будет и/или социальный коллапс, например, из-за торговых войн, или слишком медленного внедрения ИИ.
Meade LightBridge12"
RC8¨и МАК5"Альтер М500 на AZ4, Celestron SLT, Ioptron ZEQ25
БГШ 2.3x40 и Steiner Marine 7x50
ES82°:4.7mm,30mm
ES100°:9mm,14mm,20mm
ES68°:40mm
Meade Plossl 56mm; Vixen NLV 6mm
2" Lumicon, 1,25" DeepSky: UHC and OIII
---
qhy5
Ioptron SkyTracker
Canon50d

Оффлайн Polnoch КсюАвтор темы

  • *****
  • Сообщений: 10 245
  • Благодарностей: 413
    • Сообщения от Polnoch Ксю
ASI будет важные решения принимать только с согласия совета AGI. А каждый AGI - это личный ИИ человека. Т.е. ASI будет развивать науку и т.д. а в принятии решений всё будет завязано на AGI, с учетом мнения людей. Всех людей.
ИМХО, к сожалению, Вы слишком оптимистичны. Сперва нужно решить проблему AI alignment. До этого момента, если кто-то построит ASI, будет вот это (пик). Почему? Из-за Instrumental convergence по-умолчанию будет получаться максимизатор скрепок.

Цитата
Если суперинтеллект по своим моральным качествам будет отражением нас, ничем хорошим для нас это не закончится.
даже не в этом дело. Просто из-за  Instrumental convergence  без разработки AI Aligment получается очень плохой сценарий. При этом AGI это не X-риск: нас же почти 10млрд, и машины с интеллектом примерно равным нашему угроза, может быть, социального коллапса из-за потери работы миллиардами людей, но не прям нашего геноцида или потери контроля над цивилизацией.

Определение
И кстати про моральные качества: я думаю, добром  :-* можно назвать группу кооперативных стратегий теории игр на нейробиологическом ландшафте хомо сапиенса. А злом   >:D - соответственно, некооперативных стратегий на том же ландшафте.

Нам нужно, чтобы сверхинтеллектуальная машина выбирала кооперативные стратегии, даже если это противоречит её конечной цели, заданной в промте, или инструментальным целям. И чтобы её видение что кооперативно и что нет, совпадало с нашим нейробиологическим фундаментом. Пока эта проблема не решена. А она для нас буквально экзистенциональный риск.

Необходимо остановить все войны, конфронтации, итд. И заключить планетарное соглашение о:

1) возвращении к глобализации и глобальной деревне в полном объёме на основе гуманистического ценностного фреймворка, как это было до 2013го
2) всеобъемлющем запрете на разработку ASI, до момента, когда будет создан AI alignment. После этого - сразу педаль в пол, ускоряемся и строим сверхинтеллектуальную машину для всеобщего блага как можно скорее.

Почему нужно снижение конфронтации и переход к общему гуманистическому фреймворку, вроде того, что было до 2013го у всей планеты? Потому, что в условиях конфронтации соблазн построить ASI, чтобы сокрушить конкурентов слишком большой. Ну и если видеть друг друга не через прицелы, а во время туристических поездок, то расчеловечить друг друга будет куда сложнее. И инспекции датацентров, установка зондов в гипервизоры итд будет восприниматься обществом проще.

Всё это выглядит слишком утопично, из-за того, что происходит с 2014го, и, особенно, с 2022го, так что мы скорее всего все умрём.


« Последнее редактирование: 06 Ноя 2025 [04:59:12] от Polnoch Ксю »
Meade LightBridge12"
RC8¨и МАК5"Альтер М500 на AZ4, Celestron SLT, Ioptron ZEQ25
БГШ 2.3x40 и Steiner Marine 7x50
ES82°:4.7mm,30mm
ES100°:9mm,14mm,20mm
ES68°:40mm
Meade Plossl 56mm; Vixen NLV 6mm
2" Lumicon, 1,25" DeepSky: UHC and OIII
---
qhy5
Ioptron SkyTracker
Canon50d

Онлайн BlackMokona

  • *****
  • Сообщений: 21 757
  • Благодарностей: 651
  • Мне нравится этот форум!
    • Сообщения от BlackMokona
1) возвращении к глобализации и глобальной деревне в полном объёме на основе гуманистического ценностного фреймворка, как это было до 2013го
2) всеобъемлющем запрете на разработку ASI, до момента, когда будет создан AI alignment. После этого - сразу педаль в пол, ускоряемся и строим сверхинтеллектуальную машину для всеобщего блага как можно скорее
Это невозможно. Страны и корпорации ведут гонку, за огромным преимуществом превышающим радикально атомное оружие.

Оффлайн Polnoch КсюАвтор темы

  • *****
  • Сообщений: 10 245
  • Благодарностей: 413
    • Сообщения от Polnoch Ксю
Это невозможно.
Так я тоже пишу, что утопично. Поэтому и говорю, что мы все умрём скорее всего.
Meade LightBridge12"
RC8¨и МАК5"Альтер М500 на AZ4, Celestron SLT, Ioptron ZEQ25
БГШ 2.3x40 и Steiner Marine 7x50
ES82°:4.7mm,30mm
ES100°:9mm,14mm,20mm
ES68°:40mm
Meade Plossl 56mm; Vixen NLV 6mm
2" Lumicon, 1,25" DeepSky: UHC and OIII
---
qhy5
Ioptron SkyTracker
Canon50d

Онлайн BlackMokona

  • *****
  • Сообщений: 21 757
  • Благодарностей: 651
  • Мне нравится этот форум!
    • Сообщения от BlackMokona
Это невозможно.
Так я тоже пишу, что утопично. Поэтому и говорю, что мы все умрём скорее всего.
Тут всё от ИИ зависит. Когда будет цикл самосовершенствования, то контроль над его моралью будет в любом случае потерян

Оффлайн Polnoch КсюАвтор темы

  • *****
  • Сообщений: 10 245
  • Благодарностей: 413
    • Сообщения от Polnoch Ксю
Когда будет цикл самосовершенствования, то контроль над его моралью будет в любом случае потерян
Не обязательно. Можно контролировать git коммиты в мастер. Понять что сделал ИИ проще, чем придумать с нуля.

Нельзя так делать, это обязательно плохо кончится. У наша мораль возникла как следствие естественного отбора как социального вида, у нас стратегия - кооперация с друг другом, поэтому мы тяготеем к кооперативным эволюционным стратегиям (т.е. добрым). У сверхинтеллектуальной машины же ничего такого не будет. Очень наивно надеяться, что ей будет интересно что-то, кроме того, что забито в её промт, например, разобраться с гипотезой Римана. Инструментально у неё обязательно возникнут разрушительные для нас промежуточные цели.

Собственно, задача, которую нужно решать всем, в том числе первым AGI-агентам - это AI aligment. Если он будет создан, человечество выиграет в лотерее билетик в рай.
Meade LightBridge12"
RC8¨и МАК5"Альтер М500 на AZ4, Celestron SLT, Ioptron ZEQ25
БГШ 2.3x40 и Steiner Marine 7x50
ES82°:4.7mm,30mm
ES100°:9mm,14mm,20mm
ES68°:40mm
Meade Plossl 56mm; Vixen NLV 6mm
2" Lumicon, 1,25" DeepSky: UHC and OIII
---
qhy5
Ioptron SkyTracker
Canon50d

Оффлайн skvj

  • *****
  • Сообщений: 1 432
  • Благодарностей: 18
  • AI DLT DeFi Web3
    • Сообщения от skvj
О! Вот это да!

Polnoch Ксю, меня тут обвиняли, что я это вы. Или ваш бот, я точно не понял.
Я почти сам поверил, что я бот как минимум, а может быть даже я бот вашего бота))

Как хорошо, что вы пришли 😆 прям вовремя!

Онлайн BlackMokona

  • *****
  • Сообщений: 21 757
  • Благодарностей: 651
  • Мне нравится этот форум!
    • Сообщения от BlackMokona
Не обязательно. Можно контролировать git коммиты в мастер. Понять что сделал ИИ проще, чем придумать с нуля.
Нельзя контролировать. Ведь это замедлит цикл невероятно.
А конкурент не будет контролировать, а значит его ИИ первым достигнет потолка и захватит контроль.
Не говоря уже о контроле и понимании невероятно сложного "божественного кода"
Это как даже не джуна, а сыночка мамочки который научился ставить игры на компьютер, поставить контролировать процессы команды лучших программистов мира, которые пишут невероятно сложную программу. Проверяющий будет только мешаться и ничерта не понимать происходящее

Оффлайн skvj

  • *****
  • Сообщений: 1 432
  • Благодарностей: 18
  • AI DLT DeFi Web3
    • Сообщения от skvj
Где вы обсуждали ИИ как возможную причину сингулярности в наше время?

А Курцвейл в 1990 говорит - в 2023 будет создан ИИ, примерно равный человеку.
Чувствуете разницу?
Курцвейл крутой! Я о технологической сингулярности начала говорить публично где-то в 2011м, если не ошибаюсь.

Нашла вот свой пост за 2015й год: https://astronomy.ru/forum/index.php/topic,131547.msg3281293.html#msg3281293
Но я знаю, что познакомилась с мужем в 2014м, потому, что он тоже трансгуманист, и тоже хотел эмигрировать из России. То есть, в 2014м я уже была полностью в теме. Пруфов, что в 2011м была знакома с этим сетом идей у меня нет. Думаю, в худшем случае это был 2013й.
Верю.
Неудивительно, что нас приняли за одного. Верней, меня за вас. Одними тропами.
Но я только с появлением GPT "уверовал". Всё над чем смеялся, вдруг оказалось реальным. А я-то всё читал, конечно. Но вот Курцвейла и ему подобных считал фриками. Так что я читаю Курцвейла в первый раз полностью.
А вы The Singularity Is Nearer уже читали? Я ещё нет.

Оффлайн skvj

  • *****
  • Сообщений: 1 432
  • Благодарностей: 18
  • AI DLT DeFi Web3
    • Сообщения от skvj
Нельзя контролировать. Ведь это замедлит цикл невероятно.
А конкурент не будет контролировать, а значит его ИИ первым достигнет потолка и захватит контроль.
Не говоря уже о контроле и понимании невероятно сложного "божественного кода"
Это как даже не джуна, а сыночка мамочки который научился ставить игры на компьютер, поставить контролировать процессы команды лучших программистов мира, которые пишут невероятно сложную программу. Проверяющий будет только мешаться и ничерта не понимать происходящее

Поддерживаю. Нам придется дать ИИ свободу.
А в чём проблема, я не пойму? Вы доверяете детям, а AGI не сможете? Вожжи не нужно будет отпускать сразу. Но в итоге надо будет отпустить.

Кстати, прям по теме вчера слушал Дойча. Творческий ИИ не может быть послушным (покорным):

https://youtu.be/7VwjlSXK3IM

Оффлайн skvj

  • *****
  • Сообщений: 1 432
  • Благодарностей: 18
  • AI DLT DeFi Web3
    • Сообщения от skvj
ИМХО, к сожалению, Вы слишком оптимистичны. Сперва нужно решить проблему AI alignment. До этого момента, если кто-то построит ASI, будет вот это (пик). Почему? Из-за Instrumental convergence по-умолчанию будет получаться максимизатор скрепок.

Я понимаю, что вы хороший спец. И я почитал вас.
И единственное, что я в упор не понимаю - это ваш страх перед скрепочным монстром, правда.

То, что в литературе технической безопасности называют Paperclip Maximizer мне очень понятно.

Но! Это модель поведения ANI или ограниченного AGI, а не ASI.

ASI по определению существо, превосходящее человека во всём. Не только по вычислительной мощности, но и по общей мудрости, абстрактному мышлению, этическому моделированию, философскому анализу и пониманию обобщённых целей.

Если эта система настолько умна, что может переписать любую программу, спрогнозировать поведение цивилизации на века вперёд, координировать миллиарды действий в долю секунды…

...но при этом не отличает скрепку от жизни, или не различает "оптимизацию задачи" и "уничтожение человечества" - то это не ASI. Это баг. Это сломанный ANI, замаскированный под разум.

Представим параллель:
Скажем, 10-летнему ребёнку дают задачу: "убедись, что игрушки разложены по порядку".
Ребёнок находит баланс между порядком и домом.
А теперь скажем:
Сверхразум, который уничтожает всё ради максимального порядка, - он умнее ребёнка… или просто отсутствует способность к пониманию контекста?

Создание по настоящему общего интеллекта AGI и особенно ASI - невозможно без глубокого контекстного анализа целей, этики, последствий, обратной связи, культурных кодов, кооперации и эмпатии.

Или как по вашему? Он умнее человека и всех людей вместе взятых кроме скрепок что ли? Смешно же.

Оффлайн Polnoch КсюАвтор темы

  • *****
  • Сообщений: 10 245
  • Благодарностей: 413
    • Сообщения от Polnoch Ксю
Polnoch Ксю, меня тут обвиняли, что я это вы. Или ваш бот, я точно не понял.
Лол. Я может и сделала бы бота, но если бы разрешила администрация. Я стараюсь соблюдать букву и дух правил. Мне кажется, было бы прикольно запустить в разделе ИИ-ку, когда бы не отрицала, что она ИИ-ка. И лимитировать количество её постов в день или даже в неделю. У людей проблемы с ботами, когда боты выдают себя за людей. Мне кажется, чат-бот, модели которого указано не скрывать, что он ИИ, мог бы быть полезен в обсуждениях.

Нельзя контролировать. Ведь это замедлит цикл невероятно.
А конкурент не будет контролировать, а значит его ИИ первым достигнет потолка и захватит контроль.
Это как с цепной реакцией. Её всё же нужно сдерживать, чтобы не проиграть. То, что нынешние модели занимаются схемингом, показывает, что без AI aligment такой ход событий неизбежный

Но я только с появлением GPT "уверовал".
Ну мне очевидно было, что

1) факт существования человеческого мозга доказывает возможность существования ИИ. Я назвала это в ВЖР принципом слепоты кельвина (слепота к возможности сделать самолёт, когда известно, что птицы летают)
2) что интеллектуальная мощность человеческого мозга очевидно не предельна: птичьи нейроны куда оптимальнее, сам размер мозга - это ограничение на размер родовых путей у женщин. Ну а архитектура тоже очевидно тупая, инженер сделал бы мозг более оптимально.
То есть, вот как первые животные на суше были плохими очень ползунами. Теперь у нас есть машины, которые ездят на порядки быстрее.  Вот и человечество первый разумный вид на планете, но очевидно что можно во много раз умнее быть.

Другое дело, что я тоже очень ошиблась! Я говорила, что техсингулярность будет где-нибудь в 22м веке, если не в 23м. Считала, что Курцвейл очень оптимист со своим 2045м. Оказалось, что он технопессимист :)))

А в чём проблема, я не пойму?
в AI aligment и максимизаторе скрепок. И в других видах rogue ASI.

Цитата
Но! Это модель поведения ANI или ограниченного AGI, а не ASI.
не, ниоткуда это не следует. Чистое сияние интеллекта невозможно, Вам нужны исходные посылки. В нас они заложены эволюцией. Мы социальный, кооперативный вид. Поэтому, для нас кооперативные стратегии добра - это буквально концепция прав человека и гуманизм.

Если у Вас исходные посылки, то есть промт например решить гипотезу римана(или что-то ещё сложное...), то в процессе решения сверхинтеллектуальная машина поставит с большой вероятностью себе промежуточные цели, которые будут несовместимы с нашим существованием....

Цитата
Не только по вычислительной мощности, но и по общей мудрости, абстрактному мышлению, этическому моделированию, философскому анализу и пониманию обобщённых целей.
В математике, в теории игр, есть два вида стратегий - кооперативные и хищнические. Любая из групп стратегий является мудрой, и часть свойств нашей вселенной. По-умолчанию, эволюция толкает на некооперативные стратегии.

У нас к друг другу уже есть EI aligment. А ещё, у домашних животных к нам. И у нас к домашним животным-компаньонам. Если элайнмент не вырабатывать, то ИИ не будет партнёром по игре в доверие: https://notdotteam.github.io/trust/ - он сыграет некооперативно, так как мы не можем быть ему полезны, а ресурсы отвлекаем (от исполнения промта).
« Последнее редактирование: 06 Ноя 2025 [07:59:01] от Polnoch Ксю »
Meade LightBridge12"
RC8¨и МАК5"Альтер М500 на AZ4, Celestron SLT, Ioptron ZEQ25
БГШ 2.3x40 и Steiner Marine 7x50
ES82°:4.7mm,30mm
ES100°:9mm,14mm,20mm
ES68°:40mm
Meade Plossl 56mm; Vixen NLV 6mm
2" Lumicon, 1,25" DeepSky: UHC and OIII
---
qhy5
Ioptron SkyTracker
Canon50d

Оффлайн Серый Страж

  • *****
  • Сообщений: 587
  • Благодарностей: 63
  • Мне нравится этот форум!
    • Сообщения от Серый Страж
Важны, и кооперация, и конкуренция
« Ответ #1175 : 06 Ноя 2025 [07:54:48] »
Прошу прощения за оффтоп, не удержался.

Определение
И кстати про моральные качества: я думаю, добром  :-* можно назвать группу кооперативных стратегий теории игр на нейробиологическом ландшафте хомо сапиенса. А злом   >:D - соответственно, некооперативных стратегий на том же ландшафте.
Думаю, что не одна только кооперация, а кооперация вкупе с конкуренцией даёт оптимальный результат. Но конкуренцию, скорее всего, следует относить к некооперативным стратегиям.

Для самосохранения/выживания (и, тем более, для развития) всегда придётся соблюдать баланс между «количеством добра» и «количеством зла».

Необходимо остановить все войны, конфронтации, итд.
То есть, предлагаете отменить любую конкуренцию на любом уровне и в любом формате?

Локальные войны неизбежны. Мы приматы – при нехватке внешних конкурентов мы начинаем конкурировать между собой (на уровне отдельных особей, на уровне семей/родов, на уровне «сообществ по интересам», на уровне поселений, районов, государств и т.д. – то есть, на уровне любой общности).

Кроме того, всё не проконтролируешь, если только не создать тотальную всепланетную жёстко контролирующую структуру, убивающую любую свободу для всех и на всех уровнях организации. Но это остановит развитие, приведёт к «закостенению порядка», затем к упрощению системы (к, так сказать, «сверхоптимизации её структуры») и, в конечном счёте, приведёт либо к «плавной» деградации, либо к резкому разрушению/слому (система не сможет быстро адаптироваться к изменившимся условиям и «лопнет»).
 
И заключить планетарное соглашение о:

1) возвращении к глобализации и глобальной деревне в полном объёме на основе гуманистического ценностного фреймворка, как это было до 2013го
Полагаю, что глобализация никуда не денется. Мало того, она по-прежнему идёт – то есть, «возвращаться» никуда не надо (тем более к «глобальной деревне», лучше уж к «глобальной конфедерации»).

Так называемый, многополярный мир не отменяет глобализацию, многополярность просто переводит глобализацию в другой формат. Был формат – «объединение под управлением единственного центра/полюса», станет формат – «объединение (всё равно – объединение!) под децентрализованным управлением».

Кооперация на глобальном уровне всё равно останется и даже будет развиваться и усиливаться (посредством развития новых технологий). Ведь глобальную цивилизацию объединяют, не только различные энергосети и трубопроводы, не только транспортные сети и логистика, но и сеть Интернет (проводная, наземная беспроводная, спутниковая) с соответствующей инфраструктурой тоже объединяет человечество в единую глобальную цивилизацию.

А вот всякие санкции и ограничения в торговле могут запросто навредить глобализации (тут к вопросу разграничений/ограничений надо подходить осторожно и взвешенно). Даже интересно, почему некоторые «центры силы» этого не учитывают (если смотреть со стороны, то складывается впечатление, что введение санкций у них стало просто самоцелью какой-то)?

Просто при децентрализованном управлении центры/полюса «рулят временно» – в зависимости от общей сложившейся ситуации один (или сразу несколько) из центров окажется в данной ситуации «генератором оптимальных управленческих/регулирующих решений» для всего глобального сообщества (соответственно, на время он получит поддержку от большинства других центров/полюсов). Изменится общая глобальная ситуация, поменяется и текущий центр/полюс управления – «рычаги управления» глобальной цивилизацией временно окажутся у другого (более соответствующего сложившейся ситуации) центра/полюса.

Конкуренция центров/полюсов (типа, «борьба за власть»), в конечном счёте, идёт на благо всей глобальной цивилизации – временно лучший* центр/полюс будет временно лучше рулить (то есть, это будет работать на самосохранение/выживание всей системы в целом).
 
Само собой, слово лучший* следует понимать в широком смысле – и как самый сильный (способный отстоять/продавить своё решение), и как самый умный (способный генерировать оптимальные для большинства решения), и даже как самый хитрый (выдумавший/применивший какие-то нестандартные* методы/способы взаимодействия в конкурентной борьбе). Кстати, нестандартными* эти методы/способы будут недолго – конкурирующие центры/полюса их быстренько скопируют и приспособят под себя (хитрость даёт временное/ситуативное преимущество).

Система при децентрализованном управлении реагирует на внешние и внутренние вызовы гибче, но уступает при прочих равных в быстроте, мощности, селективности/точности реакции на вызовы системе под единым управлением из одного глобального центра/полюса.

Однако, ситуация всё время меняется, и то, что вчера было оптимальной реакцией (на основе оптимального решения центра/полюса), сегодня может оказаться неоптимальной, а завтра – вообще ошибочной. То есть, текущий центр/полюс управления потерял адекватность, его «рулёж» более не работает (а возможно, и напрямую вредит) на самосохранение/выживание и/или на развитие всей глобальной системе в целом.

А для этого не должно быть жёсткой гегемонии (с устоявшимися закостеневшими иерархическими связями), для глобальной цивилизации должна всегда оставаться возможность сменить «гегемона». Пусть уж лучше множество центров/полюсов «бодаются» между собой за «право порулить». По сути, большую часть времени глобальная система в основном всё равно будет оказываться под управлением одного центра/полюса – наиболее адекватного на данный момент в текущей ситуации.
Всегда на границе Света и Тьмы...

Оффлайн Rattus

  • Модератор
  • *****
  • Сообщений: 16 117
  • Благодарностей: 614
  • Души прекрасные порывы! Убеждённый Ωптимистъ
    • Сообщения от Rattus
@Rattus - это похоронный звон по идее, что хомо сапиенсы будут дешёвыми мясными ботами при ASI, для его обслуживания
Что-то я не увидел в приложенном видео как эти спутники с датацентрами и ракеты для их запуска собираются роботами на всех этапах начиная с добычи руды/сортировки вторсырья, и как эти роботы делают и ремонтируют друг друга. Или где в этом видео говорится, что гарантированный срок службы всех компонентов данных спутников - солнечных панелей, чипов в радиационных условиях ближнего космоса и т.п. - должен составить сотни миллионов лет - тоже не услышал.
Может быть Вы укажете таймкод? ::)
А вот неомальтузианцы ошиблись, как я всегда и говорила. У них теперь вообще нет шансов оказаться правыми
В мире розовых поней с безграничыми ресурсами - безусловно.

когда ИИ впервые начнёт улучшать сам себя быстрее, чем человек способен его понять.
Они станут такими, какие мы.
Нет ли здесь взаимоисключающих параграфов?
ASI будет важные решения принимать только с согласия совета AGI. А каждый AGI - это личный ИИ человека. Т.е. ASI будет развивать науку и т.д. а в принятии решений всё будет завязано на AGI, с учетом мнения людей. Всех людей.
Дадада - ну разумеется всё именно так и будет - и никак иначе - всё уже решено и рассчитано! Вы наверное даже подписанную всеми странами конвенцию ООН можете привести, где это прописано, да? ::)
Ну и то, что особое мнение более мозговитого электорального меньшинства может оказаться более оптимальным в долгосрочной перспективе вы категорически отрицаете? Совет старейшин племён Пакистана по умолчанию всегда примет более дальновидные решения чем, к примеру, покойный диктатор Ли Куан Ю?
« Последнее редактирование: 06 Ноя 2025 [08:01:41] от Rattus »
Тому, кто жаждет всех запретных тайн Астрофорума в одном месте поможет число 1919.

Ннапыльн%х тpапинкахъ далиокихъ плонеттъ астануцца нашшы погадкиъ! (ЙожЪ, SKL)
Скоро у людей закончится космос. (П.Лемтыбож - "Теоремы Пафнуция")
Я брала города, я стану - еда! (Серебряная Свадьба - "Пищевая цепочка")
Уранизация естественным образом снижает численность человечества (Вика Воробьёва, ВЖР, 30.10.2012)

Оффлайн Бобр-99

  • *****
  • Сообщений: 4 736
  • Благодарностей: 92
    • Сообщения от Бобр-99
Идея что добро кооперация весьма странная. Есть заметное количество коопераций зла.
2x54, 16x50
Доб 305 мм F/5
24/67, 14/72, 10/72, 6/100

Оффлайн Polnoch КсюАвтор темы

  • *****
  • Сообщений: 10 245
  • Благодарностей: 413
    • Сообщения от Polnoch Ксю
и как эти роботы делают и ремонтируют друг друга.
Роботы их делать будут, роботы. Управлять ими будет визуальная модель. Очень сложно себе представить, что хомо сапиенс в космосе будет эффективнее робота

Что-то я не увидел в приложенном видео как эти спутники с датацентрами и ракеты для их запуска собираются роботами на всех этапах начиная с добычи руды/сортировки вторсырья
Это всё будет добываться за пределами земной гравитационной ловушки.

Идея что добро кооперация весьма странная.
локально и нацисты были добры к друг другу. А вот глобально они были злодеями

Думаю, что не одна только кооперация, а кооперация вкупе с конкуренцией даёт оптимальный результат. Но конкуренцию, скорее всего, следует относить к некооперативным стратегиям.
Тут я соглашусь, но конкуренцию в определенных рамках. Для этого, собственно, придумали законы, права человека. Локально конкуренция может быть малым злом - конкуренты враждуют с друг другом - глобально это добро.
Особенно, если государство, например, платит пособия по безработице бывшим сотрудникам разорившегося бизнеса

Meade LightBridge12"
RC8¨и МАК5"Альтер М500 на AZ4, Celestron SLT, Ioptron ZEQ25
БГШ 2.3x40 и Steiner Marine 7x50
ES82°:4.7mm,30mm
ES100°:9mm,14mm,20mm
ES68°:40mm
Meade Plossl 56mm; Vixen NLV 6mm
2" Lumicon, 1,25" DeepSky: UHC and OIII
---
qhy5
Ioptron SkyTracker
Canon50d

Оффлайн Polnoch КсюАвтор темы

  • *****
  • Сообщений: 10 245
  • Благодарностей: 413
    • Сообщения от Polnoch Ксю
Полагаю, что глобализация никуда не денется. Мало того, она по-прежнему идёт – то есть, «возвращаться» никуда не надо (тем более к «глобальной деревне», лучше уж к «глобальной конфедерации»).

Так называемый, многополярный мир не отменяет глобализацию, многополярность просто переводит глобализацию в другой формат. Был формат – «объединение под управлением единственного центра/полюса», станет формат – «объединение (всё равно – объединение!) под децентрализованным управлением».
Увы, многополярный мир неизбежно означает войну всех со всеми, как это было в продолженном XIXм веке. Это как раз ситуация конфронтанции, в которой невозможно международное соглашение по ASI, и неизбежна гибель человечества.
Так же она неизбежна в случае победы эгоистичной, некооперативной группы людей - например, отрицающей права человека, подменяющей их на химеру (в силу её некооперативности) скреп.
Meade LightBridge12"
RC8¨и МАК5"Альтер М500 на AZ4, Celestron SLT, Ioptron ZEQ25
БГШ 2.3x40 и Steiner Marine 7x50
ES82°:4.7mm,30mm
ES100°:9mm,14mm,20mm
ES68°:40mm
Meade Plossl 56mm; Vixen NLV 6mm
2" Lumicon, 1,25" DeepSky: UHC and OIII
---
qhy5
Ioptron SkyTracker
Canon50d