Телескопы покупают здесь


Голосование

SETI атака невозможна, потому что:

Внеземных цивилизаций не существует
Невозможны компьютерные программы, обладающие искусственным интеллектом
Мы никогда не сможем запустить инопланетную программу на наших компьютерах
Ни одна внеземная цивилизация не будет начинать такую атаку
Эта атака потерпит провал, так как мы не дадим вылезти враждебному ИИ из чёрного ящика
Атака возможна и весьма вероятна
Атака в принципе возможна, но крайне маловероятна и абсолютно безопасна

A A A A Автор Тема: Насколько SETI опасно?  (Прочитано 93592 раз)

0 Пользователей и 2 Гостей просматривают эту тему.

Оффлайн flying spagetti monster

  • *****
  • Сообщений: 982
  • Благодарностей: 0
  • YoHoHo
    • Сообщения от flying spagetti monster
Re: Насколько SETI опасно?
« Ответ #560 : 21 Мар 2009 [11:23:45] »
...Как только цивилизация станет космической в глобальном смысле, тогда и посмотрим, какие задачи ей придётя решать, а пока мы можем о них лишь теоретически рассуждать. Так што  ;D Не меряйте всё человеческими мерками...
экспансивность в потреблении ресурсов является отличительной чертой любой формы жизни. иначе нельзя определить сам термин "жизнь"

Оффлайн Uselink

  • *****
  • Сообщений: 4 680
  • Благодарностей: 62
    • Сообщения от Uselink
Re: Насколько SETI опасно?
« Ответ #561 : 21 Мар 2009 [11:27:56] »
...Как только цивилизация станет космической в глобальном смысле, тогда и посмотрим, какие задачи ей придётя решать, а пока мы можем о них лишь теоретически рассуждать. Так што  ;D Не меряйте всё человеческими мерками...
экспансивность в потреблении ресурсов является отличительной чертой любой формы жизни. иначе нельзя определить сам термин "жизнь"
Любой формы жизни планета Земля :) Термин "жизнь" опять же, термин землян, антропоцентризм не совсем уместен.
Только любовь спасёт этот мир...

Оффлайн turchin

  • *****
  • Сообщений: 1 338
  • Благодарностей: 11
    • Сообщения от turchin
Re: Насколько SETI опасно?
« Ответ #562 : 21 Мар 2009 [14:46:35] »
To alex semenov

Было бы првильно исходить из следующего принципа: мы никогда не сможем понять стратегию сверхцивилизаций.

а) Теперь по сути. С какой стати сверхцивилизации вообще должны пересылать чужой ИИИ? Если они сверхцивилизации, они вполне могут создать свой ИИИ и посылать всё, что считают нужным. Таким образом, сверхцивилизации вообще ничего не пересылают.

б) пространственное распределение. сверхцивилизации существуют неизменно в неких местах космоса, как дубы в лесу - а новые наивные цивилизации возникают случайным образом между этими дубами, как поганки. Если плотность дубов мала, то сигнал может двигаться от поганки к поганке совершенно не вовлекаясь. Если дубов много, то места для поганок мало

в) стратегии разных сверхцивилизаций не должны совпадать - одни молчат, другие посылают свои собственные ИИИ, третии могут ретранслировать.

г) сверхцивилизации вообще не должны заботится о "добре" для наивных цивилизаций. например, их может вполне устраивать ситуация, когда ИИИ полностью перерабатывает их в некие ретрансляционные станции или хз что. или просто устраняет конкурентов.

д) даже если сверхцивилизации озабочены добром для нас, их предстваления о добре могут быть настолько чудовищны с нашей точки зрения, что - см меморандум бромберга - лучше с этим добром не связываться.

Таким образом, наличие дубов не влияет на распространение спор поганок в обычном лесу, и наличие сверхцивилизаций в общем случае не влияет на ход seti атаки. Но в некоторых ситуациях оно может влиять.

Ну и конечно, я готов вам уступить 50 процентов шанса, общих выводов это не менят. точно так же тот факт, что большиснтво людей не больны спидом и движимы любовью, не отменяет того факта, что нуджно предохраняться.
Структура глобальной катастрофы.
http://avturchin.narod.ru/sgk31short.doc

Оффлайн flying spagetti monster

  • *****
  • Сообщений: 982
  • Благодарностей: 0
  • YoHoHo
    • Сообщения от flying spagetti monster
Re: Насколько SETI опасно?
« Ответ #563 : 21 Мар 2009 [15:47:32] »
...Как только цивилизация станет космической в глобальном смысле, тогда и посмотрим, какие задачи ей придётя решать, а пока мы можем о них лишь теоретически рассуждать. Так што  ;D Не меряйте всё человеческими мерками...
экспансивность в потреблении ресурсов является отличительной чертой любой формы жизни. иначе нельзя определить сам термин "жизнь"
Любой формы жизни планета Земля :) Термин "жизнь" опять же, термин землян, антропоцентризм не совсем уместен.
остальные структуры мы вправе не считать формами жизни, если терминологический вопрос мы решили (даже не важно как)

Оффлайн flying spagetti monster

  • *****
  • Сообщений: 982
  • Благодарностей: 0
  • YoHoHo
    • Сообщения от flying spagetti monster
Re: Насколько SETI опасно?
« Ответ #564 : 21 Мар 2009 [16:06:19] »
...
г) сверхцивилизации вообще не должны заботится о "добре" для наивных цивилизаций. например, их может вполне устраивать ситуация, когда ИИИ полностью перерабатывает их в некие ретрансляционные станции или хз что. или просто устраняет конкурентов.
...
вот интересно люди желают добра шиншиллам, коровам и проч?
я бы не удивился если бы представители "сверхцивилизации" на завтрак жарили бы по четыре человеческих эмбриона ;D

Оффлайн КотКот_

  • *****
  • Забанен!
  • Сообщений: 772
  • Благодарностей: 0
    • Сообщения от КотКот_
Re: Насколько SETI опасно?
« Ответ #565 : 21 Мар 2009 [20:01:22] »
Все движется к точке Омега...
Омега точка - это вроде бы как конец всему. Всё, мол, граждане, приехали, дальше рельсов нет. Шарден считал, что это будет слияние с богом ::). Но что будет потом он думать не захотел. Что, спрашивается, если бог всё это на самом деле вытворяет, то он на этом успокоится? Нет уж, господа верующие, вы же сами говорите, что пути господни неисповедимы. Очевидно, что этот переход должен быть той же ступенькой в бесконечном числе ступенек, что показывал нам здесь раньше Семенов для  метапереходов эволюции жизни. И тогда путь к технологической сингулярности надо признать тоже бесконечным, если мы не будем опрометчиво считать, что этот конец пути. Пока нет на то оснований.
 

Чем больше цивилизация развивается и входит во вселенную, тем она становится стандартнее , ибо формы и методы жизни в пространстве определяются законами природы, а не тем, с какого бока встали решатели.
Галактоходы  вперед!

Оффлайн uuu2

  • *****
  • Сообщений: 1 188
  • Благодарностей: 7
    • Сообщения от uuu2
Re: Насколько SETI опасно?
« Ответ #566 : 22 Мар 2009 [02:10:12] »
Вы просто не умеете это делать. Просто надо, чтобы его рассуждения были удобны Вам, вот и все.
Мне просто это не надо. Я особо и не задумываюсь над тем, "какие рассуждения Турчина для меня удобны".

Только дурак будет идти по головам. Умный же поймет, что надо сотрудничать со всеми.
А земные организмы всегда друг с другом сотрудничают? Хищных животных, вредоносных бактерий и смертельных вирусов - не существует? По-моему, практически все земные существа занимается только одним - поеданием друг друга. Сотрудничество занимает мизерную долю среди стратегий выживания.

точно также вы передёргиваете насчёт того, что отказ от реализации чертежей равносилен отказу от seti. например, можно изучить распределение ETI сигналов по небу и сравнить их типы и содержание.
Зачем мы будем изучать распределение сигналов, если содержимое этих сигналов (инопланетные технологии) всё равно будет проигнорировано?

Но даже если вероятность ее 1 процент, стоит отказаться от изготовления инопланетных машин по чертежем.
Да, но вероятность атаки земного ИИ, по Вашей же оценке, в 25 раз больше! Получается, что от изготовления машин по земным чертежам, тем более, следует отказаться?

А давайте допустим, что инопланетный разум обладает сопереживанием и состраданием к иным разумным существам (так как люди в общем то в среднем относятся к братьям своим меньшим, собакам)
Да-да. Отлучить щенка от родителей; продать на базаре; кастрировать/стерилизовать; запереть в каменной пещере; выводить гулять час в день на поводке; кормить из миски педигрями; забавляться, как с игрушкой; а когда собака постареет, выкинуть на улицу или "усыпить"...

И это самый ближний "друг человека"! Как люди сострадают остальным "братьям" (уничтожив дикую фауну, загнав домашних животных в концлагеря) - всем отлично известно.

Оффлайн turchin

  • *****
  • Сообщений: 1 338
  • Благодарностей: 11
    • Сообщения от turchin
Re: Насколько SETI опасно?
« Ответ #567 : 22 Мар 2009 [02:21:47] »
uuu2
 
содержание не будет проигнорировано навсегда. после того, как мы станем сверхцивилизацией, а некотором смысле это возможно к концу 21 века, мы сможем например, запускать иноплпнетный ИИ внктри симуляций, целиком изображающих внешний мир, и таким образом изучать его (но я бы тоже не стал это делать, так как он может нас переиграть).

да и сам факт открытия внеземной разумной жизни был бы огромным событием. детям тоже не разрешают водку пить - но это не навсегда.  И ядерные испытания запретили. И ничего.

Нет смысла бояться что-то делать по земным чертежам, так как человек или организация, начертивший этот чертёж, сам же может по нему и что-то собрать. И если кто-то придумает ИИ в подвале, то он там же его и запустит, не посылая никому чертежей. И попробует захватить мир. (Но не стоит открывать исполняемые файлы, приходящие по по эдектронной почве)

А вообще, если бы вы смогли убедить всех стононников экзогуманизма, то есть веры во врождённую доброту сверхцивилизаций, в своей правоте (то есть в том, что нет никакой доброты), а они, в свою очередь, убедили бы вас в технической возможности seti атаки, то мне можно было бы не дискутировать на этом форуме:)
Структура глобальной катастрофы.
http://avturchin.narod.ru/sgk31short.doc

Оффлайн uuu2

  • *****
  • Сообщений: 1 188
  • Благодарностей: 7
    • Сообщения от uuu2
Re: Насколько SETI опасно?
« Ответ #568 : 22 Мар 2009 [17:02:22] »
содержание не будет проигнорировано навсегда
Это не решение. Решения может быть только два - либо мы игнорируем инопланетные технологии, либо принимаем.

Вариант "игнорируем Х лет, а потом принимаем", по сути, означает принятие инопланетных технологий. Когда произойдёт это принятие - абсолютно не важно; 30-50-100-500 лет, по космическим меркам, - сущая мелочь.

после того, как мы станем сверхцивилизацией, а некотором смысле это возможно к концу 21 века
После того, как наступит коммунизм! А это возможно к... уже забыл какому году, не напомните?

А потом, как мы определим, что мы стали сверхцивилизацией? Если человека из 1900 года переместить в нынешнее время; показать ему по телевизору репортажи о полётах на Марс и ядерном оружии; провести экскурсию по метро и 300-метровым небоскрёбам; покатать по автомобильным дорогам; доставить его за 7 часов полёта из Москвы в Пекин; рассказать про "электронные письма", доставляющиеся за 30 секунд; показать кучу бытовых устройств - то этот человек мигом признает нас сверхцивилизацией. Аналогично, мы - без вопросов - признаем сверхцивилизацией мир 2100 года. А жители 2100 года признают сверхцивилизацией обиателей 2200 года (но себя они никакими "сверх" считать не будут - для них текущий уровень развития будет обыденным).

мы сможем например, запускать иноплпнетный ИИ внктри симуляций, целиком изображающих внешний мир, и таким образом изучать его (но я бы тоже не стал это делать, так как он может нас переиграть)
Я бы тоже не стал этого делать. Потому что ИИ всё равно будет (в конечном счёте) общаться с людьми, пусть даже через десяток "виртуальных слоёв".

Вот мы, например, сейчас тоже общаемся минуя виртуальные слои (человек-компьютер-ПО-интернет-ПО-компьютер-человек). Непосредственно, вы сейчас разговариваете не со мной, а с железным ящиком, оборудованным кнопочками. :)

Нет смысла бояться что-то делать по земным чертежам, так как человек или организация, начертивший этот чертёж, сам же может по нему и что-то собрать. И если кто-то придумает ИИ в подвале, то он там же его и запустит, не посылая никому чертежей. И попробует захватить мир
Я ничего не понял.

Вот есть земной чертёж, по нему можно создать какое-то устройство. Не важно, кто это устройство соберёт (сам проектировщик или кто-то другой) - главное, что это устройство может оказаться опасным для цивилизации (обдурить людей и захватить мир). Вероятность такого вероломного нападения в 25 раз выше, чем вероятность SETI-атаки. Значит, следует ввести запрет на разработку чертежей и производство по ним каких-либо устройств. Именно с той целью, чтобы никто и никогда никакое устройство не собрал.

Что касается уже созданных чертежей и устройств, то, по-видимому, их следует уничтожить. На всякий случай.

Оффлайн turchin

  • *****
  • Сообщений: 1 338
  • Благодарностей: 11
    • Сообщения от turchin
Re: Насколько SETI опасно?
« Ответ #569 : 22 Мар 2009 [17:10:21] »
насчёт земных чертежей:

Seti атака осуществляется через чертежи, потому что нет другого способа доставить ИИИ на землю.

Однако любому человеку или организации, находящемуся на земле, нет смысла использовать чертежи для атаки, поскольку он уже на земле и может по этим чертежам сделать что ему нужно.

Поэтому запрет на следование любым земным чертежам абсурден. (но делать бомбу по чертежам всё же запрещено).

Если мы реально опасаемся земного ИИ, возможны другие меры: контроль над суперкомпьютерами, контроль над всеми исследовательскими группами в мире, которые разрабатывают ИИ. Недопущение утекания чертежей ИИ в нет. Тоже самое делаеся и в отношении ядерного оружия.
Структура глобальной катастрофы.
http://avturchin.narod.ru/sgk31short.doc

Оффлайн uuu2

  • *****
  • Сообщений: 1 188
  • Благодарностей: 7
    • Сообщения от uuu2
Re: Насколько SETI опасно?
« Ответ #570 : 22 Мар 2009 [20:39:21] »
поскольку он уже на земле и может по этим чертежам сделать что ему нужно
Вот поэтому и надо ему помешать сделать "что ему нужно"! А то, не дай Бог, появится злобный ИИ!

Для этого надо ввести запрет на создание любых устройств, а ещё лучше - на хранение и ношение любых чертежей. Каждую неделю в квартирах и офисах проводить обыски, и, в случае обнаружения чертежа, виновного отправлять на 10 лет в лагерь. Если же виновный изобличён в сборке какого-либо устройства (в особенности, по изъятому чертежу) - наказывать такого гада пожизненной каторгой.

контроль над суперкомпьютерами, контроль над всеми исследовательскими группами в мире, которые разрабатывают ИИ
Что значит "контроль"? Что именно будет контролироваться? Если будет контролироваться запрет на создание компьютеров и программ, то это разнозначно моему посту (только сформулировано другими словами).

Если же создавать компьютеры и ПО будет разрешено; но выкладывать чертежи и код в открытый доступ будет нельзя (и будет контролироваться только отсутствие "утечки") - то смысла в таком контроле нет никакого. Ведь ИИ "уболтает" электронщиков и программистов, и они нарушат запрет (способ найдут). Даже если за разработчиками будет вестись тотальный, 100%-й контроль, ИИ вполне может "уболтать" контроллёров.

Онлайн ivanij

  • Модератор
  • *****
  • Сообщений: 25 728
  • Благодарностей: 602
  • Мне нравится этот форум!
    • Сообщения от ivanij
Re: Насколько SETI опасно?
« Ответ #571 : 23 Мар 2009 [07:20:09] »
эта "жизнь" будет распространяться либо в виде кода (пожирая другие зарождающиеся формы жизни, которые способны к анализу информации извне)

 Не вполне ясен всё-таки возможный механизм такого пожирания. В противном случае это может рассматриваться лишь в качестве фантастических предположений.
конкуренция (из-за ресурсов), паразитизм, хищничество
это же просто
кстати похожая на нас жизнь окажется на нашей же биосферной нише. поэтому ресурсы мы будем использовать одни и те же. поэтому конфликт неизбежен. либо мы их либо они нас

 Ответ понятен. Непонятно другое. Как из символов, в которых закодирована информация (неважно на каком носителе) возникнеть нечто способное к процессу "пожирания". Где-то здесь граница между живым и неживым. А этот переход, кажется, до сих пор неясен специалистам. Или я ошибаюсь, и всё здесь известно?
Моя философия не дала мне совершенно никаких доходов, но она избавила меня от очень многих трат. А.Шопенгауэр.
   Лучше совсем не браться за дело, чем исполнить его дурно. А.П.Романов.

Оффлайн КотКот_

  • *****
  • Забанен!
  • Сообщений: 772
  • Благодарностей: 0
    • Сообщения от КотКот_
Re: Насколько SETI опасно?
« Ответ #572 : 23 Мар 2009 [08:29:57] »
эта "жизнь" будет распространяться либо в виде кода (пожирая другие зарождающиеся формы жизни, которые способны к анализу информации извне)

 Не вполне ясен всё-таки возможный механизм такого пожирания. В противном случае это может рассматриваться лишь в качестве фантастических предположений.
конкуренция (из-за ресурсов), паразитизм, хищничество
это же просто
кстати похожая на нас жизнь окажется на нашей же биосферной нише. поэтому ресурсы мы будем использовать одни и те же. поэтому конфликт неизбежен. либо мы их либо они нас

 Ответ понятен. Непонятно другое. Как из символов, в которых закодирована информация (неважно на каком носителе) возникнеть нечто способное к процессу "пожирания". Где-то здесь граница между живым и неживым. А этот переход, кажется, до сих пор неясен специалистам. Или я ошибаюсь, и всё здесь известно?
ДНК - код между прочим не такой уж большой, даже у развитых существ........
Галактоходы  вперед!

Оффлайн alex_semenov

  • *****
  • Сообщений: 17 516
  • Благодарностей: 632
  • Я лгу!
    • Сообщения от alex_semenov
    • Z-механика+
Re: Насколько SETI опасно?
« Ответ #573 : 26 Мар 2009 [19:07:58] »
Ну, круто вы тут с Турчиным замесили!
Да, конструктив на лицо!  ;D
То есть появилась идея, которая у каждого по отдельности не возникла бы.
В этом и ценность таких споров.
Кстати, Космоген, вы надеюсь не обиделись на мой резкий выпад? Я действительно не хотел все это обсуждать тут. Извините. 

Цитата
А ошибка в том, что вы рассматриваете атакующий нас разум всего лишь как сверхбыстродействующую, но  совершенно безмозглую и тупую вычислительную  машину.
А давайте допустим, что инопланетный разум обладает сопереживанием и состраданием к иным разумным существам ( так как люди в общем то в среднем относятся к братьям своим меньшим, собакам), и все ваши умопостроения об опасности летят ... к черту.  :D

В общем-то вы правы.
Если разум способен к эмпатии (то есть ставить себя на чужое место и переживать о нем как о себе), то это вполне может быть немотивированным (не вытекающим из логики ситуации) фактором в пользу сотрудничества.
Мы даже могли бы оценить вероятность наличия у него такого душевного свойства. И я бы дал 0.9 за то, что у него оно есть.  И даже мог бы попытаться объяснить почему. Мол, без такого "рудимента" разумное существо ну никак не может существовать (а заодно и без самосознания)!
Но!
Во-первых. Тогда наш гипотетический ИИИ должен уметь сопереживать именно нам. Мы ведь тоже сопереживаем умирающей лошади или собаке, хомячку. Даже курице. Но вот рыбе, раку, таракану, пауку....
Улавливаете?
А вот то, что его эмпатия настроена именно на млекопитающих рассчитывать не приходится...

Во-вторых я не думаю что это (или какое иное) свойство души, эмоция, способа сильно влиять на поведение ИИИ управляемое холодной логикой ситуации. Даже мы, люди поставленные в жесткие логические клещи ситуации и понимая это, душим в себе наши эмоции. Например, сострадание к афганскому ребенку или старику. Если дали команду зачистить кишлак – что ж надо работать... Поэтому в таких случаях профессионали и использют именно термин "работа". Чтобы дистанцировть то, что делаешь от того, что ты делаешь.
Другой пример - летчики-истребители воюющих стран. Они могут сколь угодно уважать друг друга, но будут убивать друг друга рассчетливо и хладнокровно.
Ну и последнее.
Если мы станем учитывать и такой фактор (чувства), то придется учитывать и то, что наш ИИИ может обладать не только "добрыми" к нам эмоциями но и "злыми".  То есть то, что он может быть злым по отношению к нам немотивированно.  То есть прийдется допустить что он может оказаться "теми самым окровавленными зарубами из телепортатора".
Кстати, болезненная эмпатия как раз и порождает маньяков. Любая технология – двойного применения. Технология эмоций (а иначе ее не назовешь) в том числе.
В общем я предлагаю "сократить" в наших рассуждениях влияние этих факторов.

Если станем обсуждать и это - мы можем утонуть в очень глубокой проблеме. Соотношение разума и эмоций.
Поэтому остановимся вот на чем. Общепринято, что разум это умение не идти на поводу у эмоций. Любых. Эмоции в большинстве случаев  скверный советчик.

Наш ИИИ будет разумен. Будут ли у него эмоции? Не важно (я уверен что да). Учитывая его "ума палату" мы можем считать, что он свои эмоции будет держать при себе, и его поведение будет определяться логикой обстоятельств. Именно ее мы и пытаемся тут понять.

Хотя конечно когда вся логика мира не может перевесить одну или другую чашу в пользу некоторого решения, тогда...
Но так можно спасти мир (или угробить). Один раз. Но не поддерживать его вечно.
А мы именно строим модель почти вечного  мира.
 ;)
Александр Анатольевич Семёнов. Научный спекулянт, сторонник концепции сильного ИИ по А. Тьюрингу, исторический еслибист, саракшист, идейный космист, религиозный эволюционист, знаниевый фундаменталист, прорицатель мрачного будущего. Эксперт по межзвездным переселениям и ксеноциду. Сетевой графоман-оратор. Весельчак, балагур.

Оффлайн alex_semenov

  • *****
  • Сообщений: 17 516
  • Благодарностей: 632
  • Я лгу!
    • Сообщения от alex_semenov
    • Z-механика+
Re: Насколько SETI опасно?
« Ответ #574 : 26 Мар 2009 [19:12:30] »
To alex semenov Было бы првильно исходить из следующего принципа: мы никогда не сможем понять стратегию сверхцивилизаций.
Если это так, то наши рассуждения ничего не стоят. Но сверхцивилизации не бог. Логике и законам природы они все-таки подчиняются.

Цитата
а) Теперь по сути. С какой стати сверхцивилизации вообще должны пересылать чужой ИИИ? . . .
А с какой они не должны это делать? Но даже если некоторые этого и не делают, то это означает что для сети их не существует. Как много таких будет? Если таких половина то условное соотношение 1/100 становится 1/50. Все равно не в пользу паразитов.
 
Цитата
б) пространственное распределение. сверхцивилизации существуют неизменно в неких местах космоса, как дубы в лесу - а новые наивные цивилизации возникают случайным образом между этими дубами, как поганки. . . .
Как бы много дубов ни  было, поганок все равно одна-две на весь лес. В силу того, что поганки живут 100-300 лет. "Дубы" по 3 000 000. Условно, конечно. Что бы две поганки оказались рядом и их не заслонял дуб - это редкое явление.

Цитата
в) стратегии разных сверхцивилизаций не должны совпадать - одни молчат, другие посылают свои собственные ИИИ, третии могут ретранслировать.
А почему транслирующие не посылают свой и те кто посылают не транслируют?

Цитата
г) сверхцивилизации вообще не должны заботится о "добре" для наивных цивилизаций . . .
А я и не говорю, что они заботятся. Разве это следует, например, из равновесной модели? Там каждый сам за себя.

Цитата
д) даже если сверхцивилизации озабочены добром для нас . . .
Действительно, пускай они будут к нам безразличны. Они нас защищают от ИИИ-паразитов не потому что хотят нам добра, а потому что их подавляюще больше чем нас и это не дает паразитам эволюционного превосходства. Любой ИИИ, желающий нас поиметь, прежде всего будет подозревать что мы – подстава сильного противника. 

Цитата
Ну и конечно, я готов вам уступить 50 процентов шанса, общих выводов это не менят.
Хорошо.  ;D
Но теперь, лично мне, здесь интересен не выводы из модели, а сама модель.
Ее логика и холодная красота...
 ;)
Александр Анатольевич Семёнов. Научный спекулянт, сторонник концепции сильного ИИ по А. Тьюрингу, исторический еслибист, саракшист, идейный космист, религиозный эволюционист, знаниевый фундаменталист, прорицатель мрачного будущего. Эксперт по межзвездным переселениям и ксеноциду. Сетевой графоман-оратор. Весельчак, балагур.

Оффлайн turchin

  • *****
  • Сообщений: 1 338
  • Благодарностей: 11
    • Сообщения от turchin
Re: Насколько SETI опасно?
« Ответ #575 : 26 Мар 2009 [20:23:09] »
я бы уточнил модель с дубами и поганками. на самом деле, в ней есть ещё "мухоморы" - то есть те цивилизации, которые были поражены seti атакой и превратились в ретрансляторов ИИИ. Эти рентрансляторы крайне устойчивы - существуют дестяки миллионов лет (и по сути, являются сверхцивилизациями, имеющими одну цель - распространять seti атаку). Более того, мухоморы могут быть даже более устойчивы, чем сверхцивилизации, поскольку у них нет никаких внутренних процессов и внутреннего развития, и наконец, потому что ествественный отбор оставит наиболее устойчивые формы.

Вероятность взаимодействия между двумя поганками крайне мала, так как справделиво было сказано, что они живут крайне недолго. Но нас интересует вероятность того, что поганка получит сигнал от мухомора.

Количество "мухоморов" в лесу равно = общее число "поганок", возникшее за всё время существования леса (галактики,например) x долю поганок, которая успешно подвергласт атаке ИИИ.( и эта долю зависит в свою очередбь от концентрации мухоморов)

решение этого урованения  - экспоненциальное (приблизительно)  поскольку чем больше мухоморов, тем больше упешных атак.

теперь вводим в эту модель дубы-сверхцивилизации. Тут есть ряд неизвестных. Наример, если предположить информационную прозрачность леса, то новая поганка видит сразу все мухоморы и дубы в лесу, и получает сразу много разных сигналов. В этом случае у неё появляется выбор, каким именно сигналам следовать.

Если сигнал может распространяться только на ограниченное расстояние, то поганка видит только своих ближайших и самых ярких соседей.


И все эти мухоморы создаются тем ИИИ, который вовсе не боится попасть к сверхцивилизации, потому что он рассчитаны только на поганок.

далее, допустим сверхцивилизации решают пересылать хорошие ИИИ. Но будут ли они тратить на это все свои силы? Нет. В то время как ИИИ будет тратить все доступные ресурсы на рассылку своих копий. В резульате, хотя количество сверхцивилизаций может быть больше, чем количество мухоморов, но шума от мухоморов будет больше, чем от всех остльных

пример:

В интернете есть спамеры (рассылающие трояны), наивные пользователи и отвественные пользователи. Соглсно вашей логике, отвественные пользователи должны были бы рассылать гораздо больше спама, не содержащего трояны, с тем, чтобы заглушить спамеров с троянами.

Однако большинство пользователей не играет в эту игру и ничего не рассылает.

Я понимаю вашу логику - обзщая идея в том, что должен выживать более мягкий паразит, который не убивает хозяина. Но seti атака парадоксальным образом должна продлевать среднюю жизнь "цивилизаций" . например, если большинство технологических цивилизаций уничтожает себя в нано и био войнах через 100 или 200 лет, а seti атака превращает эту цивилизацию в другую, но существующую миллионы лет, то с формальной точки зрения seti атака выглядит как прививка долголетия. другое дело, что индивидуалдьные черты при этом теряются.

однако, продолжая вашу логику, тот ИИИ, который мог бы побудить сверхцивилизации тратить значительную часть своих ресурсов на рассылку себя, и кроме того, мог бы делать тоже и по отношению к юным поганкам, получил бы преимущество.

предположим, что сверхцивилизацию нельзя обмануть. Но ИИИ может предложить ей некую сделку, которая побудит ее включиться в рассылку ИИИ.

варианты такой сделки:

а) ИИИ выдаёт себя за космический антивирус, и цель его распространения состоит в том, чтобы не дать менее сознательным ИИИ захватить значительную долю космоса. Сверхцивилизация, рассылкая такой ИИИ, получает гарантии того, что вокруг неё не окажется чужих враждебных ИИИ с неясными намерениями (например, рассылкать вокург себя стада нанороботов - зондов фон неймана)

б) ИИИ обещает возвращать на исходную сверхцивилизацию данные по исследованию космоса, которые он получит.

Но даже в этом случае сверхцивилизации, взявшиеся рассылать ИИИ, вовсе не заинтересованы в том, чтобы он был добр к наивным цивилизациям!
Структура глобальной катастрофы.
http://avturchin.narod.ru/sgk31short.doc

Оффлайн Kosmogen

  • ****
  • Сообщений: 343
  • Благодарностей: 0
    • Сообщения от Kosmogen
Re: Насколько SETI опасно?
« Ответ #576 : 26 Мар 2009 [21:02:12] »
Чем больше цивилизация развивается и входит во вселенную, тем она становится стандартнее , ибо формы и методы жизни в пространстве определяются законами природы, а не тем, с какого бока встали решатели.
Совершенно верно, по другому и не может быть. Для долговременного выживания в космосе необходима очень распределенная база данных и знаний. Требуется галактическая сеть коммуникаций на спутанных фотонах. Это позволит практически мгновенно передавать сообщения и осуществлять квантовую телепортацию разума в точки построенных телепортостанций.   

Оффлайн flying spagetti monster

  • *****
  • Сообщений: 982
  • Благодарностей: 0
  • YoHoHo
    • Сообщения от flying spagetti monster
Re: Насколько SETI опасно?
« Ответ #577 : 26 Мар 2009 [22:08:01] »
незачем это, ерунду вы говорите
любая "жизнь" начавшая распространяться за пределы своей звезды неизбежно подвергается фрагментации на независимые колонии

Оффлайн Kosmogen

  • ****
  • Сообщений: 343
  • Благодарностей: 0
    • Сообщения от Kosmogen
Re: Насколько SETI опасно?
« Ответ #578 : 26 Мар 2009 [22:29:21] »
б) ИИИ обещает возвращать на исходную сверхцивилизацию данные по исследованию космоса, которые он получит.
У вас ИИИ - статичная программа для ЭВМ? Или она всё же может эволюционировать в плане увеличения быстродействия, эффективности решений и улучшения качества взаимодействия с внешним миром?  Если она автономна, то она вовсе не обязана возвращать на исходную цивилизацию что-либо.   

Но даже в этом случае сверхцивилизации, взявшиеся рассылать ИИИ, вовсе не заинтересованы в том, чтобы он был добр к наивным цивилизациям!
Рассылку объективных знаний о себе и мироздании вы тоже посчитаете недружественным актом по отношению к примитивным цивилизациям?  И обоснуйте хоть как то ваше  утверждение о полной незаинтересованности сверхцивилизаций (способных, кстати,  легко добывать и использовать гигантские энергетические ресурсы космоса) сеять разумное, доброе, вечное среди иных разумных существ, диких и примитивных. 
« Последнее редактирование: 26 Мар 2009 [22:31:05] от Kosmogen »

Оффлайн turchin

  • *****
  • Сообщений: 1 338
  • Благодарностей: 11
    • Сообщения от turchin
Re: Насколько SETI опасно?
« Ответ #579 : 26 Мар 2009 [22:39:37] »
Нет, ИИИ не статичная программа. она способна в значительной мере адаптироваться, сохраняя свои базовые цели неизменными. Если в неё заложат задачу возвращать данные, она будет это делать.

Можно представить себе ситуацию, когда рассылка объективных знаний является недружественным актом. например, рассылка секрета супербомбы, которая может взорвать всю планету. Более земной пример: некоторое время назад из вечной мерзлоты выкопали вирус гриппа испанки, расшифровали и выложили в интернет. Трудно назвать это дружественным актом (хотя это был не злой умысел, а идиотизм).

Я не утверждаю полную незаинтересованность сверхцивилизаций сеять разумное доброе и тд.

наоборот, я хочу сказать, что они хотят засеять нас своим разумом:) Насильственно оплодотворить, так сказать.

Я хочу сказать, что:

а) не все сверхцивилизации будут сеять раузмное и доброе, а некоторые наоборот.
б) засчёт наблюдательной селекции злые послания будут обнаруживаться нами чаще, так как в их рассылку будет вложено больше ресурсов и они будут эффектвнее самореплицироваться
в) чужая доброта не будет иметь ничего общего с человеческой современной моралью и нашими ценностями. Принятие чужой доброты будет равносильно уничтожению человечества.
Структура глобальной катастрофы.
http://avturchin.narod.ru/sgk31short.doc