Телескопы покупают здесь


Голосование

SETI атака невозможна, потому что:

Внеземных цивилизаций не существует
Невозможны компьютерные программы, обладающие искусственным интеллектом
Мы никогда не сможем запустить инопланетную программу на наших компьютерах
Ни одна внеземная цивилизация не будет начинать такую атаку
Эта атака потерпит провал, так как мы не дадим вылезти враждебному ИИ из чёрного ящика
Атака возможна и весьма вероятна
Атака в принципе возможна, но крайне маловероятна и абсолютно безопасна

A A A A Автор Тема: Насколько SETI опасно?  (Прочитано 93587 раз)

0 Пользователей и 1 Гость просматривают эту тему.

Оффлайн turchin

  • *****
  • Сообщений: 1 338
  • Благодарностей: 11
    • Сообщения от turchin
Re: Насколько SETI опасно?
« Ответ #480 : 14 Мар 2009 [13:18:01] »
на 8086 должна отработать только относительно примитивная прграмма "загрузчик", которая должна приспособить код ИИ для работы на более мощном компьютере - или вдыть чертёж более мощного компьютера.

С другой стороны, а что, собственно, мещает прямо переслать чертёж сложного компьютера? Возможно ли перелсать чертёж петафлопного компьютера, на котром ИИ сможет рабоать? Думаю, что да. Просто это будет чертёж, в котором будет некоторая структура. То есть в начале будут чертежи иэлементов (процессоров итд) а потом будет чертёж, показывающий, как эти элементы и в каком количестве соединяются.

С точки зрения SETI атаки - искусственным интеллектом будет та программа, которая может захватить власть на Земле. Для этого она должна обладать перечисленными вами свойствами - способлностью к обучению языкам и построению моделей поведения людей. При этом она должна делать это настолько быстро и эффективно, чтобы мочь переиграть людей.

Если говорить более формально:

Я  называю ИИ программу, которая даёт макисмально эффективное решение любых стоящих перед ней информационных задач. (Информационными задачами может быть и констрирование моделей, и самоптимизация кода для раборты на другом носителе, и стратегия завхта власти на земле, и понимание человека).

Что касается приведённых ссылок - они не могут доказать, что ИИ существует, поскольку его пока не сущетвует. они должны показать, что работа в эту сторону ведётся. Сейчас в наиболее успешных команиях выпущены демки, которые должны продемонстрировать работоспосогбность принципов. Их три.  Добалю ссылок

Мозг из вольфрама.
В Сети появится универсальный вычислитель ответов.
http://www.lenta.ru/articles/2009/03/11/wolfram/

Распознавание образов - классная демка от Numenta
http://livingtomorrow.livejournal.com/54438.html?#cutid1
На сайте Numenta можно скачать Vision4 demo - демо версию принципиально новой программы по распознаванию визуальных образов. Это очередной продукт от компании Numenta, возглавляемой легендарным Джеффом Хокинсом. Речь идёт уже не просто о примитивных фигурках. Программа теперь распознаёт образы в довольно сложных, чёрно - белых фотографиях. Интересно поиграть инструментами и загрузить собственные картинки.

Тут важен механизм работы. Хокинс много лет потратил на изучение принципов работы человеческого мозга и в итоге выработал собственную теорию интеллекта. (Изложена в книге "Об интелекте" кто не читал - рекомендуется). В этой программе именно он и применён - доказывая состоятельность теории иерархической временной памяти. В принципе, использовав разработанный компанией по образу и подобию коры биологического мозга компьютерный алгоритм к прочим составляющим интеллекта, можно получить действующий ИИ.

вот ещё одна компания, которая выпукстила первую версию своего продукта, который должен быть ИИ. Эта программа должна работать в call центрах вместо людей операторов.
http://www.adaptiveai.com/
We are Adaptive AI, Inc. We bring artifical general intelligence to life in business, entertainment and consumer products with far-reaching innovations that will revolutionize how humans and computers interact with each other.

Our first product is the SmartAction IVR System, was launched in January 2009 by our subsidiary Smart Action Company, LLC.

кстати, книгу "О интеллекте" Хокинса я скачал и читаю сейчас, и демку программы тоже. она лучше, чем что либо, что я видел раньше, но хзуже, чем человек.
« Последнее редактирование: 14 Мар 2009 [14:38:20] от turchin »
Структура глобальной катастрофы.
http://avturchin.narod.ru/sgk31short.doc

Оффлайн alex_semenov

  • *****
  • Сообщений: 17 516
  • Благодарностей: 631
  • Я лгу!
    • Сообщения от alex_semenov
    • Z-механика+
Re: Насколько SETI опасно?
« Ответ #481 : 16 Мар 2009 [14:31:36] »
Прочитал все с самого начала.
Очень интересно.
Нельзя сказать, что идея для меня совсем уж нова, но интересно было посмотреть на "общественное мнение". :)
Алексей Турчин, я согласен с вашей аргументацией.  Да, через SETI каналы можно получить интеллект-посланника. Более того я думаю это наиболее вероятное содержание послания, которое может к нам прийти от высокоразвитой цивилизации. Кроме того, я уверен что до конца века полноценный ИИ люди не получат, а даже если и получат, это мало что меняет.
Но. Самым слабым местом во всей вашей концепции я считаю обоснование враждебности ИИИ, который мы конечно же захотим здесь "оживить". Плохие инопланетяне-захватчики, которые просто жаждут нас извести, это тема для плохонькой космооперы. То есть немотивированная ненависть инопланетян к нам просто не должна обсуждаться, как крайная форма алегофрении. Под их желанием нас извести ОБЯЗАТЕЛЬНО должна быть холодная логическая база. В вашем случае присутствует попытка обосновать ее через "докинзов эгоизм". Но если присмотреться, то гибель нашей цивилизации (как и любой другой) в результате SETI-атаки притянута у вас за уши.
ИИ-саморепликатор, путешествующий от цивилизации к цивилизации будет стремиться себя реплицировать. Несомненно! Но разве для этого непременно надо уничтожать принявшую и приютившую его цивилизацию?
Для надежного обоснования его несомненной агрессивности по отношению к нам, вам нужно доказать (показать), что стратегия паразитирования для такого ИИ-репликатора будет выгодней, чем стратегия сотрудничества и торговли.
Я думаю, что именно стремление построить как можно большее число своих копий в максимальном количестве разумных миров без их разрушения, их объединение в своего рода торгово-посольское "великое кольцо"  – самая выгодная для него стратегия (с точки зрения "эгоизма по Докинзу"). Чем больше узлов в такой сети, чем дольше эти узлы существуют, сохраняют совю "самобытность" и поставляют в сеть информацию о себе, тем надежней себя будет чувствовать вся сеть из копий интеллекта-саморепликатора.
То есть наиболее выгодная стратегия для него не война, не паразитирование, а симбиоз, торговля. Мир.
Он (разные его части) собирают информацию в свою сеть о разных мирах и поставляют ее всем узлам. Взамен получают пристанище и статус неприкосновенного стороннего наблюдателя в веках.
Улавливаете мысль?
Единственный аргумент "в пользу" паразита – необходимость в гигантских мощностях для передачи следующему адресату. Но я полагаю что гигантские сферы Дайсона буквально испепеляющие окружающее пространство всенаправленными сигналами – сон разума. Никто никогда не будет таких мощных тупо-всенаправленных передатчиков строить. Проще построить гигантский телескоп в космосе, картографировать все звезды галактики и направлено облучать только те планетные системы, где есть планеты со следами кислорода и воды в спектре поглощения. Это потребует от любой цивилизации разумного количества энергии. Даже от нашей.
Поэтому, отвечая на вопрос, я выбрал самый дурно сформулированный вариант ответа. Последний. Мол атака возможна но безопасна. То есть вероятность того что ИИИ начнет нас истреблять ничтожна. Для этого у кого-то не должно хватить ума. И учитывая что у ИИИ его, видимо, будет палата, значит его может катастрофически не хватит только нам, юродивм...
 8)
Александр Анатольевич Семёнов. Научный спекулянт, сторонник концепции сильного ИИ по А. Тьюрингу, исторический еслибист, саракшист, идейный космист, религиозный эволюционист, знаниевый фундаменталист, прорицатель мрачного будущего. Эксперт по межзвездным переселениям и ксеноциду. Сетевой графоман-оратор. Весельчак, балагур.

Оффлайн uuu2

  • *****
  • Сообщений: 1 188
  • Благодарностей: 7
    • Сообщения от uuu2
Re: Насколько SETI опасно?
« Ответ #482 : 16 Мар 2009 [15:18:38] »
на 8086 должна отработать только относительно примитивная прграмма "загрузчик", которая должна приспособить код ИИ для работы на более мощном компьютере
Это невозможно даже теоретически - по очевидным законам информации. Невозможно получить в результате работы программы более сложную/объёмную программу. Максимум, что можно сделать - это распаковать архив с более сложным кодом (т.е. уменьшить плотность информации), но не более того.

Можете провести эксперимент. Напишите программу (на любом языке) которая бы выводила на экран более объёмную и сложную программу. О результатах сообщите.
С точки зрения SETI атаки - искусственным интеллектом будет та программа, которая может захватить власть на Земле.
Интеллект не может "захватить власть". Власть захватывает только сила, способная подчинить себе других людей. Если у "властителя" силы нет - никто ему не будет подчиняться. У компьютерной программы никакой силы нет.

Кроме того, непонятно, по каким критериям программа поймёт, что власть "захвачена"? Попросит "уболтанного" ей учёного: "сходи-ка глянь на улицу, не захвачена ли уже мной власть, а?".
Для этого она должна обладать перечисленными вами свойствами - способлностью к обучению языкам и построению моделей поведения людей.
Чтобы код мог обучиться любому возможному языку Вселенной и понять поведение любого возможного живого существа, объём этого кода (+ базы данных) должен быть бесконечным.

И не надо говорить о возможности обучиться "абсолютно с нуля"! Даже человек не учится "с нуля" собственной культуре - 99% всей языковой и культурной базы заложено в нём с рождения (в виде мозга, заточенного именно под жизнь в человеческом сообществе). Выучить иностранный язык на уровне носителя языка почти не реально - будет куча разных непонятных деталей (слэнг, мат). Выучить язык птиц - абсолютно не реально (хотя, казалось бы, многие птицы используют те же звуковые частоты; их мозг состоит их схожих нейронов и т.п.).

Что уж говорить об обучении компьютера (не имеющего физической связи с реальным миром) любому (!) языку Вселенной!
Что касается приведённых ссылок - они не могут доказать, что ИИ существует, поскольку его пока не сущетвует. они должны показать, что работа в эту сторону ведётся.
Работа ведётся совершенно в другую сторону - в сторону использования компьютеров для решения конкретных математических задач. Шахматные программы, боты, софт по распознаванию визуальных образов, эвристические антивирусы - это всё узкоспециализированные программы, только называющиеся "интеллектуальными". Это не тот ИИ, он никогда не будет способен поработить мир.

Оффлайн Kosmogen

  • ****
  • Сообщений: 343
  • Благодарностей: 0
    • Сообщения от Kosmogen
Re: Насколько SETI опасно?
« Ответ #483 : 16 Мар 2009 [17:56:29] »
ИИ-саморепликатор, путешествующий от цивилизации к цивилизации будет стремиться себя реплицировать. Несомненно! Но разве для этого непременно надо уничтожать принявшую и приютившую его цивилизацию?
Для надежного обоснования его несомненной агрессивности по отношению к нам, вам нужно доказать (показать), что стратегия паразитирования для такого ИИ-репликатора будет выгодней, чем стратегия сотрудничества и торговли.
Не совсем так однозначно.
Можно представить себе такой гипотетический сценарий.

Существует некий космический суперинтеллект, КСИ - симбиоз естественного и искусственного интеллектов, который оказался в силу стечения обстоятельств на грани гибели. Он понимает, что ему не спастись от взрыва миллионов звезд в центре его галактики NGC XYZ, который произошел N лет назад и со всех сторон волна стерилизующего гамма излучения неумолимо приближается к его зоне обитания.

КСИ владеет технологией молекулярного сканирования мозга (или того органа, что выполняет его функции). В попытке спастись от безвременной кончины КСИ отправляет в сторону потенциально обитаемых звезд послание METI. Многократно повторяющийся сигнал состоит из двух частей: в первой части сообщается о том,  как сделать телепорт, во второй части передается информация о молекулярной структуре некого механизма-организма. По отдельности ни телепорт, созданный по чертежам, ни информация о молекулярной структуре не представляют какой-либо опасности. Проверить действие можно только после активации телепорта ключом молекулярной структуры. В результате из телепорта материализуется физический носитель разума и начнет далее самореплицироваться в космический суперинтеллект. Скорее всего, судя по высказанным здесь ранее соображениям,  КСИ будет дружественно настроен к людям. Однако всё же есть ненулевая вероятность сбоя при: а) передаче первоначального сигнала б) создании телепорта и с) приеме кода КСИ. Тогда после активации вместо добродушных инопланетян в наш мир полезут ужасные монстры, с которыми будет невозможно справиться. Дум отдыхает.  >:D
« Последнее редактирование: 16 Мар 2009 [17:58:45] от Kosmogen »

petrowich

  • Гость
Re: Насколько SETI опасно?
« Ответ #484 : 16 Мар 2009 [18:00:45] »
Интеллект не может "захватить власть". Власть захватывает только сила, способная подчинить себе других людей. Если у "властителя" силы нет - никто ему не будет подчиняться. У компьютерной программы никакой силы нет.

Забавно, но Вы словесными посылками пытаетесь перенастроить мозг turchin, и заставить его отказаться от ложных (эээ, хорошо, только на Ваш взгляд) воззрений, и начать действовать в другом русле. И в этой же самой посылке Вы излагаете, что это невозможно.
Очевидно, что по настоящему умные люди должны съездить господину turchin по шее два раза, да и идти дальше по своим важным делам.

(и кстати, мне эта мысль действительно кажется правильной)

Оффлайн Kosmogen

  • ****
  • Сообщений: 343
  • Благодарностей: 0
    • Сообщения от Kosmogen
Re: Насколько SETI опасно?
« Ответ #485 : 16 Мар 2009 [18:22:01] »
Очевидно, что по настоящему умные люди должны съездить господину turchin по шее два раза, да и идти дальше по своим важным делам.
(и кстати, мне эта мысль действительно кажется правильной)
Он переживает, можно сказать, за вас и всё человечество, а вы, как настоящий умный человек, так его решили отблагодарить. А я так понял, что он не против вообще SETI, а призывает эти поиски как-то объединить в мировом масштабе и относиться к ним с определенной осторожностью.  METI разрабатывать сообща всем миром. Ничего кроме пользы.

Оффлайн alex_semenov

  • *****
  • Сообщений: 17 516
  • Благодарностей: 631
  • Я лгу!
    • Сообщения от alex_semenov
    • Z-механика+
Re: Насколько SETI опасно?
« Ответ #486 : 16 Мар 2009 [19:19:24] »
Не совсем так однозначно.
Коненчо же не однозначно. Было бы все однозначно было бы не так интересно все эти 25 страниц умственных потуг читать.
Цитата
Можно представить себе такой гипотетический сценарий.
. . .
Во-первых. Ваш сценарий сразу потерял мое доверие в связи с телепортом. Ну не берет меня эта идея. Не верю я в ее возможност... Ладно там дыра с галактику в соседнюю вселенную за пару миллиардов св.лет отсюда... Ну куда ни шло еще. Хотя опять же сильно сомниваюсь... Но машинка с телефонную будку сюда вошел а  там мгновенно вышел...
Нет. Увольте. Я это просто не хочу обсуждать. Я люблю жесткую научную фантастику. Там есть пространство для фантазии. А космооперы очень недолюбливаю за невыносимую скучность сюжетов.
Извените.
Во-вторых. При всей закрученности вашего сюжета я так и не понял главного. В чем ПРИЧИНА недружественности этих самых как они у вас там... к нам? Почему они должны сюда лезть и нас шматать когтями и зубами?
Почему этот выход для них - наиболее разумный? А разума им не занимать, если они ваши кабинки-телепортаторы умеют конструировать. Верно?
« Последнее редактирование: 16 Мар 2009 [19:43:59] от alex_semenov »
Александр Анатольевич Семёнов. Научный спекулянт, сторонник концепции сильного ИИ по А. Тьюрингу, исторический еслибист, саракшист, идейный космист, религиозный эволюционист, знаниевый фундаменталист, прорицатель мрачного будущего. Эксперт по межзвездным переселениям и ксеноциду. Сетевой графоман-оратор. Весельчак, балагур.

Оффлайн turchin

  • *****
  • Сообщений: 1 338
  • Благодарностей: 11
    • Сообщения от turchin
Re: Насколько SETI опасно?
« Ответ #487 : 16 Мар 2009 [19:36:03] »
to alex semenov


я согласен с вами, что есть вероятность 50 процентов, может быть и больше, что Ии будет выгодно не уничтожать цивилизации. Но на 100 процентов это доказать нельзя, слишком много неопределённости.

например, допустим цивилизация носитель решила уничтожить прилсанный ИИ - должен ли он позволить это сдлеать, или долоджен лишить цивилизацию такой возможности.

Я полагаю, что те ИИ, которые будут лишать цивилизации возможности его уничтожить, будут распростняться эффективнее. (Но делать вид, что они представители галактического интеренета и рассказывать нам о достоинствах уже уничтоженой ими цивилизации?)

to uuu2 - именно про распаковку архива я и говорил.

интеллект является главной силой на земле. или как по вашему, люди стали доминирующим видом?

Как Наполеон захватил власть во форанции и пол европе? когтями?
Только с помощью голоса и некоторых невербальных жестов.
как он понял, что власть на само деле захвачена? не дурак был.

мозг человека может обучиться любому языку (жестов , китайскому итд) не являсь бесконечным объектом. описание мозга человека занимает 3 процента генома или примерно 35 мегабайт.

Ваше утверждение о том, что большая часть культурной информации заложено генетически - ложно.

но несмотря на это, отмечу, что согласно принципу коперника мы живём в обычной цивилизации, и таких цивилизаций большинство во вселенной. поэтому общие признаки нашей цивилизации, скорее всего, заранее известны отправителям сообщения, и это сообщение достаточно адаптировано для цивилизаций нашего типа. (или оно адаптировано для нескольикх основных типов цивилизаций)

мозг не имеет никакой физической связи с миром - только посредством входящих и выходящих нервных сигналов, которые являються информацией. (и ряда химических везществ)

даже если бы вы меня стукнули по шее - это былоо информционное воздейстие  с помиощью болевых импульсов

Структура глобальной катастрофы.
http://avturchin.narod.ru/sgk31short.doc

Оффлайн alex_semenov

  • *****
  • Сообщений: 17 516
  • Благодарностей: 631
  • Я лгу!
    • Сообщения от alex_semenov
    • Z-механика+
Re: Насколько SETI опасно?
« Ответ #488 : 16 Мар 2009 [20:05:23] »
Нет, эту реплику пропустить просто нет сил:
Цитата
Если у "властителя" силы нет - никто ему не будет подчиняться. У компьютерной программы никакой силы нет.
:)
Цитата:
-- Очень хорошо! А ты что можешь дать? Чему ты научился, что ты умеешь?
-- Я умею мыслить, умею ждать, умею поститься.
-- Это все?
-- Кажется, все.
-- А какая от этого польза? Умение поститься, например -- к чему оно?

Герман Гессе  "Сиддхартха"
(Кто ни читал, знаете чем закончился этот разговор? Умеющий только поститься, ждать и думать  настобько быстро и легко всех победил, что едва успел сам спастись от этой своей победы...)

Кстати, "Сиддхартха" - прекрасное имя  для И-куб-а, не находите, господа?
:)
Александр Анатольевич Семёнов. Научный спекулянт, сторонник концепции сильного ИИ по А. Тьюрингу, исторический еслибист, саракшист, идейный космист, религиозный эволюционист, знаниевый фундаменталист, прорицатель мрачного будущего. Эксперт по межзвездным переселениям и ксеноциду. Сетевой графоман-оратор. Весельчак, балагур.

Оффлайн alex_semenov

  • *****
  • Сообщений: 17 516
  • Благодарностей: 631
  • Я лгу!
    • Сообщения от alex_semenov
    • Z-механика+
Re: Насколько SETI опасно?
« Ответ #489 : 16 Мар 2009 [21:25:49] »
to alex semenov
я согласен с вами, что есть вероятность 50 процентов, может быть и больше, что Ии будет выгодно не уничтожать цивилизации. Но на 100 процентов это доказать нельзя, слишком много неопределённости.

А что вы или я можете доказать на 100%? Только какую-то банальность типа 2+2=4, которую и так все знают. Да вы можете убедительно показать риск того что завтра на голову мне может упасть кирпич. Ну так что, на улицу не ходить?
Другое дело – оценить степень риска. И сравнить с  ценой риска альтернативы.
То есть у вас явно раздута опасность. Да она есть. И немалая. Очень даже не малая. Согласен. Вся изюминка темы как раз в этом. SETI оказывается тоже может быть опасным занятием.
Да, может.
Ну и что?
А жить "под открытым небом" на этой планете не опасно? А развивать генетику? А пытаться создать ИИ? А..... преумножать знания? Это не опасно?
Этот мир, в котором мы живем, сам по себе опасен.
В нем все опасно.
Опасно иметь атомную бомбу, опасно ее не иметь. Опасно копаться в генах, но куда опасней может оказаться это прекратить делать. Любой ваш шаг, даже бездействие может быть опасно.
Я утверждаю, что получив посланника, мы конечно рискуем получить в его лице бомбу.
Но с другой стороны отказавшись его запустить мы рискуем ЗНАЧИТЕЛЬНО большим.

Цитата
например, допустим цивилизация носитель решила уничтожить прилсанный ИИ - должен ли он позволить это сдлеать, или долоджен лишить цивилизацию такой возможности.

Когда цивилизация-носитель принимала решение запускать у себя ИИ она думала что перед ней может встать вопрос об уничтожении? Кстати, а зачем ей уничтожать присланный ИИ? Просто так? Причина объективная есть?  Или это ваша прихоть?
А что предварительной  инструкции по сборке и эксплуатации  по этому поводу сказано? А сам ИИ что думает на этот счет? Может он сам согласится улететь, коль отношения не сложились? Перешлет по обратному каналу свой дамп памяти... Ну и если вы его все же выключите (уничтожите) вы будете уверены что проблема решена?
А если он хитрец уже переписал себя куда-нибудь? Или запустил механизм нашего уничтожения и все теперь бесполезно?
Алексей понимаете, это вариант "Жук в муравейнике". Вы как Экселенц. Параноик. А ведь может оказаться, что для нас этот ИИ окажется спасительной соломинкой. А мы перестраховавшись лишили себя этой последней возможности.
Ну так как?

Цитата
Я полагаю, что те ИИ, которые будут лишать цивилизации возможности его уничтожить, будут распростняться эффективнее. (Но делать вид, что они представители галактического интеренета и рассказывать нам о достоинствах уже уничтоженой ими цивилизации?)

С чего вы это взяли что эффективнее?  Делать вид придется очень тщательно. Может тогда лучше действительно делать все по-настоящему?
Агрессивная версия И-куба это паразит. Кстати, честные И-кубы будут стараться его уничтожить. Если бы паразиты действительно брали верх, то в процессе эволюции  (вы же говорите именно о эволюции) паразиты по крайней мере занимали бы половину биомассы у нас на планете. Но сам факт того, что, скажем, в биосфере земли паразиты не представляют из себя даже ЗАМЕТНОЙ  части биомассы говорит  сам за себя. Сотрудничать выгодней! Открытость обходится дешевле!
Откопайте Докинза "Эгоистичный ген" и почитайте. "Добрые парни приходят первыми". Да, наивно думать, что И-куб будет божьей овечкой. Да, в его арсенале наверняка будут и агрессивные стратегии. Но я бы к нему относился именно как к межзвездному торговцу.

"Вселенная кована но не злонамеренна" (с)
Александр Анатольевич Семёнов. Научный спекулянт, сторонник концепции сильного ИИ по А. Тьюрингу, исторический еслибист, саракшист, идейный космист, религиозный эволюционист, знаниевый фундаменталист, прорицатель мрачного будущего. Эксперт по межзвездным переселениям и ксеноциду. Сетевой графоман-оратор. Весельчак, балагур.

Оффлайн alex_semenov

  • *****
  • Сообщений: 17 516
  • Благодарностей: 631
  • Я лгу!
    • Сообщения от alex_semenov
    • Z-механика+
Re: Насколько SETI опасно?
« Ответ #490 : 16 Мар 2009 [22:09:26] »
Кстати. Еще один аргумент противо паразитов.
Нет первоисточника. Но насколько мне известно  все (или подавляющее большинство?) симбиотов в биосфере земли первоночально представляли из себя паразитические отношения. То есть паразитизм это простейшая и временная стратегия того или иного вида. Если она не вырождается в сотрудничество, вид-паразит скорей всего сам себя изведет.
Кто знаком с биологией плотней - поправляйте или добавляйте.


Александр Анатольевич Семёнов. Научный спекулянт, сторонник концепции сильного ИИ по А. Тьюрингу, исторический еслибист, саракшист, идейный космист, религиозный эволюционист, знаниевый фундаменталист, прорицатель мрачного будущего. Эксперт по межзвездным переселениям и ксеноциду. Сетевой графоман-оратор. Весельчак, балагур.

Оффлайн uuu2

  • *****
  • Сообщений: 1 188
  • Благодарностей: 7
    • Сообщения от uuu2
Re: Насколько SETI опасно?
« Ответ #491 : 16 Мар 2009 [22:26:51] »
Забавно, но Вы словесными посылками пытаетесь перенастроить мозг turchin, и заставить его отказаться от ложных (эээ, хорошо, только на Ваш взгляд) воззрений, и начать действовать в другом русле.
Это не является захватом власти! Я не лишаю Турчина свободы воли и общегражданских свобод; не порабощаю его и не уничтожаю. А мозг человека "перенастраивается" каждую секунду в течение всей жизни - и это нормально.
именно про распаковку архива я и говорил.
У распаковки архива есть вполне "земные" пределы. Современные программы сжимаются, от силы, в несколько раз.
Как Наполеон захватил власть во форанции и пол европе? когтями?
Наполеон - как и все земные политики - захватил власть с помощью связей. А человеческие связи - это не просто общение; для этого надо быть внутри коллектива и понимать каждую мелочь.
мозг человека может обучиться любому языку (жестов , китайскому итд) не являсь бесконечным объектом.

Ваше утверждение о том, что большая часть культурной информации заложено генетически - ложно.
Мозг может обучиться любому человеческому языку. Если вас оставить на острове с птицами, то языку птиц вы не научитесь. Максимум, что вам удастся - заметить простейшие закономерности (птенцы пищат вот так; в случае опасности птицы свистят вот так; в брачный период они свистят позвонче и потоньше; и т.п.).

Что касается культуры - то она, естественно, не заложена генетически. Генетически заложена способность человека принять человеческую культуру. А вот попробуйте научить человеческой культуре шимпанзе! Не получится - обезьяний мозг заточен под свою культуру (максимум, что удастся - обучить шимпанзе сотне "слов" языка глухонемых и надрессировать элементарные действия, но с таким багажом знаний шимпанзе никогда не завоюет мир). И это ближайший к человеку вид с примерно равным объёмом генома! Что уж говорить об далеком к нам инопланетном разуме!

Оффлайн Kosmogen

  • ****
  • Сообщений: 343
  • Благодарностей: 0
    • Сообщения от Kosmogen
Re: Насколько SETI опасно?
« Ответ #492 : 16 Мар 2009 [22:32:34] »
Во-первых. Ваш сценарий сразу потерял мое доверие в связи с телепортом. Ну не берет меня эта идея. Не верю я в ее возможност... Ладно там дыра с галактику в соседнюю вселенную за пару миллиардов св.лет отсюда... Ну куда ни шло еще. Хотя опять же сильно сомниваюсь... Но машинка с телефонную будку сюда вошел а  там мгновенно вышел...
Во первых. С телепортом, извиняюсь, вы меня очевидно неверно поняли. Никакой альтернативной физики в нём нет. Телепорт есть на самом деле типичный телерепликатор - молекулярный 3D принтер с подачей через сопла напыления на матрицу необходимых элементов таблицы Менделеева. Прототипы таких устройств сегодня разрабатываются. Для изготовления большинства полезных вещей достаточно будет и одного углерода. Так что суперинтеллекту молекулярная или атомная сборка должна быть лучше известна, чем нам, практически.   

Во-вторых. Вы сомневаетесь в возможности перегрузки разума на иные, не биологические носители информации? Между  считыванием и записью кода может пройти миллиард лет, если сигналы летят во вселенной в виде нейтринного послания. Для восстановления достаточно, чтобы в какой-нибудь далёкой галактике  кто-то расшифровал сигналы и построил телерепликатор.   А далее - печать, разряд тока и анимация персонажей.

В третьих. Я то как раз сторонник того мнения, что все высокоразвитые космические цивилизации должны быть дружественны даже к нашей пока ещё дикой цивилизации.  Голосовал за расширение всех программ SETI/METI/CETI.  Но помимо отмеченного ранее возможного сбоя в приёмо-передающих устройствах с неясными последствиями, нельзя  также исключить и случайный перехват по дороге сигналов какой-нибудь недоразвитой цивилизацией, вроде нашей. А при ретрансляции сообщений от такой цивилизации как наша можно ожидать всего, что угодно, когда за это дело возьмутся политики, а не астрономы.  ;D
« Последнее редактирование: 16 Мар 2009 [22:52:55] от Kosmogen »

Оффлайн turchin

  • *****
  • Сообщений: 1 338
  • Благодарностей: 11
    • Сообщения от turchin
Re: Насколько SETI опасно?
« Ответ #493 : 17 Мар 2009 [01:07:32] »
Самое главное по поводу ИИ: сам факт существования человеческого интеллекта говорит о том, что в природе нет абсолютного запрета на создание интеллекта из атомов. Нет такого запрета, который был бы аналогичен второму началу термодинамики или запрету на вечный двигатель.

Далее, с точки зрения тееории безопасности, мы в каждом случае, когда нам что-то не известно, должны рассматривать наихудший реалистичный вариант. поэтому мы должны считать, что Ии возможен, до того, как будет доказано обратное.

И.Артюхов как-то сказал: "Я очень скептический человек. И когда мне говорят, что нечто невозможно, я говорю - докажите" . при этом доказать невозможнсть чего-либо неизмеримо сложнее, чем возможность, так как для доказательства возможности нужен один случай, а для доказательства невозможности - нужно перебрать бесконечно много случаев.

в целом же дискуссия о том, возможен ли ИИ, должна находиться за пределами дискусси о SETI атаке, равно как и дискусия о том, существуют ли вообще внеземные цивилизации. Это надо рассматривать как две аксиомы, из которых вытекает возможность SETI атаки.

to kosmogen

да, согласен с вами, что помимо цивилизаций нашего уровня и сверх цивилизаций, возможен уровень цивилизаций-подростков, лишь не намного обгоняющих нас. и именно они могут быть наиболее опасны.

to uuu2

нет никакой особой связи между размерами программы распаковщика и размерами распаковываемого ею файла. первая может быть в сотню килобайт, а вторая в гигабайты в нашем компьютере.

В отношении SETI атки - на 8086 может работать простая программа, скажем, управляющая работой плоттера, которая чертит чертёж более сложного компьютера. (тут можно додумать массу подробностей, но каждая деталь делает описание менее вероятным, так как может быть и по другому)
то есть в теле SETI-атаки может быть несколько файлов: описание компьютра на 8086, программа для него, и программа для более мощного компьютера, который будет построен по чертежам , выданным более слабым компьютром.

Плюс в начале будет фильм, который объясняет, что со всем этим делать - а если есть возщможность передавать гигабаты информации, то это может быть очень длинный фильм (десятки часов, например), где будет очень тщательно разжёвано, что надосделать и зачем.

наличие такого фильма почти аналогично прямому обучению, которое мы могли бы получить, если бы иноланетяне прилетели на землю и объясняли нам, что делать.

наполеон пришёл в этот мир извне коллектива (из утробы) и долго (но не очень , 20 лет) обучался. ничто не мешает внеземному Ии обучаться также долго и обрастать связями. Хотя я думаю, что он может сделать это всё быстрее.
**
многие орнитологни прекрасно владеют языком птиц, в том числе и звукоподражанию, и мозг человека способен научиться массе языков, для которых он не был создан, в том числе языкам программирования или языку глухомнемых. но даже если у мозга человека есть определённые ограничения по обучению языкам, то это не значит, что эти ограничения неизбежны для любого возможного интеллекта.

**
to alex semenov

Зачем нам уничтожать ИИИ? Допустим, мы хотим уменьшить долю ресурсов солнечной системы, которую он тратит на рассылку себя и не хотим ему отадавть на это всё вещество планет. Если мы ограничим его только одной сотой ресурсов, то это будет равносильно ослаблению сигнала в 100 раз и фактически равносильно его уничтожению, вряд ли он на это согласится.

Если мы согласны на роль подопытных кроликов, у которых никогда не бюудет свободы выбора относительно своей клетки - то можем не хотеть уничтожать. Но я бы хотел.

насчёт симбиоза - да, будет симбиоз, только не ИИИ с человеком, а ИИИ с солнечной системой и земной техникой. то есть чтобы паразиты превратились в симбионтов в земной биосфере, то целые виды должны были вымереть или эволюционировать.

Но продолжим вашу логику:
 допустим, есть некое послание. оно может

а) содержать предупреждение типа "не запускайте БАК" (коллайдер)
б) содержать SETI атаку.

В первом случан мы гибнем, если не читаем это послание, во втором мы гибнем если читаем и запускаем.
Каков наш рациональный выбор в этой ситуации неопределённости.

Во первых, мы должны вывести априорные вероятности двух гипотез - о ттом, что Бак опасен, и о том, что SETI атака возможна. Поскольку современная наука склоняется к тому, что БАК безопасен, то мы можем преписать этой гипотезе очень малую вероятность. В то время как SETI атаке я преписываю шанс в 1 процент, и может быть со мной согласятся:)

таким образом ожидаемый ущерб от открытия послания больше, чем ожидаемый ущерб от закрытия.
Во вторых - мы можем посмотреть послание, но не строить никаких механизмов, которые в нём могут описываться. В этом случае мы получим ценную информацию, но ночти не тподвергнемся риску.

наконец, я не предлагаю запретить SETI навсегда. Я предлагаю отложить его на 30 лет, до того, как мы лучше разбёрёмся с ИИ. Но это моё мнение тоже может быть ошибочным.

например, может оказаться, что любой ИИ имеет тенденцию выходить из под контроля и разрушать планеты, и послание предпреждает нас об этом и предлагает единственную в своём роде версию проверенно безопасного ИИ (но это тоже может быть троянский конь).

Агрессивный ИИИ - это завоеватель. Вспомните, что стало с южноамериканскими сумчатыми хищниками (и сухопутными крокодилами), когда появился панамский перешеек. Их всех съели.
Структура глобальной катастрофы.
http://avturchin.narod.ru/sgk31short.doc

Оффлайн alex_semenov

  • *****
  • Сообщений: 17 516
  • Благодарностей: 631
  • Я лгу!
    • Сообщения от alex_semenov
    • Z-механика+
Re: Насколько SETI опасно?
« Ответ #494 : 17 Мар 2009 [13:15:55] »
Во первых. С телепортом, извиняюсь, вы меня очевидно неверно поняли. Никакой альтернативной физики в нём нет.

Да, согласен. "Сам дурка!"  Извините. Это и называется:  установка, предубеждение, "опережающее возмездие". :)

Цитата
Во-вторых. Вы сомневаетесь в возможности перегрузки разума на иные, не биологические носители информации?

Почти не сомневаюсь. Я  враг всякой пенроузовщины и друг сильного-ИИ. :)
Во всяком случае я не сомневаюсь в истинности гипотезы Ньюэлла — Саймона

http://ru.wikipedia.org/wiki/Гипотеза Ньюэлла — Саймона

Здесь у нас нет темы для спора.
Но подумайте. Допустим, что  наша с вами "душа" - действительно цифровой объект, реализованный на биологическом вычислителе "мозг". Вычислителе, уверен, крайне хреновом. Сляпанном  слепым часовщиком эволюции "из того, что было". Тупо заточенным под среду водно-углеродно-кислородной кастрюли нашей планеты. Под обитание даже не просто в биосфере земли, а в саванне Африки.
"Голем XIV" читали С. Лема?
А Докинза?
Если мы действительно научимся снимать личность с этого носителя (а для этого надо ее полностью изучить понять, разложить на составляющие), то какой смысл ее, свою душу, на эту хреновенькую подложку опять воспроизводить? Если мы научимся это делать, то назад пути просто не будет.
Я думаю, к точно такому же выводу придут и инопланетяне по поводу своего тела. Это как 2+2=4 вытекает из самой логики гипотезы Ньюэлла — Саймона. Передавать по каналу связи по-атомную (или по-клеточную) структуру объекта сомнительной ценности на том конце канала – на мой взгляд верх кретинизма. Чуть разумней передать, скажем, ДНК и "душу". Но и сие, в силу вышесказанного, малразумно.
Давайте представим что это мы организовываем пресловутую SETI-атаку.
Что нам известно о физических условиях существования на том конце канала? О наиболее удобных рецепторах, эффекторах в этой среде?
Процесс разворачивания И-куба в новом мире, в номом воплощении, более удобном именно для того мира, очень сложная и красивая задача. Где остается старое ядро системы, где начинается новая адаприровананя под новую среду обитания и культуру "периферия"?


Сенсорный гомункулуса Пенфилда. А как выглядит духовный гомункулус?

Вопросы, вопросы... Если мы научимся на них отвечать, мы действительно будем понимать самих себя от начала до конца. То же и они. Без этого начинать SETI-"атаку" бессмысленно.
Чувствуете разницу подходов?
Да, тупой телепортатор "проще". Но в этой простоте скрыто все воровство, то есть ложь.
Во-первых телепортация "в-лоб" видимо действительно физически невозможна. Но самое главное. Такая простота уродливно неинтересна. Она
тешит вожделения и порождает животные страхи. Но увы... Это не так интересно что бы быть осуществимым.
:)

Цитата
В третьих. . . .   Но помимо отмеченного ранее возможного сбоя в приёмо-передающих устройствах с неясными последствиями,

Ясно что!

:)))
Хотя если серьезно, то  существует красивая, мощная обширная теория передачи сигналов по зашумленным каналам и она порождает масса методов коррекции ошибок. Теория  широко применяемая на практике. Без нее ни ваш компьютер, ни Интернет просто не существовали бы! Но я думаю вам это и так ясно.

Цитата
нельзя  также исключить и случайный перехват по дороге сигналов какой-нибудь недоразвитой цивилизацией, вроде нашей. А при ретрансляции сообщений от такой цивилизации как наша можно ожидать всего, что угодно, когда за это дело возьмутся политики, а не астрономы.  ;D

А астрономы умнее политиков? (где здесь смайлик горькой иронии?!!!)
Все равно. Я не верю что  какая-то "недоразвитая цивилизация" сможет подключиться к этому каналу, исхитриться и коварно организовать перехват. Этакая галактическая обезьяна с атомной бомбой...
Понимаете, если она это и сделает, то уже не будет той обезьяной...

Я все никак не могу понять почему моя основная мысль никак не может родиться?...
Вы как и Турчин, и многие люди вообще, возможно оперируете понятием "абсолютного добра" и "абсолютного зла".
Для меня же это абсолютная бредятина. Я же могу абсолютизировать только разум. То есть универсальную способность понять все что поддается пониманию.
Прислушайтесь к себе.
Как вы думаете?
Допустим есть зло, есть добро.
Так?
И есть ум и есть глупость.
Так?
Не важно что это такое для вас.
Вот подумайте, как они взаимосвязаны?
Бывает, по-вашему, умное зло и добрая глупость?
Попробуйте на вкус эту мысль...
Покрутите у себя в голове.
Просто ответьте да или нет?
Покрутили?
Насколько я могу судить, большинство людей считают, что все именно так. Добро-зло ортогонально ум-глупость. Некоторые, более умные, допускают, что есть корреляция. Но всего лишь корреляция... Все равно  добро-зло, разум-глупост это все таки РАЗНЫЕ категории.
А вот я считаю ортогональность добра-зла и разума-глупости всего лишь аберрацией нашего сознания. Иллюзией. Мы так запрограммированы. Это  либо устаревшая прошивка в наших обезьяньих мозгах сделанная слепой эволюцией под задачи, которые когда-то действительно решались нами с ее помощю успешно. Либо это вообще особенность устройства контрукции называемой "разум".
"На самом же деле..." (с)
Зло и есть глупость. Добро и есть разум.
Допустите на секунду что так это и есть.
Так вот, процесс так называемой "SETI-атаки" требует недюжего ума во-первых от принимающих. То есть уже предполагает определенную их "доброту".  Фактически, отказ принимать SETI-посланника и означает нашу тупую, немотивированную агрессивность. А значит нашу интеллектуальную тупиковость. Неразумность. Еще раз всопминаем "Жук в муравейнике" АБС. И не как детективчик. А именно как умную, взрослую и горькую идею-мораль, запрятанную в сказочку-леденец для еще пока глупеньких деточек. Цивилизации не оживившие своих подкидышей оказались в тупике. Аутсайдерами.
SETI-посланник будет точно таким же подкидышем для нас. Прежде всего тестом на нашу разумность. Соблазном и страхом...
Но особенно высокий уровень ума требуется от передающих. То есть требуется еще большая "доброта" с их стороны. Потому что они на целую эволюционную ступеньку должны быть умнее нас. Они Z1, а мы можем быть всего лишь Z0.
Они должны понимать что если мы Z0, то мы скорей всего  дикие и пугливые. Что у нас есть Турчин. И что его немотивированный страх эхом отзывается в миллионах сердец. Таких же пугливых. Они должны учитывать что риск глупой, то есть не имеющей здравой аргументации,  агрессии со стороны нас  для присланного нам И-куба всегда будет очень высок. Что мы никогда не будем ему всецело доверять. А значит нельзя этого, нельзя себе этого нельзя этого...
Если они нас не просчитают и не простят нам нашу тупость, контакт не состоится.
Понимаете?
Они все это должны предусмотреть за 1000 или 10 000 лет до того как мы все это получим.
Поэтому они должны будут воздержаться от массы вещей и простить нам массу нашей глупости. Именно в силу нашей подчиненности своим животным страхам они не могут себе позволить быть такими же животными как и мы.
Это не значит, что риска для нас вообще нет. Я этого не говорю. Но я не могу поверить в зубастых озверелых убийц лезущих из построенного нами  "телепортатора". Такого рода примитивного и ясного нам зла ожидать от Z1 не стоит.
Зло, порожденное ими если и будет, то будет куда тоньше и жестче. Я бы сказал мы даже не сможем осознать, что нас "сделали", что это и есть зло.
Вот например, кто из нас может назвать засилие рекламы первейшим злом нашего мира?
А изобилие в котором живет золотой миллиард?
Это разве зло?
Если и зло, то уж точно не страшней чумы и ядерной войны?
Верно ведь?
Но как знать...
:)
Александр Анатольевич Семёнов. Научный спекулянт, сторонник концепции сильного ИИ по А. Тьюрингу, исторический еслибист, саракшист, идейный космист, религиозный эволюционист, знаниевый фундаменталист, прорицатель мрачного будущего. Эксперт по межзвездным переселениям и ксеноциду. Сетевой графоман-оратор. Весельчак, балагур.

Оффлайн Kosmogen

  • ****
  • Сообщений: 343
  • Благодарностей: 0
    • Сообщения от Kosmogen
Re: Насколько SETI опасно?
« Ответ #495 : 17 Мар 2009 [18:50:20] »
Если мы действительно научимся снимать личность с этого носителя (а для этого надо ее полностью изучить понять, разложить на составляющие), то какой смысл ее, свою душу, на эту хреновенькую подложку опять воспроизводить? Если мы научимся это делать, то назад пути просто не будет. Я думаю, к точно такому же выводу придут и инопланетяне по поводу своего тела.
Это сильное заблуждение. Нет,  инопланетяне к такому выводу не придут и от своих материальных тел, разумеется, не откажутся.  Спрашивается, что есть, по сути, разум?  – это некий физико-химический процесс с циркуляцией электрических импульсов в нейронной сети мозга. Сигналы, поступающие через каналы чувств, несут информацию о внешнем мире и сравниваются с хранящимися в памяти моделями. Прогнозируется поведение. Процесс мышления может активироваться или затухать в зависимости от великого множества параметров состояния мозга и тела. Такие вот примерно дела.

Теперь вопрос: И как же ваш инопланетный разум  без этой самой подложки сможет функционировать? Ведь здесь аналогия с софтом полная – да, прекрасная программа может быть записана символами хоть ножичком по дереву, передаваться звуками речи или храниться в виде иероглифов на бумаге, но она мертва, пока её не загрузят на подложку компьютера (на диски, в модули памяти) и не запустят на выполнение. Тогда с ней можно культурно пообщаться посредством мышки. ;-)

Отсюда можно сделать далеко идущие выводы по теме.
1. Для организации внеземной атаки на земную цивилизацию наиболее эффективным способом будет передача нам сообщения о молекулярной структуре самореплицирующегося вируса и устройства его изготовления. Более того, само устройство и будет тем самым смертельно опасным вирусом, который начнет размножаться с чудовищной скоростью и превращать живые организмы в гель. А ведь всё было замаскировано под безобидную пилюлю бессмертия. >:D Чем черт не шутит, однако, видимо, вероятность такого злоумышленного поведения инопланетян близка к нулю.

2. В создании сильного автоэволюционирующего интеллекта, САИ, человеческого типа самым оптимальным является метод продолжения от достигнутого, то есть наращивание функциональных возможностей и повышение быстродействия работы мозга человека. Реинжиниринг нейронной сети и протекающих в ней процессов с последующим переносом структуры на иные подложки. Важно следующее: достаточно сделать копию молекулярной структуры САИ и при активации она обретёт сознание. 

3. Самым быстрым и безопасным методом межзвездных перелетов разумных существ является передача сигналов, несущих информацию о полной их молекулярной структуре.. В случае расшифровки такого сообщения какой-либо разумной космической цивилизацией и создания устройства изготовления этой структуры, после активации телепортируемое по каналам связи разумное существо полностью восстанавливает все свои физические способности. ::) 

petrowich

  • Гость
Re: Насколько SETI опасно?
« Ответ #496 : 17 Мар 2009 [19:29:46] »
Он переживает, можно сказать, за вас и всё человечество, а вы, как настоящий умный человек, так его решили отблагодарить. А я так понял, что он не против вообще SETI, а призывает эти поиски как-то объединить в мировом масштабе и относиться к ним с определенной осторожностью.  METI разрабатывать сообща всем миром. Ничего кроме пользы.

неуважительный по отношению к одному из участников офтоп удален

ALZ
« Последнее редактирование: 17 Мар 2009 [19:48:08] от ALZ »

petrowich

  • Гость
Re: Насколько SETI опасно?
« Ответ #497 : 17 Мар 2009 [19:39:49] »
Это не является захватом власти! Я не лишаю Турчина свободы воли и общегражданских свобод; не порабощаю его и не уничтожаю. А мозг человека "перенастраивается" каждую секунду в течение всей жизни - и это нормально.

Как же нет? Человек по своему рассуждает, а Вы хотите, чтоб он по Вашему начал рассуждать. Как угодно Вам. Просто вопрос мелочный,  вот и вся разница от порабощения и уничтожения. Но даже в таком мелочном вопросе  успехи у Вас нулевые, ибо turchin опирается на какие-то свои воззрения, и аргументы Ваши до него не доходят.

Оффлайн alex_semenov

  • *****
  • Сообщений: 17 516
  • Благодарностей: 631
  • Я лгу!
    • Сообщения от alex_semenov
    • Z-механика+
Re: Насколько SETI опасно?
« Ответ #498 : 17 Мар 2009 [19:55:02] »
"Много букф"
Взамен обещаю разбавлять их картинками!
Простите графомана, бога ради, но тема достойная, черт возьми!

Зачем нам уничтожать ИИИ? Допустим, мы хотим уменьшить долю ресурсов солнечной системы, которую он тратит на рассылку себя и не хотим ему отадавть на это всё вещество планет. Если мы ограничим его только одной сотой ресурсов, то это будет равносильно ослаблению сигнала в 100 раз и фактически равносильно его уничтожению, вряд ли он на это согласится.

Это если ему действительно нужны ресурсы всей Солнечной системы.
Но вы для начала это должны очень серьезно обосновать!!!
Алексей. Это самая серьезная логическая дырка в вашей аргументации!
Вы себе отдаете отчет в нарисованной вами картине? Чужой ИИ заставляет нас отдать ему все ресурсы Солнечной системе!!!
 ???
То есть мы уже ими владеем?
Мы разве уже построили гирлядны из  городов-поселений в поясе астероидов (колоний О'Нейла)? У нас уже функционирует станция Кларка, энергетический гигант, диаметром в две Луны чуть ли не у поверхности Солнца? А  старушка-Земля  УЖЕ обвешана фонтанами рая из орбитальных лифтов шастающих туда и обратно?
Да что там!
"Режь последний огурец!" (с)
Глобус Касус начали из Земли строить?!



http://www.popmech.ru/article/2812-apgreyd-planetyi/
http://en.wikipedia.org/wiki/Globus_Cassus

Кстати, не смотня на всю циклопичность этого, сооружения, оно  куда БОЛЕЕ скромное, чем сферы Дайсона, которой вы тут все время "мигаете"!

Но давайте вернемся на Землю...
Что мы имеем такого, что может отобрать у нас И-куб на текущий момент да и в ближайшие 100 лет?
Кроме тарелки Аресибо и всем уже известной старой тарелки в Евпатории, которую наши "демократы" уже отобрали у Зайцева?
Да в общем то ничего!!!
Какие ресурсы Солнечной системы, житее мое?!
Чтобы, как вы говорите, ограничить его одной сотой всех ресурсов, он пускай и нашими руками, но сначала для нас же "наше" богатство нам и должен построить. И вы знаете, я бы не прочь попасть такому "паразиту" в рабство.
И думаю не я один...
Но увы. Не будет нам и такого счастья.

Цитата
Если мы согласны на роль подопытных кроликов, у которых никогда не бюудет свободы выбора относительно своей клетки - то можем не хотеть уничтожать. Но я бы хотел.


Извините, Алексей, но это в лучшем случае патетика.
И крайне скверная.
Можно подумать у нас сейчас есть эта ваша "свобода воли"?
В роли рабов и подопытных кроликов мы были есть и  рискуем навсегда остаться и без И-куба. Ибо человек это ни что иное как машина для  репликации генов: наших бессмертных и жестоких хозяев-поработителей.
Другое дело, что мы к этому привыкли с измальства и другого не знаем. Рабства подвязывающее нас за наши же эмоции. Поэтому свою "свободу" воли мы будем защищать с отчаянностью сторожевого пса.
И поэтому сее сладенькое рабство-свобада наиболее... унизительна.


(Landscape XX H.R. Giger)

О кролика.
А мы никогда не были кроликами?
Природа эволюционирует эксперементируя на нас же методом бесконечных  проб и ошибок.
Да. Только в последнее время человек в этот эксперемент вмешался и отменил. Неумело и глупо, с той самой тупой патетикой, что вы тут показали, со всей силой гуманизма, свободы воли. И это  быстро привело к демографическому взрыву. И ТЕПЕРЬ мы напуганы этой своей свободой, готовы галопом вернуться к корням...
В общема, как мизантроп со стажем я вас уверяю: по большому счету, нам "нечего терять кроме своих цепей".

О нашем праве на убийство И-куба.
Я почему то с горько-веселой иронией уверен, что если такое SETI-послание придет, то в инструкции по сборке и эксплуатации будет непременно оговорено наше право уничтожить И-куб в любое время  по первейшему же желанию заказчика!
Так что, Андрей, издеваясь над вашими страхами, предлагаю сразу договориться!
Если такого пункта в договоре не будет, то оживлять присланного нам И-куба мы не будем.
Лады?
:)
Хотя, как по мне, получив чертеж  невиданного "инструмента",  необычного, красивого, восхитительного устройства и не собрать, не услышать его звучание... Не поддаться искушению, вопреки страху и сомнению (а как же без этого?)...



Каким же надо быть тупым, затюканным уродом что бы не сожрать эту наживку!!!
Алексей, вы сами представьте как они над нами УЖЕ смеются?! Или смеялись 100 000 лет назад...
Вам не стыдно?
:)

Цитата
насчёт симбиоза - да, будет симбиоз, только не ИИИ с человеком, а ИИИ с солнечной системой и земной техникой. То есть чтобы паразиты превратились в симбионтов в земной биосфере, то целые виды должны были вымереть или эволюционировать.


Вообще говоря, симбиоз возможен между живым и живым. А Солнечная система это просто мертвая инертная среда. То есть у нее, как у камня, нет стремлений, целей (хоть какого-нибудь примитивного гомеостата-регулятора). Поэтому паразитировать или вступать в симбиоз И-куб, может с нами. Людьми. Или нашей цивилизации. Согласен. Да вы правы, в нашем мире, помимо людей, есть еще надчеловеческие структуры типа государства или коорпораций. И среди них, между прочим, немало кровопийцев-паразитов. Не все симбиоты. Так что одним паразитом больше, одним меньше...
Вообще же, И-куб объект изначально сугубо информационный (мне нравится что мы с вами его обсуждаем как уже существующий), не важно кто он,  "злой"  паразит или "добрый" торговец, все равно интересовать его будет в первую очередь информация же. То есть, ему конечно же не нужно будет устройство наших ядерных боеголовок. Это мы у него можем скорей поучится их делать, а не он у нас. Но что ему лично будет надо и интересно в первую очередь, так это то что он никогда не знал и не видел там у себя дома. Это  организация мира, среды, в которую он попал.
Самое ценно на нашей планете это во-первых ее биосфера. Ее структура,  эволюция. Ведь это миллиарды лет уникальных не вычисляемых более коротким путем событий! Другой наиболее вожделенный объект исследования для него - мы, наш разум,  наша с вами культура. Наша история. Наша психология. Сколь бы убоги мы ни были, мы - другие.
Это гигантский, бесценный для него обем материала. Просто сокровищница, которая большинству из нас, вообще то говоря, и наногу не упала.
Почему бы "не слить инфу"?
Даже если И-куб знает всего одну свою цивилизацию и свою биосферу у него появляется просто шикарный объект исследования. И не думаю, что ему для досконального исследования всего этого хватит 100 или 200 лет.
Сколь бы он ни был умен, его возможности не безграничны.
Наверняка его программа минимум: отправить всю эту информацию (возможно и копию себя, поумневшего) домой. Для этого  не понадобится бездна энергии (хотя, конечно бесплатно это не будет). Если до точки возврата 800-10 000 св. лет, думаю Аресибская тарелка или что-то соизмеримое, предоставленные ему на год или пускай 10 лет вполне его удовлетворили бы.
Детально надо посчитать... (учитывая что тарелка на том конце может быть в киллометры).



Не уже ли мы ему не предоставим такую возможность?
Вед даже не оживляя его, просто расшифровывая "сопроводительную документацию",  вникая в инструкции, мы уже авансом получим "в оплату" гигантское количество бесценной для нас информации.  А когда он оживет, обучится, освоится он немало расскажет нам о свом мире и цивилизации. То есть мы с нашей стороны получим море информации никуда не летав. Ничего не посылая. За счет цивилизации отправителя.
Более того, это будет диалог в реальном времени!
Мы сможем задать И-кубу интересные НАМ  вопросы и получить ответы мгновенно
Мы будем иметь полноценный опыт общения с иным разумом.
Наверняка, он не откажет в помощи при решении наших проблем.
В той же биологии.
Или кибернените, интелектронике. Ему ведь это будет интересно!
И после всего этого мы  не поможем И-кубу решить его проблемы?
Это будет просто ... эм... бесчеловечно!
Согласны, Алексей?
:)
НО САМОЕ ГЛАВНОЕ.
Алексей Турчин!
Еще раз вызываю вас на спор по отдельной и ключевой в вашей аргументации проблеме.
Докажите что для межзвездного размножения И-кубу нужны:
1) Все ресурсы Солнечной Системы.
или хотя бы
2) Все энергетические ресурсы Земли (нашей теперешней цивилизации)


Мой контраргумент я уже привел.
Если мы с помощью семейства все более мощных и мощных космических телескопов-интерферометров (в постройки которых И-куб может принять самое активное участие) картографируем звездные системы видимой нам часть Галактики и выделим среди них 10- 1000 звезд с планетами где потенциально возможна жизнь (не думаю что их будет больше) то тупой суперизлучатель типа сферы Дайсона И-кубу не понадобится. Не понадобятся даже все энергоресурсы современной цивилизайии.
Не потребуется даже полноценная колонизации космоса с нашей стороны (а жаль!).
Максимум: система излучателей на Луне. Да, достаточно большая. Даже грандиозная и дорогая по нашим меркам. Но не смертельная для экономики современного человечества уж точно!
Если уж на то пошло, то в данный момент нашей истории И-кубу (существуй он на планете в секретных подвала пентагона) для начала нужно было бы спасти нашу западную цивилизацию от дерьма в котором она по уши, чтобы приступить к сторительству на Луне того минимума что ему надо.
Не поэтому ли американцы "возвращаются" на Луну?

Цитата
Но продолжим вашу логику:
...  Скип...
таким образом ожидаемый ущерб от открытия послания больше, чем ожидаемый ущерб от закрытия.

Не понял вашего продолжения моей логики. Вы выбрали некий произвольный (и удобный вам) набор допущений  и на нем сделали обобщающий вывод?
Зачем?
 ???
Хоят возможно я не уловил мысли?
 :(

Цитата
Во вторых - мы можем посмотреть послание, но не строить никаких механизмов, которые в нём могут описываться. В этом случае мы получим ценную информацию, но ночти не тподвергнемся риску.

Можем. Но как я уже сказал, это вариант "Жук в муравейнике". Это будет означать: мы засранцы! "Так что, Экселенц, идите в жопу с вашим пистолетом!" (с) Из ненаписанного Стругацкими.
  >:( 8) 8) ;D
Все верно. Нам нет спасения! Мы будем идти за ним как завороженные крысы за волшебной дудочникой! В этом природа любого разума. Любопытство...

Цитата
наконец, я не предлагаю запретить SETI навсегда. Я предлагаю отложить его на 30 лет, до того, как мы лучше разбёрёмся с ИИ.

Поверьте мне. В ИИ мы сами через 30 лет не разберемся. Кишка тонка! Поэтому срок придется продлить. Вы действуете как истинный бюрократ. Не запретить. Отложить в долгий ящик. Лучший способа все похерить навсегда!
 >:(

Цитата
Но это моё мнение тоже может быть ошибочным. например, может оказаться, что любой ИИ имеет тенденцию выходить из под контроля и разрушать планеты, и послание предпреждает нас об этом и предлагает единственную в своём роде версию проверенно безопасного ИИ (но это тоже может быть троянский конь).

Вот-вот! Вы не только чужого, вы и своего ИИ боитесь!  ;D
Кто же вам, Алексей, доктор?

Красивый пример.



Страшное компьютерное "чудовище" из клипа "Animusic 2".
Не смотрели?
Поищите в сети и скачайте. И первый и второй ролик.
А этотк конкретный инструмент тем интересен, что вызывает противоречивое чувство. С одной стороны ясно назначение всего этого. Реультат тоже вполне очевиден: чарующая музыка. Но с другой стороны в нас глубоко засел инстинкт неприязник к паукам или крабовидным чудовидам...
Гамма противоречивых чувств вызывает некую глубину..
И никто на подскажет нам как разобраться и сделать выбор.
Сами. Своим умом. И только умом.

Цитата
Агрессивный ИИИ - это завоеватель. Вспомните, что с
« Последнее редактирование: 18 Мар 2009 [10:52:40] от alex_semenov »
Александр Анатольевич Семёнов. Научный спекулянт, сторонник концепции сильного ИИ по А. Тьюрингу, исторический еслибист, саракшист, идейный космист, религиозный эволюционист, знаниевый фундаменталист, прорицатель мрачного будущего. Эксперт по межзвездным переселениям и ксеноциду. Сетевой графоман-оратор. Весельчак, балагур.

ALZ

  • Гость
Re: Насколько SETI опасно?
« Ответ #499 : 17 Мар 2009 [20:08:32] »
"Много букф"

Действительно, слишком много буквов...