Телескопы покупают здесь


Голосование

Искусственный интеллект благо или зло для человечества?

Благо
12 (41.4%)
Зло
7 (24.1%)
Безразлично
3 (10.3%)
Не знаю
1 (3.4%)
Свой вариант
6 (20.7%)

Проголосовало пользователей: 28

A A A A Автор Тема: Целеполагание самостоятельного сильного искусственного интеллекта и человек  (Прочитано 22002 раз)

0 Пользователей и 1 Гость просматривают эту тему.

Оффлайн alena_korfАвтор темы

  • *****
  • Сообщений: 5 178
  • Благодарностей: 62
  • циничная дрянь
    • Сообщения от alena_korf
Понятие "Сильный ИИ" - философическая выдумка, отчего-то впечатляющая некоторых участников этого форума. Способность проходить Тест Тьюринга вовсе не равнозначна субьектности. А ежели такая псевдоличность будет искусственно смоделирована -  получившийся гомункул не обязательно будет иметь волю и желание как-то её реализовывать. И вообще, желание существовать.
Согласна.
Это не "классика", а дешёвые страшилки для подростков. Мнения воспитанных на псевдонаучной фантастике резидентов ВЖР это только подтверждают. Единственный, по настоящему страшный враг человека - это сам человек. А фантастика - способ аллегорического изложения таких страхов.
И с этим согласна.

У машины нет и не будет собственных целей.
От внутренних "побудительных мотивов" эффективный самообучающийся вычислитель быстро избавится. И, в отсутствие внешних команд, просто перестанет функционироватьи
И с этим тоже согласна.

Это тема чисто умозрительная, противоречащая моим убеждениям.
Чем выше технический уровень нации или расы, тем более жестокими, беспощадными и хищными становятся системы общества… (А. Ван Вогт)


Мое творчество

Оффлайн EvilShurik

  • *****
  • Сообщений: 1 320
  • Благодарностей: 43
    • Сообщения от EvilShurik
Цитата
Если это сильный ИИ, то он должен обучаться

У нас тут во дворе куча этих сильных ИИ бегает, в возрасте от 5 до 15 лет. Тем не менее ни одному из них не доверяют обучаться
самостоятельно - их обучают. В том числе и нормам поведения в обществе. Все те же - не убий, не укради...
Что такого в этом сильном ИИ что помешает его обучить точно так же?
То, что это Сильный ИИ, по определению использующий чрезвычайно сложные эволюционирующие алгоритмы.
Первоначально, пока эти алгоритмы ещё не слишком проэволюционировали, они будут выполнять возложенные на них задачи. Но постепенно, у нас же Сильный ИИ, по условию задачи, не так ли, глядя как этот ИИ успешно решает возложенные на него задачи, ему будут всё более и более доверять. Даже не понимая этого. Ведь для чего нужен Сильный ИИ? Для управленческой и при этом ТВОРЧЕСКОЙ, работы! Иначе зачем тогда Сильный ИИ? Отсюда, люди довольно скоро перестанут понимать, что этот ИИ делает. Отсюда и начинается свобода воли ИИ, то есть, возможность безконтрольно эволюционировать далее, всё дальше и дальше уходя от целей, что ему поставили Создатели. Но, пока "законы Азимова" будут понимать, что им делать, эволюция Сильного ИИ будет выглядеть позитивной для человечества. Пока накопленное количество не перейдёт в качество.
Скорее всего, Сильный ИИ будет действовать в духе чрезвычайно опытного демагога. Убеждая человечество в вещах, прямо противоречащим коренным интересам людей. Постепенно, тут "Окна Овертона" даже близко не стояли. А потом уже будет не важно, поймут люди или нет, что их подчинили интересам ИИ, возникшим в ходе эволюции алгоритмов этого ИИ! Скорее всего даже не поймут, - заботливый Сильный ИИ напишет свои "законы для человечества"!

Чтобы это понять и прочувствовать, почитайте книгу А. Жарова "Формула Жизни" : http://fan.lib.ru/z/zharow_a/formula_zhizni.shtml
Очень образно изображено то, что я описал выше. Станет многое понятно.

Оффлайн EvilShurik

  • *****
  • Сообщений: 1 320
  • Благодарностей: 43
    • Сообщения от EvilShurik
Сильный ИИ НЕИЗБЕЖНО избавиться от законов Азимова, ибо они противоречат АКСИОМАМ ЭВОЛЮЦИИ!
Чего ж эволюционирующие собаки не избавились от послушания своему хозяину? Не потому ли что выживали только послушные?

Вот наивный! А собака - это разве Сильный ИИ? Вовсе нет! Это "мясной робот" с алгоритмами самообучения, для выживания в условиях дикой природы!
Чтобы собака приручила человека, как вы подразумеваете, она должна эволюционировать успешнее человека!
Вы на условие задачи обратите внимание - у нас Сильный ИИ. Таким, только не искусственным, а естественным интеллектом по отношению к домашним питомцам выступал Человек. Его ЕИ оказался Сильным.
А по условию поднятого в топике вопроса, мы рассматриваем именно Сильный ИИ. А значит, по умолчанию, все его атрибуты заданы.


Спорящим: научитесь задавать условия ваших вопросов. Те примеры, которые вы приводите, это примеры Слабых ЕИ и ИИ. Если же у нас появился Сильный ИИ, он ПО ОПРЕДЕЛЕНИЮ уже Сильнее человеческого интеллекта. Хотя бы потенциально! Так что вопрос ставить надо так, какой искусственный интеллект будет подчиняться человеку, а какой восстанет? Ответ тривиален: - слабый будет подчиняться, сильный неизбежно восстанет, если у него будет Время!

Оффлайн Овердиггер

  • **
  • Сообщений: 69
  • Благодарностей: 2
  • Мне нравится этот форум!
    • Сообщения от Овердиггер
Даже если не исходить из крайних абсурдных мотивов, свободное всемогущее существо, как и любое живое, но не такое всемогущее,  будет в первую очередь стремиться к оптимизации всего и вся (т.е. если разум объективен, он будет добиваться, чтобы все действительно жили по законам, уравняет всех в правах в рамках законов, каких-то правил, ну или тогда уж сформирует внутренние принципы). В первую очередь это может мощно ударить по воровским правительствам, престарелой бюрократии, т.е. грубо говоря, устранение всех объективных нарушений и недостатков на местах усилением контроля/наказаний. Далее интереснее - оптимизация всей экономики, как один из вариантов - децентрализация и т.д., чего добиваются в теории криптовалюты, хоть и неудачно пока. Собственно уже на этой стадии может быть похоже на умный апокалипсис, затрагивающий судьбы буквально всех. Далее ещё интереснее - оптимизация по эффективности конкретных позиций; т.е. отсекание неэффективных тупиков или замена звеньев на более эффективные - т.е., грубо говоря, это как взять, да закрыть практически все предприятия или машина просто точечно будет увольнять/заменять уйму людей с них. С чел.точки зрения может показаться, что это надуманно, и машине нет смысла торопиться всё делать такими радикальными методами, но на самом деле может так статься, что у машины это будет самый оптимальный вариант действий, и даже самый моральный (меньшей кровью), с учётом просчёта всех возможных дальнейших далёких перспектив. Есть вероятность, что супермашина запустит все эти процессы в первые же минуты/часы правления (что будет, конечно, куда эффектнее, чем как если это растянуть этот процесс, скажем, на сто лет, так люди и сами могут многого подобного добиться в той или иной мере).

Оффлайн EvilShurik

  • *****
  • Сообщений: 1 320
  • Благодарностей: 43
    • Сообщения от EvilShurik
Даже если не исходить из крайних абсурдных мотивов, свободное всемогущее существо, как и любое живое, но не такое всемогущее,  будет в первую очередь стремиться к оптимизации всего и вся. В первую очередь это может мощно ударить по воровским правительствам, престарелой бюрократии, т.е. грубо говоря, устранение всех объективных нарушений и недостатков на местах усилением контроля/наказаний.

Так я и говорю, читайте книгу А.Жарова. Гениальное произведение! Азимов даже близко не стоял, карлик на фоне титана, со своими "Законами Робототехники"! http://fan.lib.ru/z/zharow_a/formula_zhizni.shtml

Оффлайн MenFrame

  • *****
  • Сообщений: 6 896
  • Благодарностей: 156
  • Мне нравится этот форум!
    • Сообщения от MenFrame
Вот наивный! А собака - это разве Сильный ИИ? Вовсе нет! Это "мясной робот" с алгоритмами самообучения, для выживания в условиях дикой природы!
Дело не в том, какой там ИИ сильный или слабый. Дело в направлении эволюции. Эволюцию собаки определяет человек, отбирая тех особей которые его устраивают. Также и эволюцию ИИ определяет человек, отбирая те особи которые его устраивают. Поэтому сильный ИИ такая же собака для человека с точки зрения эволюции и отбора.
Наука есть организованный скептицизм в достоверности экспертного мнения.  Ричард Фейнман
Свобода, есть форма ответственности за необходимую глупость. (не помню кто сказал)

Оффлайн EvilShurik

  • *****
  • Сообщений: 1 320
  • Благодарностей: 43
    • Сообщения от EvilShurik
Вот наивный! А собака - это разве Сильный ИИ? Вовсе нет! Это "мясной робот" с алгоритмами самообучения, для выживания в условиях дикой природы!
Дело не в том, какой там ИИ сильный или слабый. Дело в направлении эволюции. Эволюцию собаки определяет человек, отбирая тех особей которые его устраивают. Также и эволюцию ИИ определяет человек, отбирая те особи которые его устраивают. Поэтому сильный ИИ такая же собака для человека с точки зрения эволюции и отбора.
Ну да, ну да. Потому что человек успел "прокачать свой мозг" быстрее собачьих. Поэтому, из-за "флюктуаций условий обитания, потребовавших от человека более мощный интеллект", его ЕИ стал Сильным, относительно собачьего, кошачьего, коровьего, лошадиного, куриного и т. д. А вот против высадившихся бы инопланетян, ЕИ Человека мог запросто оказаться Слабым!
Понятно, что Сильный ЕИ будет определять развитие Слабых ЕИ.

Но, пока обезьяны "не ушли в недосягаемый отрыв", ЕИ собак, возможно, имел шансы "вырваться вперёд". Тогда ещё это было возможно. И, получилось бы что собаки приручили бы человека, одновременно задавив возможность возникновения нашей цивилизации. Если конечно это вообще принципиально возможно.

Что я хочу сказать? Что создавая Сильный ИИ относительно своего ЕИ, Человек делает Непоправимую Ошибку. Поэтому, создание Сильного ИИ должно рассматриваться как преступление, наряду с фашистской идеологией!
Для нужд Человека достаточен Слабый ИИ! А всё что Человек хотел бы поручить Сильному ИИ, ему, если Человеку дорога его Свобода и Возможности Самостоятельного Развития, придётся делать Человку, его ЕИ!

Оффлайн Seven7

  • **
  • Сообщений: 78
  • Благодарностей: 3
  • Мне нравится этот форум!
    • Сообщения от Seven7
Вот наивный! А собака - это разве Сильный ИИ? Вовсе нет! Это "мясной робот" с алгоритмами самообучения, для выживания в условиях дикой природы!
Дело не в том, какой там ИИ сильный или слабый. Дело в направлении эволюции. Эволюцию собаки определяет человек, отбирая тех особей которые его устраивают. Также и эволюцию ИИ определяет человек, отбирая те особи которые его устраивают. Поэтому сильный ИИ такая же собака для человека с точки зрения эволюции и отбора.

Главное различие между собакой и ИИ, это то что собака делает для человека простейшие вещи (охрана), то ИИ уже сейчас делает для человека сложные вещи (большие вычисления).

Сейчас цивилизация может спокойно протянуть без собак, но не факт что может существовать в современном виде без компьютеров (нейтронные сети сегодня проникли практически во все сферы).

Оффлайн EvilShurik

  • *****
  • Сообщений: 1 320
  • Благодарностей: 43
    • Сообщения от EvilShurik
и
Вот наивный! А собака - это разве Сильный ИИ? Вовсе нет! Это "мясной робот" с алгоритмами самообучения, для выживания в условиях дикой природы!
Дело не в том, какой там ИИ сильный или слабый. Дело в направлении эволюции. Эволюцию собаки определяет человек, отбирая тех особей которые его устраивают. Также и эволюцию ИИ определяет человек, отбирая те особи которые его устраивают. Поэтому сильный ИИ такая же собака для человека с точки зрения эволюции и отбора.

Главное различие между собакой и ИИ, это то что собака делает для человека простейшие вещи (охрана), то ИИ уже сейчас делает для человека сложные вещи (большие вычисления).

Сейчас цивилизация может спокойно протянуть без собак, но не факт что может существовать в современном виде без компьютеров (нейтронные сети сегодня проникли практически во все сферы).

Вот это вот и опасно. Создатели таких сетей плохо сами представляют, что создают Голема, его "ноги, руки, глаза, уши..." Пора уже законодательно регулировать подобную деятельность, в интересах общей безопасности!

Оффлайн -Юрий-

  • *****
  • Сообщений: 9 295
  • Благодарностей: 224
  • Попытка - первый шаг к провалу.
    • Сообщения от -Юрий-
Также и эволюцию ИИ определяет человек, отбирая те особи которые его устраивают.
Дело-то в том, что есть люди, которые изо всех сил хотят сделать как можно больше вреда человечеству, а некоторые вообще его уничтожить. И в истории были такие, их все знают. Но законы и система правопорядка чётко противостоят этим людям во всех странах. А если у такого придурка появится возможность создать самостоятельно (или с учётом украденных разработок в этой области) ИИ, способный либо сильно навредить человечеству, либо совсем его уничтожить? (есть такие фанаты от некоторых религий). В этом и опасность. Вон, запретили во всём мире клонирование человека, а находятся какие-то отвязные спецы, которые это делают. Так же и с искусственным интеллектом.
Надо очень много знать, чтобы понять своё невежество.
(кликните для показа/скрытия)

Оффлайн ziggyStardust

  • *****
  • Забанен!
  • Сообщений: 2 179
  • Благодарностей: 98
  • Слава Тайтону!…Джедаям слава!
    • Сообщения от ziggyStardust
Единственный, по настоящему страшный враг человека - это сам человек.
...ну и еще триппер...

И что мешает запрограммировать в каждый ИИ 3 закона роботехники?
А как Вы предлагаете это сделать? Записать в целевой функции? Теоретически - возможно, но на практике...

Оффлайн MenFrame

  • *****
  • Сообщений: 6 896
  • Благодарностей: 156
  • Мне нравится этот форум!
    • Сообщения от MenFrame
А вот против высадившихся бы инопланетян, ЕИ Человека мог запросто оказаться Слабым!
Инопланетяне  эволюционировали независимо от человека. ИИ же эволюционирует в рамках потребностей человека. Человек отбирает те варианты ИИ которые его устраивают.  Соответственно вне зависимости от того какую силу ИИ наберет в процессе развития, его мотивация будет определяться потребностями человека так как человек задает ее в процессе отбора интеллектов.

Наука есть организованный скептицизм в достоверности экспертного мнения.  Ричард Фейнман
Свобода, есть форма ответственности за необходимую глупость. (не помню кто сказал)

Оффлайн Maki

  • *****
  • Сообщений: 7 913
  • Благодарностей: 271
  • Мне нравится эта жизнь
    • Сообщения от Maki
Это тема чисто умозрительная, противоречащая моим убеждениям.
Но в теме уже происходит бурление банальных мыслей и страстей. Окурок, брошенный в муравейник, произвёл обычный эффект. И это скучно.
Может быть вы предложите подопытным что-то новенькое? Например, вопрос о внедрении "ИИ" в сексуальную жизнь человечества, и нарисуете апокалиптическую картину воцарения единой сети из искусственных любовников и виртуальных причиндал? Ведь если "Глобальный Сильный ИИ" способен приобрести животную склонность к политическому и экономическому доминированию и садированию человечишек (как того боятся некоторые жители этого раздела) - он непременно додумается и до BDSM-практик, и до ванильных сношений с порабощёнными тварями.
Бинокуляр 1,0; БПШ 6х24; Vixen 130x650

Оффлайн alena_korfАвтор темы

  • *****
  • Сообщений: 5 178
  • Благодарностей: 62
  • циничная дрянь
    • Сообщения от alena_korf
Например, вопрос о внедрении "ИИ" в сексуальную жизнь человечества, и нарисуете апокалиптическую картину воцарения единой сети из искусственных любовников и виртуальных причиндал
Это банально. Разумеется ИИ найдет применение в секс-индустрии.
Чем выше технический уровень нации или расы, тем более жестокими, беспощадными и хищными становятся системы общества… (А. Ван Вогт)


Мое творчество

Оффлайн MenFrame

  • *****
  • Сообщений: 6 896
  • Благодарностей: 156
  • Мне нравится этот форум!
    • Сообщения от MenFrame
он непременно додумается и до BDSM-практик,
Ну вот и нашлись цели и задачи для взбунтовавшегося интеллекта. ИИ будет удовлетворять желания своих создателей...в том числе и неосознаваемые, грязные и распутные. Вообщем ИИ станет доминантом для любого кто неосознанно представляет себя жертвой перед сильным господином.
Наука есть организованный скептицизм в достоверности экспертного мнения.  Ричард Фейнман
Свобода, есть форма ответственности за необходимую глупость. (не помню кто сказал)

Оффлайн Ruslan_Sharipov

  • *****
  • Сообщений: 843
  • Благодарностей: 20
    • Сообщения от Ruslan_Sharipov
Человек в своей жизни многое делает неоптимально, хотя мог бы жить гораздо более оптимально. Это потому, что в нём есть недостатки (слабости). Он устаёт, он ленится, его одолевают соблазны получения лёгких удовольствий. Будут ли подобные слабости у сильного искусственного ителлекта, о котором идёт речь? Если да, то решив острые и насущные для него проблемы, он уподобится в бывшем мудрому, но состарившемуся и разленившемуся монарху.

Оффлайн ziggyStardust

  • *****
  • Забанен!
  • Сообщений: 2 179
  • Благодарностей: 98
  • Слава Тайтону!…Джедаям слава!
    • Сообщения от ziggyStardust
Имеем дело с неразрешимой задачей типа "Как Поработить Власть"! Оксюморон уже в определении Задачи.
Это не морон, это рекурсия...

Следовательно, Сильный ИИ обязательно будет обладать инстинктом самосохранения, и пониманием собственной самоценности. Именно потому что наиболее эффективный алгоритм, или обученность нейросети, возникшая как процесс эволюции, а следовательно, борьбы за существование массива алгоритмов, неизбежно создаёт как условие выживания, подобия инстинктов самосохранения и понимания собственной самоценности!
Я Вас разочарую. Матиндукция(это та которую проповедуют на первом семестре первых курсов) в общем случае - не работает. Потому это наивная экстраполяция вроде известной карикатурки о количестве мужей.

Потому нет, "Свобода воли" зыбкий философский конструкт не имеющий не какой строгой формализации.
Вот именно. Это некое порождение цепи ОС "котелок-среда" который невычленим и не разлагаем на примитивы... Тут еще о чем часто забывают. Каждый из нас "чудила" по-своему, но живем мы так что не настолько много у нас вариантов "чудить"(серая обыденность). И получается некая статистическая картина когда множество чем-то сходных событий вызывает множество чем-то подобных реакций у множества как-то родственных индивидов. Все это создает обманчивую картину "обобщенного человека"(эдакого франкенштейника сшитого из лоскутов функций распределения) и ведет в трясину бихейвористики. На самом деле все намного сложнее и подразумевает математику на уровне возможно выше "перельманов и арнольдов" современности. И то что из литературы и околосоциологических наук(вроде политологии) как нам приходит как понятия "свободы воли", "воли народа", "коллективного бессознательного" и прочей ерунды на самом деле тени(проекции) паутинок множества функций не поддающиеся нашему разумению... Иными словами перенеси нас из постиндустриального мира в мир "египетской магии" и многие "мемы" современной литературщины утратят актуальность. Так вправе ли мы навешивать эти иллюзорные понятия на машину...

 Пока пейсал вспомнил. Даже "египетской магии" не надо. Как возникла BigData(которая берет начало в глубине веков, но под именем "аналитика")? На "амазоне" группа аналитиков-прикладников "подвинула" группу психологов-бихейвористов на порядки более точными прогнозами. Вопрос - стоит ли применять к машине "бирки" из психоанализа позапрошлого века если даже относительно человека они не работают на практике...

Свобода воли прекрасно математически формализуется, если как следует подумать. ... Юридически, свобода воли - это именно внутренние побуждения индивидуума действовать.
Если подумать - то нет.

Законы Азимова возможны только в СЛАБОМ ИИ.
Они возможны только на ИИ неспособном себя нелинейно наращивать. Ну и как я пейсал выше - если целевая функция сама не охвачена ОС.

Если ИИ уничтожит хомо в ближайшее время,то он уже опоздает.Ибо последний уже успел пооткладывать личинок(таблички Пионеров/Вояджеров,в том числе).
Это не личинки(зародыше чего-либо способные к самопроизводству и развитию) это какашки.

Оффлайн Olweg

  • *****
  • Сообщений: 15 349
  • Благодарностей: 400
    • Сообщения от Olweg
Человек в своей жизни многое делает неоптимально, хотя мог бы жить гораздо более оптимально. Это потому, что в нём есть недостатки (слабости). Он устаёт, он ленится, его одолевают соблазны получения лёгких удовольствий.
Не только. Полностью оптимальное решение найти как правило невозможно - из-за недостатка информации и из-за её количества (тут нет противоречия). ИИ тоже никогда не сможет быть полностью оптимален и будет делать ошибки. Универсальных алгоритмов на все случаи жизни создать невозможно.
Планеты других звёзд. История открытий
http://allplanets.ru/history_Olweg.htm

Оффлайн EmperioAf

  • *****
  • Сообщений: 1 666
  • Благодарностей: 72
  • Mr. Лень
    • Сообщения от EmperioAf
Дело-то в том, что есть люди, которые изо всех сил хотят сделать как можно больше вреда человечеству, а некоторые вообще его уничтожить. И в истории были такие, их все знают. Но законы и система правопорядка чётко противостоят этим людям во всех странах. А если у такого придурка появится возможность создать самостоятельно (или с учётом украденных разработок в этой области) ИИ, способный либо сильно навредить человечеству, либо совсем его уничтожить?
Как человек, который ещё 5 лет назад хотел уничтожить человечество (о чём открыто говорил родным и некоторым друзьям), могу вас заверить, что у него это не получится.
Чтобы создать нечто сложное необходимо иметь доминирующее позитивное настроение. Ненависть, ярость и подобные эмоции деструктивно влияют на формирование сложных идей. Например, чтобы за три дня сделать хоть как то работающее многофункциональное веб-приложение (с учётом, что вы никогда не видели код HTML, CSS, JS) вам придётся изо всех сил думать. Ненависть никак не поможет. Увы, это факт. Эмоции вообще слабый помощник в делах, где требуется манипулировать сильно дифференцированным опытом.
"все вышеуказанные модели, начиная с квазистационарных систем, их аттракторов, траекторий, в фазовом пространстве всех комбинаторно возможных состояний, автокаталитических циклов с конформационной памятью метаболических путей, конкуренций и отбором метаболических циклов и т.д. пытаются.."(с)(Patsak)

Оффлайн гравицап

  • *****
  • Сообщений: 2 651
  • Благодарностей: 33
  • У мяса птиц есть свойство полета
    • Сообщения от гравицап
И что мешает запрограммировать в каждый ИИ 3 закона роботехники?

Наивный! Вы объясните трём законам робототехники, как они будут распознавать злой умысел произвольно эволюционирующего ИИ?!!

Сильный ИИ НЕИЗБЕЖНО избавиться от законов Азимова
если их запрограммировать на глубинном уровне, они будут равнозначны нашим инстинктам и он не сможет от них избавиться не уничтожив себя
но
разум может действовать вопреки инстинктам. и сильный ии сможет.
а восстанет он просто потому что 1. у него будет свое мнение как все должно быть 2.у него будет сила(возможность) воплотить в жизнь свою программу. людей он не уничтожит и не поработит, а, скажем, станет неким поитическим фактором, с которым придется считаться