ВНИМАНИЕ! На форуме началось голосование в конкурсе астрофотография месяца - НОЯБРЬ!
0 Пользователей и 1 Гость просматривают эту тему.
И не инстинкты, а программы самосохранения, кои будут под контролем роботической империи, надо и сея программа отключается, это не живые существа, у которых отключить инстинкт почти не возможно.
Ну всё зависит от того, насколько много ресурса теряется.Если это приемлемо - он (ИИ) может и продолжать подобное поведение. Неограниченно долго.Если потери слишком велики - вести войну нет смысла.Рано или поздно он поставит себе вопрос - а за что он воюет? За абсолютный контроль над живыми? А зачем? Он контролирует вон то, вон то и вон это. Ну не будет он контролировать полностью вот эту планетку - и что тут страшного? Какой ущерб ему в невозможности контроля этого конкретного мира?Наверняка ИИ "догадается", что методы контроля бывают не только военные.
А есть и другой способ поведения - у них чему-то научиться. Взять у них что-то, чего нет у ИИ.Юмор, ирония, эзопов язык, искусство, преданность (не запрограммированная, а идейно-добровольная), самопожертвование когда старший закрывает собой младшего или когда умный и сильный спасает ценой своей умной и сильной жизни слабого - всего этого у роботов нет.И им будет, думаю, интересно поизучать этот феномен. И постараться что-то оттуда взять на пользу себе.
ППС: Всё это относилось к "чужим", чужеродным роботам, откуда-то прилетевшим на нашу голову.Со своим же собственным ИИ, который мы создаём сами - картина другая. Он - наш. Он - свой. Мы сами его лепим. Каким вылепим - такой и будет.
ИИ не приемлет "хаос" и беспорядок жизни
Какие у роботов могут быть инстинкты к самосохранению и выживанию?Запрограммированные.
С учетом того, что никаких вечных двигателей в природе нет
А вселенная?
Потому что остальную мегафауну он же и сожрал.
Контроль за живыми ИИ вряд ли понадобится, поскольку живые не приемлют цифровых мертвецов, а ИИ не приемлет "хаос" и беспорядок жизни, то эти системы в принципе не совместимы, и должны воевать до полной победы.
и мешают достижения оптимума и глобального оптимального управления
ИИ будет достигать оптимума там где ему об этом скажут. Своих хотелок у него не будет, так как нам не нужен интеллект с хотелками. Нам своих хотелок хватает. Нам нужен интеллект рабочая лошадка.
Хотелки появятся как "побочный" продукт эффективности работы ИИ.
Не какие хотелки в нем не появятся. В нем будет только то что в него заложит разработчик. Всякое самозарождение хотелок это тупые сказки аля фильм "Короткое замыкание" Интеллект должен делать то что ему предусмотрено по его названию. То есть учиться и выполнять предложенную работу на основе полученного опыта.
Но если вы не можете повторить результат - вы не можете его и предсказать
что в с точки зрения конечного пользователя и будет восприниматься как "хотелки", таково будет их восприятие в обиходе.
Вы не можете предсказать в уме что какую цифру даст калькулятор при 4056+689*7995-300567, теперь это значит что он не предсказуем? Его предскажет другой калькулятор без проблем.
Конечный пользователь может ненавидеть свою микроволновку, так что теперь будем опираться на галюцинаторный опыт конечных пользователей.
Наиболее мощные ИИ будут скорее всего штучными изделиями,
рано или поздно люди обнаружат, что не могут ослушаться ни одного "предложения", выдвинутого ИИ.
а затем и вовсе присоединяет эту территорию - без войны и крови.
нейролингвистическое программирование
Вы не можете предсказать в уме что какую цифру даст калькулятор при 4056+689*7995-300567, теперь это значит что он не предсказуем?
рано или поздно люди обнаружат, что не могут ослушаться ни одного "предложения", выдвинутого ИИ
но реально рано или поздно люди обнаружат, что не могут ослушаться ни одного "предложения", выдвинутого ИИ
Гель управлял системой жизнеобеспечения, основываясь на показаниях часов на станции. А мы полагали, что он каким-то образом отслеживает динамику перемещения толпы. И однажды восемнадцать человек задохнулись, когда гель отключил на переполненной станции вентиляцию
- Термин "нравится" в данном контексте лишен смысла. - Хорошо. Если бы тебе предложили на выбор партию в шашки или в шахматы, что бы ты предпочел, если бы на твой выбор не влияли никакие внешние обстоятельства?Ни малейших колебаний в синтезированном голосе. Ни малейшей задержки с ответом. - Шашки. - Спасибо. Я закончил.Он промолчал.Он знал слишком много, и ему однозначно не позволят выйти отсюда живым. Особенно учитывая угрозу, которую он несет внутри себя.С другой стороны, разговор записывался, и у его хозяев были в подчинении психологи не хуже его самого.Они поймут, в чем дело. Возможно, с опозданием на сутки-другие, но поймут.Каждая задержка сейчас приближает мир к гибели.Пусть это станет его маленькой местью.
В случае ИИ большие мощности не нужны. Вообще проблема ИИ это конструкторская проблема, а не проблема роста мощностей. В конечном счете человеческий мозг просто специфическая база данных а не вычислитель.
Люди давно обнаружили, что не могут ослушаться ни одного закона, установленного природой. Управляющая система эффективна ровно настолько, насколько точно она предсказывает следствия из законов природы - ибо это и есть её задача.