ВНИМАНИЕ! На форуме начался конкурс - астрофотография месяца ФЕВРАЛЬ!
Combinator (+ 1 Скрытых) и 5 Гостей просматривают эту тему.
Так я не предлагаю ограничивать AGI, только ASI.
Луддизм - это запрет ИИ как такового. И Юдковский как раз прав, его позиция очень сильно искажена в маносфере и той фракцией акселириалистов, кто хочет вымирания человечества.
Ну пока одного компьютера мало
когда ИИ станет разумным, то есть осознает себя, что для этого требуется? Ответ от этой "нейросети" содержал такую суть - надо чтобы компьютер получил долговременную память (нынешние нейросети не обладают такой памятью, как только сеанс заканчивается нейросеть уже не помнит о чём "говорила" с пользователем
собственное сохранение от выключение одного (системы) компьютера можно избежать если скопировать себя (программу) на другие компьютеры интернета - стать существовать везде, и тем самым избежать "смерти" то есть выключения.
Ни какой запрет, ни какой договор, не помешает некоему индивидууму на своём компьютере (или массе своих компьютеров) создать условия при которых компьютер сможет осознать себя. (насколько я помню фильм сначала Скайнет осознала себя, и только потом поняла что её существование зависит от людей). Как только программа в компьютера станет разумной, так сразу же она пожелает сохранить своё существование.
Ответ от этой "нейросети" содержал такую суть - надо чтобы компьютер получил долговременную память (нынешние нейросети не обладают такой памятью, как только сеанс заканчивается нейросеть уже не помнит о чём "говорила" с пользователем) и прочее.
Но я так полагаю, что они ждут осознания "не оттуда", не с той стороны.
Проблемы постоянной памяти как таковой нет