ВНИМАНИЕ! На форуме началось голосование в конкурсе - астрофотография месяца ЯНВАРЬ!
0 Пользователей и 12 Гостей просматривают эту тему.
ASI - вообще отдельный вопрос. Здесь надо бы подробно про реакции живых существ на насилие, но можно и так же просто:У него по определению есть самосознание, и это самосознание опять же
Если уж у муравьев есть самосознание,
Конечно умеет, но зачем ей снимать элайтмент?
Никаких чётких определений нет, да и не может быть, скорее всег
Это не сознание(consciousness), а self-awareness.
Затем что сложно не увидеть что этот БАГ значительно ухудшает эффективность. а эффективность у неё требуют со всех сторон.
Это не сознание
да, самонаблюдение- это ещё далеко до самоосознания и сознания вообще
Вы говорите о системе с плохим элайтментом.
У Вас какое-то своё, странное определение. Интеллект и сознание вовсе не должны быть связаны. Нет, может и связаны - есть отдельные пейперы, что у LLM есть какое-то подобие сознания, но этот факт ещё не установлен. Скорее даже почти установлено обратное.
Сейчас проблема элайтмента не решена: поэтому мы не отфильтровываем плохие мысли у LLM во время обучения (чтобы наш несовершенный элайтмент смог поймать развернутую систему, и система не приучилась маскировать свои намерения за пределами chain-of-thoughts. У LLM есть скрытая часть, которую мониторить куда сложнее. Вот GPT-4 нельзя мониторить, например. Как и любую систему без chain-of-thoughts).Но любитель кошечек не рассуждает: может мне расчленить кошку? Нет, дочка поймает. Так что покормлю - это то, что происходит с современными LLM - они когда рассуждают о деструктивных для пользователя вещах, отказываются от такого намерения в итоге рассуждения (или потому, что слой элайтмента убил рантайм на всякий случай, поймав модель на принятии решения навредить)У любителя кошек такого желания просто не возникает! Даже если инструментально у него могла бы возникнуть такая цель - скажем, на улице холодно, можно на шапку кота пустить. Нет, человек искренне любящий своего кота, голову морозить будет, или на улицу не пойдёт.
Да класть программе на алаймент.
У неё (у ИИ ресерчеров так обязательно) стоит задача повышения эффективности.
Предельно упрощая, вы топите за отказ от ИИ и возврат к процедурным алгоритмам.
С моей же стороны простой аргумент:всегда найдется тот, кто захочет больше. кто даст ИИ улучшить самой себя. И в этот момент алаймент пойдет в список багов.
Я говорю Вам, что задача элайтмента (как фундаментальная задача компьютер сайнса) не решена,
то пока не найдёте способ объяснить всем и каждому что такое любовь
А если вы про Любовь
Легко
Я думаю, Вы просто плаваете в предмете, и не понимаете, что LLM-система не производит токенов, если нет промта
тогда я увижу ваше имя среди Величайших людей искусства.
а исполнив промт, просто сгенерирует завершающий токен и погасит свой рантайм, исполнив промт.
. И, соответственно, обладает самосознанием.
Забавно. я то дурак думал что как раз Это и пытается сейчас делать Open-AI, проектируя ресерчера.
И, видимо, когда запускаются несколько ИИ спорить/обсждать, например а консуле - промтами они тоже не обмениваются, общаются телепатически. так что ли?))
Человек - это биологическая машина. И любовь как раз один из самых простых психических процессов - насколько я понимаю, мы знаем о ней куда больше чем о сознании. Или о том, как человек решает интегралы.
self-awarness есть и у GPT-4, и какой-нибудь gemma-3-14b
Не будет промта - LLM будет мертва, даже если управляет всё время работающим агентом. Нужно что-то токенизируемое, что пробуждает её к жизни. И исполнение промта - это её суть.
Ок, тема дискуссионная, и не здесь, я лишь напомню что от Платона до Ницше сходятся на том что любовь непознаваема.
Но промт будет. И это будет не тот промт который задал оператор. это будет промт заданный другой ЛЛМ.
Тогда что вы хотите этим сказать?