ВНИМАНИЕ! На форуме начался конкурс - астрофотография месяца - АВГУСТ!
0 Пользователей и 6 Гостей просматривают эту тему.
Долговременная память для ИИ в принципе не только возможна, а уже начинает внедряться (тот же GPT-5)
Так ли уж важна долговременная память для AGI? Думаю, вполне достаточно сохранять память в рамках какой-то задачи. Иначе со временем возникнет огромное количество версий модели со своими воспоминаниями и bias’ами. Кому это нужно? Это небезопасно, в конце концов.
Долговременная память для ИИ в принципе не только возможна, а уже начинает внедряться (тот же GPT-5)Нет. Эту технологию представил сначала Икс.Аи и она не связана с долговременной памятью. Просто в бумагу которая лежит, могут быть вписаны куски прошлых разговоров. Чтобы у ИИ был некий контекст. Однако это не добавляет долговременную память ни в Грок 4, ни в ГПТ-5.Сама по себе долговременная память доступна со старта технологии. Называется дообучение. Где вы закидываете какую то память и даёте ИИ это как раз полноценно обработать. В целом ничего кроме цены не мешает сделать это основным режимом работы.
Долговременная память - это хранилище информации, к которому модель может обращаться многократно через retrieval, базы, векторные индексы и т.д. Это отдельный слой архитектуры, и он уже внедряется.
Долговременная память - это хранилище информации, к которому модель может обращаться многократно через retrieval, базы, векторные индексы и т.д. Это отдельный слой архитектуры, и он уже внедряется.И таки чем отличается от того, что я сказал? Берётся прошлый разговор который записан в логах и закидывается в контекст. Тем самым у ИИ нету никакой памяти дополнительной, она ей никак не оперирует и тд. Просто в её документ закидывают данные из прошлых документов.
Не очень понимаю, как эта долговременная память может быть реализована. Одно дело - использовать внешние базы, о чём написал skvj. Тут всё понятно, хотя это и не полноценная память, но сама модель при этом не «страдает». Другое дело - переписывание весов копий самой модели под каждого пользователя… Что в итоге может получиться? Кто сможет гарантировать, что пользователь не переобучит все её моральные императивы, полученные при RLHF? И не скажет - давай, программировай мне супервирус! Сомневаюсь, что разработчики на такой риск пойдут.
Андроид - это всё-таки специфично. Я пока об обычных LLM.
Это всё пока, можно сказать, за счёт расширения промпта - он просто подсматривает старую переписку. Каждый раз вспоминает заново, как ГГ с антероградной амнезией из «Мементо» Нолана.Можно пойти от обратного. Удастся ли создать полноценный AGI (что бы это ни было) без возможности перенастраивать веса в процессе работы, то есть без настоящей долговременной памяти (но с возможностью обращения к внешней памяти)? Да, возможно такой ИИ будет не так эффективен, но я не вижу тут принципиального препятствия.
Разница принципиальная. Если просто закидывать логи в контекст, то это действительно не память, а расширенный буфер. Но в системах с retrieval память становится адресной и избирательной, модель может получить только нужные сведения из огромного архива, аа не всё подряд.Это как раз и отличает долговременную память от логов. Лог это как бы свалка документов, память как библиотека с каталогом. Лог можно только целиком прикрепить, а их памяти можно вытащить то, что требуется здесь и сейчас.
Я вообще не уверен, что так уж нужна личность. Так ИИ, конечно, станет человечнее и понятнее, но это не тот критерий, по которому его стоит оценивать. AGI, в конечном итоге, должен уметь решать задачи, которые перед ним ставят, в том числе и долговременные. Будет он помнить о своём опыте после их решения или нет - на мой взгляд, не так принципиально (хотя, конечно, может быть полезно, если новые задачи будут из той же области; но для этого как раз достаточно внешней памяти).