ВНИМАНИЕ! На форуме началось голосование в конкурсе астрофотография месяца - НОЯБРЬ!
0 Пользователей и 2 Гостей просматривают эту тему.
То есть - я предлагаю не вводить излишние сущности вроде картин мира неких, котоыре не доказуемы кстати, есть они или нет.
Ну почему недоказуемы.
Потому что для того чтобы найти эту модель - нужно сделать допущение , что она впринципе там существует. Это абстракция. Они представляют что есть эта модель, ну и в конечном итоге им просто проще развивать логику, если её ввести. Но это ни в коем случае не говорит о наличии какого то скрытого пространства, где возникает представление.
Ну так, как видите, в векторных представлениях моделей вполне можно эти абстракции поискать.
Это потому, что наш язык антропоморфен. У нас, например, и компы долго думают, хотя понятно, что на самом деле они ни о чём не думают. Так что если модель что-то «понимает», это не значит, что она понимает это так, как это делаем мы, с осознанием, с чувством понимания и т.п. Просто работают какие-то алгоритмы, да. Но механизмы могут быть отчасти схожи с тем, как это делает наша мозг (опять антропоморфизм!)
https://habr.com/ru/articles/794566/
Цитата: Olweg от 06 Июн 2024 [16:25:25]https://habr.com/ru/articles/794566/Вот это кстати интересный момент. Нет необходимости симулировать всю вселенную, если возможно генерировать контент, который непосредственно воспринимает пользователь.
А вообще парадоксально получается. У Лема в «Дознании» Пиркс переиграл робота, интуитивно приняв решение, которое поначалу сам не мог объяснить. Конечно, ведь роботы, в отличие от людей, мыслят логично. В реальности вышло с точностью до наоборот, с логикой у ИИ сейчас как раз большие проблемы…
А вообще парадоксально получается. У Лем
Цитата: Olweg от 06 Июн 2024 [18:22:37]А вообще парадоксально получается. У ЛемЕсли бы Лем судил об интелекте на основе данных об его эволюции, то пришел бы как раз видению развития интелекта аналогичного в реальности. Интутивный интелект в природе как раз более распостранен.
Честно говоря, не понял, что вам не понравилось.
Чтобы выдать человекоподобный текст - нужен алгоритм, который мог бы на основании вводных данных сформировать другой алгоритм, удовлетворяющий условиям задачи. Либо уже иметь алгоритм, по которому будет сформирована логика текста. Так оно по видимости и происходит. Правда вопрос - формируется ли новый алгоритм или он уже существует в нейронной сети. Вот это я не совсем понимаю.Если формируется новый, то за счет чего? Потому что сама модель то не видоизменяется при ответе. Соответственно используется тот рельеф, который у неё уже есть, новый не создается. Так же?Если ничего нового не создается, то улучшить качество логики без обучения самой модели(неважно каким образом) - невозможно. В принципе это и логично. Но дообученная модель - это будет другая версия модели.Следовательно, поскольку логика без изменения модели не улучшается(а это так) - скорее всего алгоритм построения ответа уже существует. Именно поэтому наращивается масштаб, чтобы охватить как можно большее количество вариантов построения логики.
Правда, работает модель стохастически и не всегда выбирает самый вероятный результат, поэтому ответы на одни и те же вопросы могут отличаться.
Парадокс ещё и в том, что начинали-то исследования в прошлом веке именно с логических, символьных систем, но они совершенно неспособны работать с реальным миром. У людей они развились для коммуникаций и оказались полезны и для логического, пошагового мышления. Получается, нужно их теперь прикрутить к генеративным моделям? Отчасти это уже делается в виде агентов. Но, может быть, всё не так просто, и нужны какие-то ещё подходы, как, например, с Q*.
https://packaged-media.redd.it/6p7hf3h02z4d1/pb/m2-res_720p.mp4?m=DASHPlaylist.mpd&v=1&e=1717790400&s=192ffd2cdb0cac406e708607b7dc7de0e95c567b#t=0
Цитата: EmperioAf от 05 Июн 2024 [22:25:56]Честно говоря, не понял, что вам не понравилось.Не понравились утверждения о том, что GPT что-то там понимает и как-то там мыслит.