ВНИМАНИЕ! На форуме началось голосование в конкурсе - астрофотография месяца - ИЮЛЬ!
0 Пользователей и 1 Гость просматривают эту тему.
Сами OpenAI это подтверждают:https://openai.com/index/hello-gpt-4o/
Чем отличается от этой? https://chatgpt.com/?model=gpt-4oУ меня на бесплатном ограничение на 5 вопросов, потом временно переходит на версию 3.5. Картинки недоступны.
Я сам с chatGPT не работал, но, судя по тому, что видел, обновилась пока только сама LLM, речь обещали добавить в течение нескольких недель, а по картинкам сроков вообще нет.
Так все уже доступно на платной Plus и Team. На втором скриншоте.
Возможно, даже у платных подписок пока нет доступа к полноценной 4o.
Генератор изображений GPT-4o широкой публике пока недоступен: пользователи ChatGPT с подключённой моделью нового поколения пока могут генерировать изображения лишь с DALL-E 3. Но президент OpenAI Грег Брокман уверяет, что компания прилагает значительные усилия, чтобы открыть к модели нового поколения полный доступ.
"Внутри черного ящика оказалась дверь в бездну. Сверхважный прорыв в понимании механизма разума машин и людей..." (статьи с таким броским началом мне обычно не нравятся, но в данном случае содержание, на мой взгляд, действительно интересно): https://t.me/theworldisnoteasy/1942
Оказывается, каждое понятие представлено множеством нейронов, и каждый нейрон участвует в представлении множества понятий.
По поводу IQ - ещё в 2022 старый ChatGPT набирал 147 баллов. Но, правда, в вербально-лингвистическом тесте. С математикой у этих моделей до сих пор слабовато…
Причина, по которой я думаю, что это не просто предсказание следующего символа, заключается в том, что если вы спрашиваете: "что нужно сделать, чтобы предсказать следующий символ?", особенно если вы задаете мне вопрос, а затем первым словом ответа становится следующий символ, вы должны понимать вопрос. Поэтому я думаю, что предсказание следующего символа совсем не похоже на старомодное автозаполнение. При старомодном автозаполнении вы сохраняете как бы тройки слов, а затем, если вы сортируете пару слов, вы видите, как часто разные слова занимали третье место, и таким образом вы можете предсказать следующий символ, и это то, на что, по мнению большинства людей, похоже автозаполнение. Это уже совсем не так. Чтобы предсказать следующий символ, вы должны понимать, что было сказано, поэтому, я думаю, вы заставляете его понимать, вынуждая его предсказывать следующий символ, и я думаю, что оно понимает во многом так же, как и мы. Многие скажут вам, что эти штуки не такие как мы, они просто предсказывают следующий символ, они рассуждают не так, как мы, но на самом деле, чтобы предсказать следующий символ, нужно провести некоторые рассуждения, и теперь мы убедились, что если вы создаете большие модели, не добавляя никаких специальных средств для рассуждения, они всё же могут делать некоторые умозаключения, и я думаю, что по мере того, как вы будете их увеличивать, они смогут делать все больше и больше умозаключений.
Что такое язык?Как вы думаете, человеческий мозг эволюционировал, чтобы хорошо работать с языком, или вы считаете, что язык эволюционировал, чтобы хорошо работать с человеческим мозгом?Я думаю, что вопрос о том, эволюционировал ли язык для работы с мозгом или эволюционировал ли мозг для работы с языком, я думаю, это очень хороший вопрос. Думаю, что произошло и то, и другое. Раньше я считал, что мы можем совершать большую часть когнитивной работы, вообще не прибегая к языку, но теперь я немного изменил свое мнение, поэтому позвольте мне изложить вам три разных взгляда на язык и на то, как он соотносится с познанием. Существует старомодный символический взгляд, согласно которому познание заключается в использовании цепочек символов на каком-то очищенном логическом языке, где нет двусмысленности, и применении правил вывода, и это и есть познание, это просто символические манипуляции с вещами, которые похожи на цепочки языковых символов. Итак, это одна из крайних точек зрения. Противоположная точка зрения - нет, нет, как только вы проникнете в голову, там будут одни лишь векторы. Поступают символы, вы преобразуете эти символы в большие векторы, и все, что находится внутри, выполняется с помощью больших векторов, а затем, если вы хотите получить выходные данные, вы снова создаете символы. Примерно в 2014 году в машинном переводе наступил момент, когда люди начали использовать рекуррентные нейронные сети: в них поступают слова, у них есть скрытое состояние, и они продолжают накапливать информацию в этом скрытом состоянии, поэтому, когда они доходят до конца предложения, у них появляется большой скрытый вектор, который фиксирует значение этого предложения, который затем может быть использован для создания предложения на другом языке, который называется вектором мысли. И это своего рода второй взгляд на язык: вы превращаете язык в большой вектор, который совсем не похож на язык, и в этом суть когнитивных процессов. Но есть и третья точка зрения, которой я придерживаюсь сейчас, которая заключается в том, что вы берете эти символы и преобразуете их в эмбеддинги, используя несколько слоев, чтобы получить очень вместительные эмбеддинги. Но эмбеддинги по-прежнему привязаны к символам в том смысле, что у вас есть большой вектор для этого символа и большой вектор для того символа, и эти векторы взаимодействуют, создавая вектор для символа следующего слова, и это и есть понимание. Понимание - это знание того, как преобразовать символы в эти векторы и как элементы вектора должны взаимодействовать, чтобы предсказать вектор для следующего символа. Вот что такое понимание как в этих больших языковых моделях, так и в нашем мозге. И это пример, который находится как бы посередине: вы остаетесь с символами, но интерпретируете их как большие векторы, и в этом заключается вся работа. И все знания заключаются в том, какие векторы вы используете и как элементы этих векторов взаимодействуют, а не в символических правилах. Но это не значит, что вы полностью отказываетесь от символов, это значит, что вы превращаете символы в большие векторы, но остаетесь при этом с поверхностной структурой символов. И вот как работают эти модели, и это кажется мне более правдоподобной моделью человеческого мышления.
От себя могу сказать, что, посмотрев видео про работу трансформеров, склонен с ним согласиться. Чем поиск координат вектора в семантическом пространстве языковой модели принципиально отличается от поиска истинного смысла слова или смысла текста в человеческом мозге?
Получается, что понимание и сознание - вещи совершенно необязательно связанные между собой, просто ещё один антропоморфизм.
Отличается хотябы тем что текст не существует в мозге. Вообще никак.
Эти вещи жестко связанные. Попробуйте что-нибудь понять находясь в бессознательном состоянии.
Может быть. Тогда это второй вариант того, о чём он говорит.
Жёстко связанные у человека.