A A A A Автор Тема: Пределы автоматизации и внедрения роботов  (Прочитано 387611 раз)

0 Пользователей и 1 Гость просматривают эту тему.

Оффлайн BlackMokona

  • *****
  • Сообщений: 20 926
  • Благодарностей: 633
  • Мне нравится этот форум!
    • Сообщения от BlackMokona
https://habr.com/ru/articles/815491/
ИИ и олимпиады по математике

Оффлайн Olweg

  • *****
  • Сообщений: 16 707
  • Благодарностей: 442
    • Сообщения от Olweg
Решил немного копнуть тему трансформеров, но все статьи, как обычно, делятся на две категории: «для самых маленьких», где вообще по сути ничего не объясняется, и для людей, уже знающих ML, с кучей формул, недоступных простым смертным. В итоге наткнулся вот на такое замечательное видео из курса про нейросети. Первые четыре эпизода были выложены автором ещё в 2017, и касаются базовых нейросетей и обучение через обратное распространение ошибки, а вот пятый и шестой - буквально недавно, в апреле, и объясняют работу трансформеров на примере GPT-3. Рекомендую. Для чайников вроде меня самое то. Очень наглядно, хотя не всегда сходу понятно (смотрел на скорости 0.75, периодически ставя на паузу). Русский перевод субтитров, к сожалению, не блещет (трансформеры иногда переведены как трансформаторы), но в целом понятно.

https://m.youtube.com/watch?v=wjZofJX0v4M

Интересные примеры - если в семантическом пространстве обученной нейросети (в случае GPT-3 - примерно двенадцатитысячемерном) вычесть вектор Германии из вектора Италии и прибавить к вектору Гитлера, получится нечто очень близкое к координатам Муссолини ) Если аналогичную операцию проделать с Японией и Германией, то «немецкость» может превратить суши в братвурсты.
Планеты других звёзд. История открытий
http://allplanets.ru/history_Olweg.htm

Оффлайн Сергей Н

  • ***
  • Сообщений: 211
  • Благодарностей: 9
  • Мне нравится этот форум!
    • Сообщения от Сергей Н
Сами OpenAI это подтверждают:
https://openai.com/index/hello-gpt-4o/

Чем отличается от этой? https://chatgpt.com/?model=gpt-4o
У меня на бесплатном ограничение на 5 вопросов, потом временно переходит на версию 3.5. Картинки недоступны.

« Последнее редактирование: 21 Мая 2024 [16:05:38] от Сергей Н »

Оффлайн Olweg

  • *****
  • Сообщений: 16 707
  • Благодарностей: 442
    • Сообщения от Olweg
Чем отличается от этой? https://chatgpt.com/?model=gpt-4o
У меня на бесплатном ограничение на 5 вопросов, потом временно переходит на версию 3.5. Картинки недоступны.
Я сам с chatGPT не работал, но, судя по тому, что видел, обновилась пока только сама LLM, речь обещали добавить в течение нескольких недель, а по картинкам сроков вообще нет.
Планеты других звёзд. История открытий
http://allplanets.ru/history_Olweg.htm

Оффлайн Сергей Н

  • ***
  • Сообщений: 211
  • Благодарностей: 9
  • Мне нравится этот форум!
    • Сообщения от Сергей Н
Я сам с chatGPT не работал, но, судя по тому, что видел, обновилась пока только сама LLM, речь обещали добавить в течение нескольких недель, а по картинкам сроков вообще нет.

Так все уже доступно на платной Plus и Team. На втором скриншоте.
Я же только зарегистрировался и вошел в акк. И похоже автоматом получил то что описано в первой колонке "Бесплатно"

Оффлайн BlackMokona

  • *****
  • Сообщений: 20 926
  • Благодарностей: 633
  • Мне нравится этот форум!
    • Сообщения от BlackMokona
Там медленно сервера переводят, а клиентов постепенно подтягивают. Поэтому у кого то появилось в первый день, а другие досих пор ждут

Оффлайн Olweg

  • *****
  • Сообщений: 16 707
  • Благодарностей: 442
    • Сообщения от Olweg
Смотрел обзор сразу после анонса, там ещё не было “native” мультимодальности, отдельно речевой блок, отдельно текстовый. Сейчас не знаю как.
Планеты других звёзд. История открытий
http://allplanets.ru/history_Olweg.htm

Оффлайн Сергей Н

  • ***
  • Сообщений: 211
  • Благодарностей: 9
  • Мне нравится этот форум!
    • Сообщения от Сергей Н
Вобщем, если вверху как на первом скриншоте будет написано ChatGPT, то это GPT-4o, а если написано ChatGPT 3.5 то тогда или подождать или VPN сменить или зарегистрироваться.

Сама ссылка ведет туда же. openai.com = chatgpt.com. Хотя окончание ссылки немного другое, model=gpt-4o, но при наличии авторизации не влияет скорее всего.

Спросил про версию у самого чата )
« Последнее редактирование: 21 Мая 2024 [20:08:04] от Сергей Н »

Оффлайн Olweg

  • *****
  • Сообщений: 16 707
  • Благодарностей: 442
    • Сообщения от Olweg
Так все уже доступно на платной Plus и Team. На втором скриншоте.
Интересно, что пишут про «создание изображений Dall-e». То есть создаёт она изображения всё-таки с помощью внешней модели? Я понял так, что там одна сетка и воспринимает всю информацию, и выводит её. Возможно, даже у платных подписок пока нет доступа к полноценной 4o.
Планеты других звёзд. История открытий
http://allplanets.ru/history_Olweg.htm

Оффлайн Сергей Н

  • ***
  • Сообщений: 211
  • Благодарностей: 9
  • Мне нравится этот форум!
    • Сообщения от Сергей Н
Спросил про анализ данных и про доступ к вебстраницам, поскольку это есть и в бесплатном плане.
Может врет как всегда, весьма правдоподобно.

Оффлайн Olweg

  • *****
  • Сообщений: 16 707
  • Благодарностей: 442
    • Сообщения от Olweg
Возможно, даже у платных подписок пока нет доступа к полноценной 4o.
Да, точно:
https://3dnews.ru/1105016/prezident-openai-opublikoval-izobragenie-sozdannoe-gpt4o/amp
Цитата
Генератор изображений GPT-4o широкой публике пока недоступен: пользователи ChatGPT с подключённой моделью нового поколения пока могут генерировать изображения лишь с DALL-E 3. Но президент OpenAI Грег Брокман уверяет, что компания прилагает значительные усилия, чтобы открыть к модели нового поколения полный доступ.

В общем, посмотрим, сколько ещё усилий им придётся приложить )
Планеты других звёзд. История открытий
http://allplanets.ru/history_Olweg.htm

Оффлайн Combinator

  • *****
  • Сообщений: 2 590
  • Благодарностей: 88
    • Сообщения от Combinator
"Внутри черного ящика оказалась дверь в бездну. Сверхважный прорыв в понимании механизма разума машин и людей..." (статьи с таким броским началом мне обычно не нравятся, но в данном случае содержание, на мой взгляд, действительно интересно): https://t.me/theworldisnoteasy/1942
« Последнее редактирование: 22 Мая 2024 [21:33:21] от Combinator »

Оффлайн Сергей Н

  • ***
  • Сообщений: 211
  • Благодарностей: 9
  • Мне нравится этот форум!
    • Сообщения от Сергей Н
"Внутри черного ящика оказалась дверь в бездну. Сверхважный прорыв в понимании механизма разума машин и людей..." (статьи с таким броским началом мне обычно не нравятся, но в данном случае содержание, на мой взгляд, действительно интересно): https://t.me/theworldisnoteasy/1942

 
Цитата
Оказывается, каждое понятие представлено множеством нейронов, и каждый нейрон участвует в представлении множества понятий.

Это они о черном ящике LLM. Кроме того это центральный тезис статьи. Из серии "а мужики то и не знали".

Оффлайн Olweg

  • *****
  • Сообщений: 16 707
  • Благодарностей: 442
    • Сообщения от Olweg
Сравнение ChatGPT 4o и Gemini 1.5 Pro. GPT кладёт продукт Google на лопатки практически во всех заданиях, единственное, с чем ей справиться не удалось - IQ-тест, в котором потребовались алгебраические выкладки (но и Gemini не справилось). А вот арифметическую задачку прошла нормально. В общем, несмотря на заявленные высокие показатели, Гуглу до OpenAI всё же далеко, даже если оставить в стороне новую мультимодальность с естественным голосом у GPT.

https://m.youtube.com/watch?v=wER-Xo9nK78

По поводу IQ - ещё в 2022 старый ChatGPT набирал 147 баллов. Но, правда, в вербально-лингвистическом тесте. С математикой у этих моделей до сих пор слабовато…
Планеты других звёзд. История открытий
http://allplanets.ru/history_Olweg.htm

Оффлайн BlackMokona

  • *****
  • Сообщений: 20 926
  • Благодарностей: 633
  • Мне нравится этот форум!
    • Сообщения от BlackMokona
По поводу IQ - ещё в 2022 старый ChatGPT набирал 147 баллов. Но, правда, в вербально-лингвистическом тесте. С математикой у этих моделей до сих пор слабовато…
Представляете такое 10 лет назад рассказать, все бы смеялись до упаду этим бредовым предсказаниям.

Оффлайн BlackMokona

  • *****
  • Сообщений: 20 926
  • Благодарностей: 633
  • Мне нравится этот форум!
    • Сообщения от BlackMokona
Синтетические данные постепенно набирают обороты. Самая простая стена взята.
https://www.reddit.com/r/singularity/comments/1czob0h/llms_wont_need_data_anymore_synthetically_trained/
7Б модель побеждает ГПТ-4 в математике.  :)

Оффлайн Olweg

  • *****
  • Сообщений: 16 707
  • Благодарностей: 442
    • Сообщения от Olweg
Послушал недавнее интервью Джеффри Хинтона, где он утверждает, что большие языковые модели могут понимать так же, как и люди. Приведу тут перевод некоторых важных, на мой взгляд, моментов.

http://www.youtube.com/watch?v=n4IQOBka8bc#

Цитата
Причина, по которой я думаю, что это не просто предсказание следующего символа, заключается в том, что если вы спрашиваете: "что нужно сделать, чтобы предсказать следующий символ?", особенно если вы задаете мне вопрос, а затем первым словом ответа становится следующий символ, вы должны понимать вопрос. Поэтому я думаю, что предсказание следующего символа совсем не похоже на старомодное автозаполнение. При старомодном автозаполнении вы сохраняете как бы тройки слов, а затем, если вы сортируете пару слов, вы видите, как часто разные слова занимали третье место, и таким образом вы можете предсказать следующий символ, и это то, на что, по мнению большинства людей, похоже автозаполнение. Это уже совсем не так. Чтобы предсказать следующий символ, вы должны понимать, что было сказано, поэтому, я думаю, вы заставляете его понимать, вынуждая его предсказывать следующий символ, и я думаю, что оно понимает во многом так же, как и мы. Многие скажут вам, что эти штуки не такие как мы, они просто предсказывают следующий символ, они рассуждают не так, как мы, но на самом деле, чтобы предсказать следующий символ, нужно провести некоторые рассуждения, и теперь мы убедились, что если вы создаете большие модели, не добавляя никаких специальных средств для рассуждения, они всё же могут делать некоторые умозаключения, и я думаю, что по мере того, как вы будете их увеличивать, они смогут делать все больше и больше умозаключений.
Цитата
Что такое язык?

Как вы думаете, человеческий мозг эволюционировал, чтобы хорошо работать с языком, или вы считаете, что язык эволюционировал, чтобы хорошо работать с человеческим мозгом?

Я думаю, что вопрос о том, эволюционировал ли язык для работы с мозгом или эволюционировал ли мозг для работы с языком, я думаю, это очень хороший вопрос. Думаю, что произошло и то, и другое. Раньше я считал, что мы можем совершать большую часть когнитивной работы, вообще не прибегая к языку, но теперь я немного изменил свое мнение, поэтому позвольте мне изложить вам три разных взгляда на язык и на то, как он соотносится с познанием. Существует старомодный символический взгляд, согласно которому познание заключается в использовании цепочек символов на каком-то очищенном логическом языке, где нет двусмысленности, и применении правил вывода, и это и есть познание, это просто символические манипуляции с вещами, которые похожи на цепочки языковых символов.

Итак, это одна из крайних точек зрения. Противоположная точка зрения - нет, нет, как только вы проникнете в голову, там будут одни лишь векторы. Поступают символы, вы преобразуете эти символы в большие векторы, и все, что находится внутри, выполняется с помощью больших векторов, а затем, если вы хотите получить выходные данные, вы снова создаете символы. Примерно в 2014 году в машинном переводе наступил момент, когда люди начали использовать рекуррентные нейронные сети: в них поступают слова, у них есть скрытое состояние, и они продолжают накапливать информацию в этом скрытом состоянии, поэтому, когда они доходят до конца предложения, у них появляется большой скрытый вектор, который фиксирует значение этого предложения, который затем может быть использован для создания предложения на другом языке, который называется вектором мысли. И это своего рода второй взгляд на язык: вы превращаете язык в большой вектор, который совсем не похож на язык, и в этом суть когнитивных процессов.

Но есть и третья точка зрения, которой я придерживаюсь сейчас, которая заключается в том, что вы берете эти символы и преобразуете их в эмбеддинги, используя несколько слоев, чтобы получить очень вместительные эмбеддинги. Но эмбеддинги по-прежнему привязаны к символам в том смысле, что у вас есть большой вектор для этого символа и большой вектор для того символа, и эти векторы взаимодействуют, создавая вектор для символа следующего слова, и это и есть понимание. Понимание - это знание того, как преобразовать символы в эти векторы и как элементы вектора должны взаимодействовать, чтобы предсказать вектор для следующего символа. Вот что такое понимание как в этих больших языковых моделях, так и в нашем мозге. И это пример, который находится как бы посередине: вы остаетесь с символами, но интерпретируете их как большие векторы, и в этом заключается вся работа. И все знания заключаются в том, какие векторы вы используете и как элементы этих векторов взаимодействуют, а не в символических правилах. Но это не значит, что вы полностью отказываетесь от символов, это значит, что вы превращаете символы в большие векторы, но остаетесь при этом с поверхностной структурой символов. И вот как работают эти модели, и это кажется мне более правдоподобной моделью человеческого мышления.

От себя могу сказать, что, посмотрев видео про работу трансформеров, склонен с ним согласиться. Чем поиск координат вектора в семантическом пространстве языковой модели принципиально отличается от поиска истинного смысла слова или смысла текста в человеческом мозге? Разве что GTP от «понимания» не испытывает эмоций, потому что не обучается с подкреплением, и, кроме того, не обладает сознанием, потому что является “feed-forward” сетью, без рекуррентности (а она для сознания однозначно нужна). Получается, что понимание и сознание - вещи совершенно необязательно связанные между собой, просто ещё один антропоморфизм.

В интервью ещё много интересного, в том числе про подкрепление и мультимодальность - Хинтон считает, что она позволит моделям лучше понимать пространство и объекты и сильно облегчит обучение, хотя определённая модель мира (в том числе пространственная!) есть и в чисто языковых моделях. Это, в общем-то, не так уж удивительно, учитывая, что язык описывает реальный мир.
« Последнее редактирование: 25 Мая 2024 [15:49:49] от Olweg »
Планеты других звёзд. История открытий
http://allplanets.ru/history_Olweg.htm

Оффлайн Сергей Н

  • ***
  • Сообщений: 211
  • Благодарностей: 9
  • Мне нравится этот форум!
    • Сообщения от Сергей Н
От себя могу сказать, что, посмотрев видео про работу трансформеров, склонен с ним согласиться. Чем поиск координат вектора в семантическом пространстве языковой модели принципиально отличается от поиска истинного смысла слова или смысла текста в человеческом мозге?
Отличается хотябы тем что текст не существует в мозге. Вообще никак.

Получается, что понимание и сознание - вещи совершенно необязательно связанные между собой, просто ещё один антропоморфизм.

Эти вещи жестко связанные. Попробуйте что-нибудь понять находясь в бессознательном состоянии.

Ну ничего. Вон Хинтон тоже не понимает, что из текстовых БД не получится извлечь всю необходимую информацию. Её там нет. Обучение чуть помогает, но это костыли. Ехать они может и будут когда-нибудь, но смысла нет.

Оффлайн Olweg

  • *****
  • Сообщений: 16 707
  • Благодарностей: 442
    • Сообщения от Olweg
Отличается хотябы тем что текст не существует в мозге. Вообще никак.
Может быть. Тогда это второй вариант того, о чём он говорит.

Цитата
Эти вещи жестко связанные. Попробуйте что-нибудь понять находясь в бессознательном состоянии.
Жёстко связанные у человека.
Планеты других звёзд. История открытий
http://allplanets.ru/history_Olweg.htm

Оффлайн Сергей Н

  • ***
  • Сообщений: 211
  • Благодарностей: 9
  • Мне нравится этот форум!
    • Сообщения от Сергей Н
Может быть. Тогда это второй вариант того, о чём он говорит.

Векторы?  И вообще, это он про механику познания пытается рассказать в трех вариантах.
Когда он говорит это похоже на цитата "символические манипуляции с вещами, которые похожи на цепочки языковых символов"
Прям по фрейду. Манипуляции, одним словом. Сам не в курсе, но ведь похоже и никто не проверит.

Жёстко связанные у человека.

У рыбок тоже.