ВНИМАНИЕ! На форуме начался конкурс - астрофотография месяца МАРТ!
Polnoch Ксю и 2 Гостей просматривают эту тему.
Цитата: Olweg от 07 Июн 2021 [06:34:34]Пока писал, задумался, а как именно я сам составляю собственный текст. Я проверяю разные варианты фраз на уместность с точки зрения грамматики, стиля, контекста. Напишу - подправлю. То есть делаю то же самое, что делает и GPT. Но я при этом ещё хочу донести какие-то свои мысли, идеи, а у сети их нет. Есть чувство текста, но нет понимания окружающей реальности.Как сказано "Она красиво выдаёт всякую фигню, но даже с 175 миллиардами параметров и 450 гигабайтами входных данных её нельзя назвать надёжным интерпретатором мира"450 Гб это около миллиарда книг. Вы все еще думаете, что делаете тоже самое при написании текста?
Пока писал, задумался, а как именно я сам составляю собственный текст. Я проверяю разные варианты фраз на уместность с точки зрения грамматики, стиля, контекста. Напишу - подправлю. То есть делаю то же самое, что делает и GPT. Но я при этом ещё хочу донести какие-то свои мысли, идеи, а у сети их нет. Есть чувство текста, но нет понимания окружающей реальности.
Почти. У меня в голове тоже сидит сеть, обученная на сотнях (конечно, не миллиардах ) книг и тысячах страниц интернета. На и плюс ещё разговорная речь.
Таким образом, искусственные нейронные сети способны различать контекст ситуации, её смысл, перспективу, и потому выделять только важные в этом контексте элементы. В результате нейронной сети не составляет принципиального труда узнать знакомое в шуме, выявить общности и отличия, построить прогноз. Или «понять» значение слов в вопросе и подобрать ответ. Конечно, при этом нейронная сеть лишь распознаёт закономерности расстановки слов, исходя из множества фраз обучающей выборки, а не «понимает» смысл заданного вопроса, как на это способен человек с его качественно более богатым опытом и качественно более сложным мышлением. Как следствие, способность искусственных нейронных сетей к переводу, общению или написанию текстов, основанная только на закономерностях построения слов и фраз, выявленных в обучающих примерах, всегда будет ограничена, по сравнению с теми же способностями человека.
И то, что я вижу, уже круто. Но ждут от этой сети почему-то совсем дргого.Это как та робо-гончая от бостон-динамикс, она очень круто научилась бегать галопом, устойчиво входит в повороты, справляется с неровностями, но это все рефлекторное поведение. Странно, если бы от этой собаки на данном этапе требовали поймать зайца или сообразить что нужно уворачиваться от пуль.
К примеру, даже обычная диалоговая система по типу более продвинутой Алисы или Сири, призванная в том числе для ни к чему не обязывающих бесед, за рамками проверенных разработчиками вопросов и ответов может посоветовать пользователю что-то опасное, неадекватное. Но не каждый сможет неадекватность распознать и не все вопросы можно задать заранее.
Как будто люди надежные. Вы что ни разу не ошибались в распозновании людей, не писали с ошибками, не говорили с ошибками, не совершали ошибок в своей жизни и тд?
Однако если за рамками проверенного мы всё равно можем рассчитывать на адекватность других людей, так как в каждом из нас заключён опыт миллиардов лет биологической эволюции, а склонность к серьёзной неадекватности можно заметить по множеству внешних признаков, то в отношении систем искусственных ни на что из этого рассчитывать нельзя. В отсутствие понимания работы системы и общности этой работы с собой, сколько-нибудь достоверная экстраполяция поведения системы в проверенных ситуациях на ситуации ещё не проверенные невозможна.
Специально для энтузиастов автоматизации и внедрения роботов - новая презентация от авторов русской кибердеревни: "Russian Tomorrow News"http://www.youtube.com/watch?v=4gyKDCOwdC0
Почти. У меня в голове тоже сидит сеть, обученная на сотнях (конечно, не миллиардах ) книг и тысячах страниц интернета. На и плюс ещё разговорная речь. В отношении грамотности точно работает такая предобученная "чуйка" - иногда проще написать слово и посмотреть, "правильно" ли оно выглядит. Правил со школы помню дай бог с десяток, остальное на автомате.
— GPT не обучается на лету. Не перестраивает веса. Тем не менее, есть ряд работ по reinforcement learning. Там перестраивали веса нейросети после каждого взаимодействия со средой, и пытались подобрать такую нейросеть, которая будет порождать оптимальную стратегию достижения цели. И… Она должна была хорошо работать в разных «мирах».Оказалось, что алгоритм reinforcement learning обычно порождает внутри нейросети другой алгоритм reinforcement learning. Для этого требуется, чтобы у нейронки были ячейки памяти и «миров» было достаточно много… И всё.
ЦитатаGPT не обучается на лету.
GPT не обучается на лету.
Цитата: Сергей Н от 07 Июн 2021 [21:02:08]ЦитатаGPT не обучается на лету.И что? Я где-то писал, что она должна обучаться на лету? Механизмы обучения разные, но результаты - в чём-то схожи.
Цитата: Olweg от 07 Июн 2021 [21:09:47]Цитата: Сергей Н от 07 Июн 2021 [21:02:08]ЦитатаGPT не обучается на лету.И что? Я где-то писал, что она должна обучаться на лету? Механизмы обучения разные, но результаты - в чём-то схожи.Не только механизмы обучения разные, но и цель обучения другая. Живая нейросеть в процессе обучения не запоминает те самые книги буквально и при рещении задачи человек обычно не с текстами работает, а со смыслами, которые он получил в процессе обучения из текстовых книг в том числе. Результат решения задачи, человек может обратно вернуть в виде текста. GPT не знает смысла слов, но знает какие слова в каких контекстах используются людьми. В процессе обучения перед GPT ставится задача - научится работать с огромной базой текстов, которые она помнит в точности, в отличии от живой нейросети. Буквально: определить, какое словосочетание наиболее часто встречается в след за словосочетанием "х".
Нет, глубинные нейросети работают именно со смыслами. Вы путаете нейросети со статистическими алгоритмами которые были до них.
Живая нейросеть в процессе обучения не запоминает те самые книги буквально и при рещении задачи человек обычно не с текстами работает, а со смыслами, которые он получил в процессе обучения из текстовых книг в том числе. Результат решения задачи, человек может обратно вернуть в виде текста.
GPT не знает смысла слов, но знает какие слова в каких контекстах используются людьми. В процессе обучения перед GPT ставится задача - научится работать с огромной базой текстов, которые она помнит в точности, в отличии от живой нейросети. Буквально: определить, какое словосочетание наиболее часто встречается в след за словосочетанием "х".
С тем, что GPT не работает с идеями более высокого уровня, я согласен, я сам выше писал про это.
Я про другое: генеративная нейросеть создаёт тексты и отсеивает наиболее подходящие - исходя из контекста - варианты.
Человеческий мозг работает похожим образом, он выбирает фразы и оценивает их грамматически, стилистически и, если нужно, заменяет или правит.
Это не так. BlackMokona уже написал - вы путаете статистический метод с глубоким обучением.
Нет, глубинные нейросети работают именно со смыслами.
Человеческий мозг работает похожим образом, он выбирает фразы и оценивает их грамматически, стилистически и, если нужно, заменяет или правит. При этом оценка происходит на материале, выученном раньше, и по большей части бессознательно.
В скобках можно заметить, нелокальность опыта также означает, что такие процессы как «сравнение» на самом деле не так очевидны, как может казаться, потому что сравнивающий и сравниваемое, оценщик и оцениваемое представляют в мозге одно целое. И действительно мозг занимается исключительно переводом сигналов рецепторов в активность мышц и желёз, но ничего ни с чем не сравнивает. Например, можно заметить, в ходе решения любой задачи в сознании всегда находится только один объект внимания, поэтому мысли всегда последовательно, как кадры фильма, сменяют друг друга. В то же время в последовательном переводе внимания с одного объекта на другой нейронная сеть мозга запоминает эти объекты в кратковременной памяти. В результате в какой-то момент формируется поведение, которое учитывает как особенности одного объекта, так и другого, то есть ситуацию в целом — в этот момент, как новый кадр, в сознании возникает решение. Другими словами, происходит обобщение разного опыта, в ходе которого выделяются сходства и отличия наблюдаемых объектов. И в зависимости от задач поведение может содержать на эти сходства и отличия указание, то есть как будто произойдёт «сравнение». Причём если бы опыт не был одним целым, а имел строгую локализацию, то даже такое «сравнение» стало бы невозможным, так как без обобщения выявить сходства и отличия ни у чего нельзя.
Идеи тут совсем непричем.
Контекст для GPT это не тоже самое что контекст для нас, поскольку она не знает смысла слов. А человек знает смысл слов, но не оперирует корпусом текста в сотни гигабайт.
GPT же отрезана от времени и пространства, её реальность одномерна и соответственно она лишена смысла слов. О чем и намекают на хабре.
перед GPT ставится задача - научится работать с огромной базой текстов, которые она помнит в точности, в отличии от живой нейросети. Буквально: определить, какое словосочетание наиболее часто встречается в след за словосочетанием "х".
Фраза, условно говоря, возникает, только когда она появляется во внимании, в «подсознании» же никаких фраз, которые «оцениваются», «сравниваются» и т. д., нет.
Хорошо, в таком случае вам несложно будет объяснить, как вы сознательно составили эту фразу?
Тогда что вы понимаете под «смыслами»?
Нет, в части грамматики и стиля разница непринципиальна. Знание смысла отдельных слов не даёт особого преимущества, в отличие от понимания смысла произносимой мысли в целом, извините за тавтологию. Выбор нужных грамматических конструкций происходит у человека более или менее на автомате, как и оценка получившейся фразы или абзаца в целом. С точки зрения формы.
Нейросети так не работают.
Выше я писал что такое слова для мозга. Слово это маркер, а его смысл, это то к чему этот маркер привязан непосредственно в мозге.
Поясните, что вы имели в виду, когда писали "сознательно составить фразу"? И как этот вопрос следует из того, что написано у меня в посте?
Когда тема касается информационных технологий, статья на хабре это вполне себе ПРУФ. Хотя я и не пытюсь тут описать как работает "нейросеть" во всех подробностях и на на хабре этого не пишут. Суть в том что она работает с бигдата и с этим никто не спорит.
Буквально: определить, какое словосочетание наиболее часто встречается в след за словосочетанием "х".
По сравнению с тем какие результаты выдавали генераторы текста 15 лет назад, прогресс не так заметен