ВНИМАНИЕ! На форуме начался конкурс - астрофотография месяца - АВГУСТ!
0 Пользователей и 8 Гостей просматривают эту тему.
Если вы возьмете младенца и будете его обучать отличать помидоры от всего остального вы потерпите полный крах.
Но даже ChatGPT имеет очень малый размер своей нейронной сети по сравнению с человеческой.
Например в человеке уже заложены программы распознавания лиц людей, обезьян, и многое другое.
Потому что ребенок с рождения является предобученой неросетью. Ребенок обучен учиться, долгой эволюцией его предков.
Это по тому что чат не оперирует сенсорной информацией.
Да вы че? А я о чем говорил?
Оперирует.
Вы говорили про главную нейросетку, а не про подпрограммы.
В чем это выражается?
Я не каких уточнений не делал, я говорил о мозге в целом.
Для ChatGPT продолжают находить новое использование. Он уже и на вопросы отвечал, и сдавал экзамены, и писал дипломы, и программный код. И вот инженеры Microsoft заявили, что использовали этот чат‑бот для управления роботами и коптерами. Робототехникой бот управляет с помощью команд, предающихся с помощью естественной речи.
Специалисты Microsoft решили проверить, будет ли актуален ChatGPT для выполнения задач программирования в робототехнике. У чат‑бота это получилось, но с определённой помощью. Так исследователи указывали ChatGPT перед началом управления роботом, какой набор высокоуровневых API‑интерфейсов или библиотеку функций можно использовать. Эта библиотека может быть специфичной для конкретного робота и должна соответствовать низкоуровневым реализациям из стека управления робота.Далее по инструкциям ChatGPT начал задавать уточняющие вопросы. После этого начал потом генерировал сложный код для управления роботами. Причем для ИИ‑системы было не важно, где работает контролируемый робот, то есть в реальности или в симуляции.В итоге ИИ‑чат‑бот справился сов семи поставленными задачами. Так например, дрон сделал фото себя, для этого ChatGPT отправил коптер к зеркалу, где и был сделан снимок. Или ещё один пример, чат‑бот заставил роботизированный манипулятор, выложить логотип Microsoft из цветных деревянных кубиков.
В пятницу Meta анонсировала новую модель большого языка (LLM) на базе ИИ под названием LLaMA-13B, которая, как утверждается, может превзойти модель OpenAI GPT-3, несмотря на то, что она «в 10 раз меньше». Модели искусственного интеллекта меньшего размера могут привести к локальному запуску языковых помощников в стиле ChatGPT на таких устройствах, как ПК и смартфоны. Это часть нового семейства языковых моделей под названием «Мета AI модели большого языка», или сокращенно LLAMA.Коллекция языковых моделей LLaMA имеет размер от 7 до 65 миллиардов параметров. Для сравнения, модель OpenAI GPT-3 — базовая модель ChatGPT — имеет 175 миллиардов параметров.Meta обучала свои модели LLaMA, используя общедоступные наборы данных, такие как Common Crawl , Wikipedia и C4 , что означает, что фирма потенциально может выпустить модель и веса с открытым исходным кодом. Это драматическое новое событие в отрасли, где до сих пор крупные технологические игроки в гонке ИИ держали свои самые мощные технологии ИИ при себе.«В отличие от Chinchilla , PaLM или GPT-3, мы используем только общедоступные наборы данных, что делает нашу работу совместимой с открытым исходным кодом и воспроизводимой, в то время как большинство существующих моделей полагаются на данные, которые либо недоступны для общественности, либо недокументированы», — написал в Твиттере участник проекта Гийом . ЛамплСегодня мы выпускаем LLaMA, 4 модели фундаментов с параметрами от 7B до 65B.LLaMA-13B превосходит OPT и GPT-3 175B в большинстве тестов. LLaMA-65B конкурирует с Chinchilla 70B и PaLM 540B.Веса для всех моделей открыты и доступны по адресу https://t.co/q51f2oPZlE1/n pic.twitter.com/DPyJFBfWEq.— Гийом Лэмпл (@GuillaumeLample) 24 февраля 2023 г.Meta называет свои модели LLaMA «основополагающими моделями», что означает, что фирма намерена использовать эти модели в качестве основы для будущих, более совершенных моделей ИИ, построенных на основе этой технологии, подобно тому, как OpenAI построил ChatGPT на основе GPT-3. Компания надеется, что LLaMA будет полезен в исследованиях естественного языка и в потенциально мощных приложениях, таких как «ответы на вопросы, понимание естественного языка или понимание прочитанного, понимание возможностей и ограничений существующих языковых моделей».РекламаВ то время как первоклассная модель LLaMA (LLaMA-65B, с 65 миллиардами параметров) идет вровень с аналогичными предложениями конкурирующих лабораторий искусственного интеллекта DeepMind, Google и OpenAI, пожалуй, самая интересная разработка исходит от LLaMA. -13B, которая, как упоминалось ранее, может превзойти GPT-3 при работе на одном графическом процессоре. В отличие от требований центра обработки данных для производных GPT-3, LLaMA-13B открывает двери для производительности, подобной ChatGPT, на оборудовании потребительского уровня в ближайшем будущем.Размер параметра имеет большое значение в ИИ. Параметр — это переменная, которую модель машинного обучения использует для прогнозирования или классификации на основе входных данных. Количество параметров в языковой модели является ключевым фактором ее производительности, поскольку более крупные модели, как правило, способны решать более сложные задачи и давать более связный вывод. Однако большее количество параметров занимает больше места и требует больше вычислительных ресурсов для запуска. Таким образом, если модель может достичь тех же результатов, что и другая модель с меньшим количеством параметров, это означает значительный выигрыш в эффективности.«Теперь я думаю, что мы будем запускать языковые модели со значительной частью возможностей ChatGPT на наших собственных мобильных телефонах и ноутбуках в течение года или двух», — написал независимый исследователь ИИ Саймон Уиллисон в своем отчете . Тема Mastodon, анализирующая влияние новых моделей искусственного интеллекта Meta.В настоящее время на GitHub доступна урезанная версия LLaMA . Чтобы получить полный код и веса («выученные» обучающие данные в нейронной сети), Meta предоставляет форму, доступ к которой могут запросить заинтересованные исследователи. В настоящее время Meta не объявила о планах по более широкому выпуску модели и веса.
Ученые из Стэнфордского университета исследовали , могут ли нейронные сети, такие как GPT-3.5, справляться с тестами Theory of Mind (ToM), предназначенными для анализа когнитивной способности предсказывать действия других.Результаты показывают, что способность GPT ToM появилась спонтанно за последние пару лет, а последняя итерация дала результаты, сравнимые с результатами 9-летнего человека.
Президент России Владимир Путин объяснил, что ему не даёт спать по ночам.Глава государства отметил вопрос журналиста из Катара, который спросил о том, что президенту не даёт спать по ночам, что вызывает тревогу. Владимир Путин не стал уходить от ответа и прямо озвучил свою главную тревогу."Что больше всего тревожит - у нас есть внутренние проблемы, которые присущи России, и связаны они прежде всего с проблемами демографии", - сказал он.Президент напомнил о том, что в России уже было два спада в демографическом развитии. Первый произошёл во времена Великой Отечественной войны, а второй - после развала Советского Союза. По словам Путина, самый низкий уровень рождаемости пришёлся на 1999 год - 1 200 000 человек."Эта проблема приобрела системообразующий, экономический характер в связи с отсутствием нужного количества рук на рынке труда", - отметил глава государства.
замена рабочих людей на рабочий ИИ будет экономически очень выгодна (а значит произойдёт быстро).
Это заселение территории людьми. Если не будет этого заселения, территория окажется бесхозной, неуправляемой, неохраняемой, а значит, её просто могут отжать другие страны.
Так вот это самое интересное - обучить сеть работать с объектами реального мира (а не только с текстами). Если удастся объединить одно с другим, то это уже вполне заявка на сильный ИИ.
Цитата: Olweg от 25 Фев 2023 [16:42:54]Так вот это самое интересное - обучить сеть работать с объектами реального мира (а не только с текстами). Если удастся объединить одно с другим, то это уже вполне заявка на сильный ИИ.Уже сделали
Поскольку модель построена для генерации текста, Chat GPT не может строго создавать изображения. Модель, к сожалению, не имеет возможности выполнять генерацию пикселей.Однако еще не все потеряно. Согласно AI VATAPI Chat GPT может создавать текстовое описание, которое затем может быть использовано для генерации изображений – с использованием синтеза текста в изображение.
Во-первых необходимо честно признать, что президент информирован гораздо лучше чем мы (участники ВЖР). Из этого следует, что раз уж мы понимаем, что в ближайшие 10-20 лет с развитием ИИ, станет возможно заменить подавляющее большинство людей искусственным интеллектом, то Путин это точно знает.
Т.е. в этом веке очевидно произойдёт лавинообразная замена людей на роботов с ИИ.И Россия имеет шанс стать электронно-интеллектуальной сверхдержавой, т.к. Россия чрезвычайно богата и на источники электроэнергии, и на вечную мерзлоту для охлаждения суперкомпьютеров с ИИ.
обучить сеть работать с объектами реального мира (а не только с текстами). Если удастся объединить одно с другим, то это уже вполне заявка на сильный ИИ.
Будет заселение территории роботами, которые будут в достаточной степени обеспечены сенсорами, чтобы замечать весь непорядок, происходящий вокруг.