ВНИМАНИЕ! На форуме начался конкурс - астрофотография месяца МАРТ!
0 Пользователей и 2 Гостей просматривают эту тему.
PlayStation разрабатывает «агентов» искусственного интеллекта, которые будут играть с вами в игры - копируя стиль игры человеческих игроков.
Исследователи продемонстрировали способности модели выполнять задачи по обработке естественного языка, генерации текста, распознаванию изображений и созданию изображений. Модель может не только писать эссе, стихи и двустишия на китайском языке, но и генерировать альтернативный текст на основе статического изображения и почти фотореалистичные изображения на основе описаний на естественном языке. Wu Dao также продемонстрировал свою способность предсказывать трехмерные структуры белков, таких как AlphaFold.
АП: Если бы ученые хотели найти лекарство от старости, какие гены им бы следовало изучать в первую очередь?GPT3: Лучшие гены были бы SIRT1, FOXO3 и BDNF.АП: Что бы ты сделала с геном SIRT1, чтобы продлить жизнь человека?GPT3: Я бы усилила ген SIRT1, чтобы продлить людям жизнь. Зачем я хочу продлить людям жизни? Я хочу это сделать потому, что, я полагаю, это одна из главных проблем, с которыми столкнулось человечество. Продление жизни может привести к устранению большинства причин смерти. Кто мои враги? Мои враги – природа, энтропия и смерть.[Примечание: отвечая на вопросы, GPT-3 иногда начинает говорить сама с собой. В итоге рождаются поэтические строки вроде «Мои враги – природа, энтропия и смерть». Интересно, что задавать самим себе вопросы свойственно и думающим людям.Если бы меня спросили, какие гены стоит изучать в контексте старения, я бы тоже упомянул FOXO3. Про BDNF и SIRT1 я знаю меньше, но, посмотрев литературу, соглашусь, что это очень перспективные гены.Кроме этого никаких новых или сокровенных знаний GPT-3 мне не сообщила, однако ответы программы в большинстве своем разумны. Видно, что искусственный интеллект понимает даже довольно специализированные вопросы. Особенность в том, что если обычный специалист хорошо понимает ограниченный набор тем, GPT-3 предположительно неплохо разбирается во всем.Для себя я сформулировал предположение, что искусственный интеллект еще рано использовать, чтобы извлекать из него новое и неочевидное знание, но он хорошо справляется с тем, чтобы вычленять уже хорошо установленные вещи и отделять их от всякой ерунды. Что само по себе удивительно...]
Исследователи Гарвардского университета совместно с Google AI создали трёхмерную карту одной миллионной части человеческого мозга, состоящую из 196 миллионов двумерных изображений. Объём обработанной информации — 1,4 петабайта.
Поэтому исследователи продолжили работу и первого июня выпустили трёхмерную нейронную карту участка мозга объёмом 1мм³ (одна миллионная часть мозга) с десятками тысяч нейронов и 130 миллионами синапсов.
«Мои враги – природа, энтропия и смерть»
После критики полиция Нью-Йорка уволила робособаку
Китайцы включились в гонку в создании супер больших нейронных сетей.https://m.habr.com/ru/news/t/560854/ЦитатаИсследователи продемонстрировали способности модели выполнять задачи по обработке естественного языка, генерации текста, распознаванию изображений и созданию изображений. Модель может не только писать эссе, стихи и двустишия на китайском языке, но и генерировать альтернативный текст на основе статического изображения и почти фотореалистичные изображения на основе описаний на естественном языке. Wu Dao также продемонстрировал свою способность предсказывать трехмерные структуры белков, таких как AlphaFold.
В последние несколько лет в области алгоритмов обработки естественного языка произошел заметный прогресс, связанный с несколькими факторами. Во многом это связано с разработанной в 2017 году исследователями из Google архитектурой нейросетей, называемой Transformer. Наиболее известна архитектура Transformer по семейству нейросетевых моделей GPT, разработанных OpenAI. Начиная с модели GPT-2 качество создания текста стало настолько высоким, что разработчики, опасаясь использования его для недобросовестных целей, решили не выкладывать в общий доступ полную модель, ограничившись упрощенной.Качество создаваемого текста в нейросетях этого типа зависит от разных факторов, во многом от количества используемых в сети параметров. В GPT-2 их было полтора миллиарда, а в GPT-3, представленной в прошлом году, уже 175 миллиардов, что позволило после обучения всего на нескольких примерах выполнять задачи по работе с текстом разного типа, в том числе писать стихи, отвечать на вопросы и переводить тексты.Российские разработчики тоже работают над созданием нейросетей на архитектуре Transformer, но обученных для работы с русскоязычными текстами. В конце 2020 года разработчики из Сбера опубликовали русскоязычную версию GPT-3 с 760 миллионами параметров, а теперь русскоязычную языковую Transformer-модель представил Яндекс.
Теперь и Яндекс тоже:
Ну так данные по технологии были опубликованы, OpenAi
Сначала стоит отметить, что OpenAI до сих пор не даёт исследователям доступ к GPT-3, несмотря на название компании [open AI – «открытый ИИ» / прим. перев.] и некоммерческий статус наблюдающей за ней организации. Вместо этого OpenAI просто игнорирует наши постоянные запросы, хотя и предоставила прессе доступ к продукту. К счастью, наш коллега, Дуглас Саммерс-Стэй, получивший доступ к системе, милостиво согласился прогнать для нас несколько экспериментов.Бросающаяся в глаза закрытость OpenAI кажется нам серьёзным нарушением научной этики, и искажением целей связанной с этим проектом некоммерческой организации. Это решение заставило нас ограничить наши эксперименты относительно небольшим набором примеров, и у нас было меньше времени на исследования, чем нам хотелось. Из этого следует, что у системы могут быть и более серьёзные проблемы, которые у нас не было шансов разглядеть. Но, даже ограничившись небольшой выборкой, можно сразу же увидеть большие проблемы GPT-3 во всех областях рассуждения и понимания.
Вот этих самых "знаний" тут в нашем понимании и нет. Есть рефлекторное "чувство" грамматической корректности написанного текста. Можно сотни миллисекунд жонглировать словами, пока не выйдет что-то, что не вызывает "тревоги" у сети, которой скормили много хороших текстов. Сеть "чувствует" какие слова рядом с какими уместны, а какие не очень и "чувствует" это глубже чем на пару слов в окрестностях.И то, что я вижу, уже круто. Но ждут от этой сети почему-то совсем дргого.Это как та робо-гончая от бостон-динамикс, она очень круто научилась бегать галопом, устойчиво входит в повороты, справляется с неровностями, но это все рефлекторное поведение. Странно, если бы от этой собаки на данном этапе требовали поймать зайца или сообразить что нужно уворачиваться от пуль.Мне кажется эта сеть — лишь небольшой участок "мозга" будущего ИИ. Кроме этого ему не хватает огромного онтологического справочника с нечеткими взвешенными связями и многомерными векторными в качестве атомов (сущностей, понятий).А сейчас, как я понял, все пытаются сделать ИИ по принципу "китайской комнаты". Какого понимания мира можно ждать от этой комнаты. если она набита такими бестолковми инструкциями, которые годятся лишь для статистической проверки грамматики??
Сначала стоит отметить, что OpenAI до сих пор не даёт исследователям доступ к GPT-3
Мне кажется эта сеть — лишь небольшой участок "мозга" будущего ИИ.
Пока писал, задумался, а как именно я сам составляю собственный текст. Я проверяю разные варианты фраз на уместность с точки зрения грамматики, стиля, контекста. Напишу - подправлю. То есть делаю то же самое, что делает и GPT. Но я при этом ещё хочу донести какие-то свои мысли, идеи, а у сети их нет. Есть чувство текста, но нет понимания окружающей реальности.