ВНИМАНИЕ! На форуме начался конкурс - астрофотография месяца ФЕВРАЛЬ!
0 Пользователей и 5 Гостей просматривают эту тему.
ИИ будут сами проектировать нужные ДНК для своих кожаных рабов.
приходишь к выводу, что в конце концов при достижении нужного уровня роботизации, люди откажутся от интимных контактов между собой, заменив эти контакты роботами. А для размножения будут использовать просто банки спермы.
Только до тех пор, пока на производство и ремонт этих роботов и обслуживание этих банков в матушке-землице достаточно цветмета, углеводородицы и 235-го урану.
Я имею ввиду биороботов. Но когда это будет?
Уже четыре тысячи лет как минимум:
ИИ был натренирован на 40 гигабайтах текста взятого из ссылок с сайта Reddit. Его задачей было научиться предсказывать следующее слово
Прикол в том, что человеку для такого же не нужны 40 гигабайт текста.
То есть вполне вероятно что нейросети - это модель взаимодействия нейронов, но сами нейроны в нейросети - сильно проще, чем биологические нейроны. А это прибавляет может порядок, может несколько к требованиям по сложности и ставит под вопрос саму возможность распараллеливания таких вычислений.
Более правильно сказать что мозг человека уже обучен во многом и в результате эволюции, и в результате обработки собственного опыта. То есть человеческая нейронная сеть обучена учиться, в отличии от компьютерных сетей которые все с нуля проходят.
Принципиальная разница, по моему - в том, что человеческий мозг работает с разными уровнями абстракции, а современные нейронные сети не обобщают опыт. То есть модель мира в них очень примитивна.
Я немного не то имел в виду. Конечно, свёрточные нейросетки обощают, но только определённый вид опыта - если нейросеть обучить распознавать мяуканье, она не сможет его соотнести с изображением кота. Это как отдельные модули в человеческом мозгу - слуховая, зрительная кора, но пока не видно работающих систем, которые бы переводили опыт с этих модулей на более высокий уровень. Была, правда, гугловская MultiModel пару лет назад, но что-то про неё больше не слышно.
BlackMokona, а ссылками можете поделиться?
Исследователи из OpenAI создали алгоритм, который умеет создавать правдоподобные тексты и отвечать на вопросы без спецификации необходимой задачи в процессе обучения.
Не желая сдаваться, в феврале 2019 года в OpenAI увеличили свою GPT сразу в 10 раз и обучили ее на еще большем объеме текста — на 8 млн интернет страницах (суммарно на 40 Гб текста). Получившаяся таким образом сеть GPT-2 является на данный момент самой большой нейросетью, с беспрецендентным числом параметров 1.5 млрд
Итак, GPT-2 благодаря беспрецедентному размеру, оказалась способна генерировать страницы связного текста. Но самое удивительное, что задавая ей правильный вопрос (т.е. правильное начало фразы), она смогла отвечать на различные вопросы! Просто потому что продолжение такого начала является самым естественным.
Я немного не то имел в виду. Конечно, свёрточные нейросетки обощают, но только определённый вид опыта - если нейросеть обучить распознавать мяуканье, она не сможет его соотнести с изображением кота.