ВНИМАНИЕ! На форуме идет голосование в конкурсе - астрофотография месяца - АВГУСТ!
0 Пользователей и 1 Гость просматривают эту тему.
Китайские государственные СМИ.
https://top500.org/system/180160/
Можете дать ссылку?
Другими словами, полную модель и данные образца пакета можно сохранить в 40 ГБ видеопамяти графической карты A100. Таким образом, ускорение модели в основном основано на большом объеме параллелизма данных, что позволяет как можно большему количеству видеокарт участвовать в обучении и затем синхронизировать градиенты.
Таким образом, ускорение модели в основном основано на большом объеме параллелизма данных, что позволяет как можно большему количеству видеокарт участвовать в обучении и затем синхронизировать градиенты.
Это обоснование такое же интересное, как типа он много работал и потому заработал. Вообщем все большие вычислительные системы предлагают сугубо многопоточную обработку данных, почему такой общеизвестный факт преподноситься как алгоритм оптимизации связанный именно с успехами ДипСик не понятно.
Одно дело внутри одной видеокарты всё проделывать.
Ну так не кто внутри одной видеокарты модели ИИ не учат. Это всегда обучение на больших кластерах. Вопрос лишь в торм насколько они большие.
На удивление старая Tesla M40 (купленная за 10к руб на али), за счёт 24 гигов видеопамяти, быстрей генерит ответ, чем относительно свежая 3060 с 12 гиг видеопамяти.
Создали очередной супертест для ИИ.https://habr.com/ru/companies/bothub/news/876644/Всё бы хорошо, кроме одного.Решить этот тест ни один человек в мире тоже не сможет, потребуется большой коллектив высококлассных профессионалов
Получается, для рабочих серверов ИИ нужны, слабые чипы с большими объемами памяти?
У меня такие надежды на "дипсик" были..! Я уж его наводил-наводил на редконаходимые мануалы, а он, оказывается, даже об их существовании не знает