ВНИМАНИЕ! На форуме завершено голосование в конкурсе - астрофотография месяца ДЕКАБРЬ!
0 Пользователей и 1 Гость просматривают эту тему.
В юмористическом мультфильме Южный парк обыгрывали эту тему. Там парни общались со своими пождужками через GPT. Получали простынку от подружки, скармливали её нейросети и отсылали ответ не заморачиваясь и экономя своё время.
Илья Суцкевер, соучредитель лабораторий искусственного интеллекта Safe Superintelligence (SSI) и OpenAI, недавно сообщил агентству Reuters, что результаты масштабирования предварительного обучения — этапа обучения модели искусственного интеллекта, которая использует огромный объем немаркированных данных для понимания языковых моделей и структур — вышли на плато....По словам трех источников, знакомых с конфиденциальной информацией, исследователи из крупных лабораторий ИИ столкнулись с задержками и разочаровывающими результатами в гонке за выпуск большой языковой модели, которая превзойдет модель OpenAI GPT-4, существующую почти два года....Чтобы преодолеть эти проблемы, исследователи изучают «test-time compute», технику, которая улучшает существующие модели ИИ во время так называемой фазы «инференса», когда модель используется. Например, вместо того, чтобы сразу выбирать один ответ, модель может генерировать и оценивать несколько возможностей в режиме реального времени, в конечном итоге выбирая лучшую....«Оказалось, что если заставить бота думать всего 20 секунд во время игры в покер, это даст такой же прирост производительности, как и масштабирование модели в 100 000 раз и ее обучение в 100 000 раз дольше», — сказал Ноам Браун, исследователь из OpenAI, работавший над o1, на конференции TED AI в Сан-Франциско в прошлом месяце....На вопрос о возможном влиянии на спрос на ее продукцию Nvidia указала на недавние презентации компании о важности техники, лежащей в основе модели o1. Ее генеральный директор Дженсен Хуанг говорил о растущем спросе на использование ее чипов для инференса.«Теперь мы открыли второй закон масштабирования, и это закон масштабирования во время инференса... Все эти факторы привели к тому, что спрос на Blackwell невероятно высок», — сказал Хуан в прошлом месяце на конференции в Индии, имея в виду новейший чип искусственного интеллекта компании.
Да, показания расходятся ) Одно другому не противоречит, на самом деле. OpenAI сейчас могут больше внимания уделять линейке o1. Скоро вроде должны выпустить полноценную версию. А GPT-5, даже если она и не оправдала надежд, в сочетании с o1 (или с какой-нибудь o2), думаю, сможет показать интересные результаты. Вообще, на мой взгляд, все ингредиенты для AGI уже существуют. Осталось только их прокачать и правильно объединить.
На сколько помню, Альтман обещал очередную модель ближе к Рождеству.
Техносингулярности сбылись, бледнотикам достаточно уложиться с настоящим AGI/ASI ~ в четыре следующих года.
ОК: AGI - к 2027, ASI и ТС - не позднее зимнего солнцестояния 2029. Да будет такЪ.СР! 8/64. Byte Power!
«Оказалось, что если заставить бота думать всего 20 секунд во время игры в покер, это даст такой же прирост производительности, как и масштабирование модели в 100 000 раз и ее обучение в 100 000 раз дольше», — сказал Ноам Браун, исследователь из OpenAI, работавший над o1, на конференции TED AI в Сан-Франциско в прошлом месяце.
«Теперь мы открыли второй закон масштабирования, и это закон масштабирования во время инференса... Все эти факторы привели к тому, что спрос на Blackwell невероятно высок», — сказал Хуан в прошлом месяце на конференции в Индии, имея в виду новейший чип искусственного интеллекта компании.
Чтобы подчеркнуть этот момент, Браун поделился историей из своей докторской карьеры, когда он работал над Libratus — искусственным интеллектом для игры в покер, который, как известно, победил лучших игроков-людей в 2017 году.«Оказалось, что если бы бот думал всего 20 секунд в покерной руке, то производительность повысилась бы так же, как если бы он увеличил модель в 100 000 раз и обучал ее в 100 000 раз дольше», — сказал Браун. «Когда я получил этот результат, я буквально подумал, что это ошибка. За первые три года моей докторской диссертации мне удалось увеличить масштаб этих моделей в 100 раз. Я гордился этой работой. Я написал несколько статей о том, как сделать такое масштабирование, но довольно быстро понял, что все это будет сноской по сравнению с этой масштабируемой системой, которая думает дважды».
Случайность?
Интересно - ИИ, возможно, удалось предсказать итоги американских выборов.
Учитывая что первый раз об этом слышу, возможно мошеничество. Поэтому пусть следующие предскажут
В архив выложено 3 ноября, за пару дней до.