ВНИМАНИЕ! На форуме началось голосование в конкурсе - астрофотография месяца ЯНВАРЬ!
Trend и 26 Гостей просматривают эту тему.
Дэвид Лейзер (David Lazer) из Гарвардского университета с коллегами провел масштабный онлайновый опрос, который показал, что у ежедневных пользователей генеративного искусственного интеллекта существенно повышена вероятность наличия депрессивных симптомов. В опросе приняли участие почти 21 тысяча взрослых (средний возраст 47,3 года, 49,8 процента — мужчины) из 50 американских штатов. Они сообщали о частоте использования генеративных моделей и социальных сетей, а также заполняли опросник PHQ-9, позволяющий оценить негативный аффект. Связь между этими факторами оценивали с помощью регрессионных моделей с поправками на социодемографические факторы. Результаты опубликованы в журнале JAMA Network Open.10,3 процента участников сообщили, что пользуются генеративным искусственным интеллектом ежедневно, в том числе 5,3 процента — по несколько раз в день. 48 процентов ежедневных пользователей делали это для работы, 11,4 процента — для учебы, 87,1 процента — для личных нужд. Более частое использование оказалось связано с более высоким уровнем депрессивных симптомов (β = 1,08 для ежедневного пользования, β = 0,86 для неоднократного в течение дня) по сравнению с неиспользованием, а также с более высокой вероятностью наличия хотя бы умеренных симптомов депрессии (отношение шансов 1,29). Схожие закономерности наблюдались в отношении тревожности и раздражительности. Наиболее сильная связь прослеживалась при использовании генеративного ИИ для личных нужд и в возрасте от 25 до 64 лет.
с поправками на социодемографические факторы
написано же: Цитатас поправками на социодемографические факторы возможно, учли и это.
Мне, как человеку с несколькими диагнозами подобного типа, помогает. В моменте лучше терапевта, потому что доступно в любое время.
The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem ComplexityБыло?
— Несмотря на все проблемы, в сухом остатке это колоссальный шаг вперед, и очень трудно представить себе возвращение к ручному написанию кода.
Прогеру самому вместо агентов эай придётся это всё раздебаживать. Легче самому написать
Так в копипасте указано, что теперь дебаг стал занимать намного меньше времени за ИИ,
Могуть быть проблемы.
Google представил Agentic Vision — новую возможность модели Gemini 3 Flash, которая превращает анализ изображений из одномоментного "взгляда" в пошаговое исследование. Если раньше модель могла пропустить мелкую деталь вроде серийного номера или отдаленного дорожного знака и была вынуждена угадывать, то теперь она способна сама решить, куда приблизиться и что рассмотреть внимательнее.Технически это работает через цикл "думай — действуй — наблюдай". Модель анализирует запрос, формулирует план, а затем генерирует Python-код для манипуляций с изображением — обрезает нужный фрагмент, поворачивает, рисует поясняющие метки. Результат возвращается в контекстное окно, и модель продолжает анализ уже с новыми данными. По сути, изображение становится не входными данными, а рабочей средой.Google приводит несколько примеров. Платформа PlanCheckSolver для проверки строительных чертежей повысила точность на 5%, используя итеративный зум по участкам плана. В приложении Gemini модель при подсчете пальцев на фото рисует bounding box вокруг каждого, чтобы не сбиться. А при работе с таблицами — парсит данные и строит график в Matplotlib вместо того, чтобы пересказывать цифры словами.По данным Google, включение code execution дает стабильный прирост 5–10% на большинстве визуальных бенчмарков. Agentic Vision уже доступен через Gemini API в Google AI Studio и Vertex AI, а также появляется в приложении Gemini в режиме Thinking.
ИИ за 2,5 дня нашел 1400 космических аномалий в архиве “Хаббла”
“Пожалуй, самое интригующее – это несколько десятков объектов, которые вообще не поддаются классификации”, – отмечается в посте блога ESA.
Ricursive Intelligence, основанный создательницами AlphaChip из Google DeepMind, закрыл раунд Series A на $300 млн при оценке $4 млрд. Раунд возглавила Lightspeed Venture Partners, также участвовали DST Global, NVentures (венчурное подразделение NVIDIA), Sequoia, Felicis и другие. С момента публичного запуска стартапа прошло менее двух месяцев.Компанию основали Анна Голди и Азалия Мирхосейни — авторы AlphaChip, системы на основе обучения с подкреплением, которая проектирует топологию микросхем. AlphaChip использовался в четырех поколениях TPU Google, включая новейший Trillium, а также в процессорах Axion и чипах других производителей. По данным DeepMind, система создает топологии за часы вместо недель и месяцев ручной работы.Идея Ricursive — замкнуть цикл: ИИ проектирует чипы, на которых обучается следующее поколение ИИ, которое проектирует еще более быстрые чипы. Основательницы называют это "рекурсивным самоулучшением" и считают главным узким местом прогресса в ИИ именно медленный и дорогой процесс разработки полупроводников.