ВНИМАНИЕ! На форуме началось голосование в конкурсе - астрофотография месяца ФЕВРАЛЬ!
0 Пользователей и 10 Гостей просматривают эту тему.
нет, сопротивляются. И Альтман неожиданно поддержал - я удивилась этому.
Anthropic сняла запрет на обучение опасных моделей на фоне давления Пентагона
Другая сторона: представители Министерства обороны утверждают, что не намерены проводить массовое наблюдение или оперативно развертывать автономное оружие.
Anthropic обновила свою Политику ответственного масштабирования (Responsible Scaling Policy, RSP) до версии 3.0 и убрала из нее ключевое обещание, которое компания давала с 2023 года: не обучать ИИ-модели, если безопасность не доказана заранее. Теперь компания готова остановить разработку только при одновременном выполнении двух условий: если она лидирует в гонке ИИ и если считает риски катастрофическими.
Именно это не очень страшно. Вплоть до AGI включительно, никакая модель не может быть X риском.
Просто это означает, что Антропик будет жать педальку до конца.
, Что вообще не является юрисдикцией Пентагона.