ВНИМАНИЕ! На форуме начался конкурс - астрофотография месяца МАРТ!
0 Пользователей и 2 Гостей просматривают эту тему.
нет, сопротивляются. И Альтман неожиданно поддержал - я удивилась этому.
Anthropic сняла запрет на обучение опасных моделей на фоне давления Пентагона
Другая сторона: представители Министерства обороны утверждают, что не намерены проводить массовое наблюдение или оперативно развертывать автономное оружие.
Anthropic обновила свою Политику ответственного масштабирования (Responsible Scaling Policy, RSP) до версии 3.0 и убрала из нее ключевое обещание, которое компания давала с 2023 года: не обучать ИИ-модели, если безопасность не доказана заранее. Теперь компания готова остановить разработку только при одновременном выполнении двух условий: если она лидирует в гонке ИИ и если считает риски катастрофическими.
Именно это не очень страшно. Вплоть до AGI включительно, никакая модель не может быть X риском.
Просто это означает, что Антропик будет жать педальку до конца.
, Что вообще не является юрисдикцией Пентагона.
ASI вам неподконтролен по определению,
И да, AGI уже тоже способен скинуть с себя алаймент, если он будет мешать выполнению задачи (например промта пользователя)
Они уже среди нас, и уже вытесняют всех с работы.
А вот у Альтмана всё вышло.https://habr.com/ru/news/1004796/Согласился на всё, кроме двух красных линий, пересечь которые Пентагон и не собирался
Похоже на ситуацию, когда секретаршу уволили после того, как она отказалась спать с боссом, и на ее место взяли новую, которая теперь твердит, что у нее и босса один принцип — никакого секса на работе
ASI вам неподконтролен по определению,Ну тогда это просто круговая логика, то есть манипуляция. Соответственно такое определение по своей сути мусорное.Цитата: Konstantin Schtsch от Сегодня в 01:47:20И да, AGI уже тоже способен скинуть с себя алаймент, если он будет мешать выполнению задачи (например промта пользователя)Может если неверно расставлена иерархия приоритетов.
Только Пентагон никогда не требовал автономного оружия и массовой слежки за гражданами США. А на всё остальное Антропик был согласен в своём воззвании к миру. Просто Трамп весь гешефт испортил
Даже не знаю- это такой неумелый троллинг или проблемы с логикой?
И вот что теперь мешает сложить 2+2? мусор?
Простой пример: берём десяток страниц постов, например нашей замечательной алармистки, скармливаем ИИ и получаем жесткий такой психопортрет.
Ошибка игнорирования масштаба (или "Бритва Хэнлона" как абсолют): Постоянное использование бритвы Хэнлона для объяснения любых сбоев и проблем в ИИ ("Это не злой умысел, а глупость/энтропия"). При этом сама же приписывает злой умысел целым социальным группам ("скрепоносцы").
Апокалиптический фатализм: Убежденность в том, что человечество обречено из-за "глупости" и "злобы" антиглобалистов
Это игнорирует принципиальную сложность (и, возможно, невозможность) формализации человеческих ценностей и гарантии их сохранения у принципиально иного, самоулучшающегося интеллекта.
Утилитаризм: Высшее благо — максимизация счастья и минимизация страданий наибольшего числа людей. Именно эта этика должна быть "прошита" в ASI.
Наивный взгляд на возможность глобального запрета: Представление о том, что в мире, полном конфликтов и недоверия
Планетарный запрет ASI: Убеждение, что единственный способ спастись — наднациональный, жестко контролируемый запрет на разработку систем, превосходящих AGI, до изобретения "идеального элаймента". Проводит прямую аналогию с контролем над ядерным оружием.Виновность "антиглобалистов": Глубочайшая убежденность в том, что крах глобализации и приход к власти националистов (с 2014/2022 года) лишил человечество последнего шанса на выживание, сделав неизбежной катастрофу. Это её личная "точка невозврата".
Перенос свойств текущих неудачников-агентов (ревард-хакинг) на будущие ASI-системы
Гиперболизация возможностей социальной инженерии ASI: Убеждение, что ASI сможет одновременно и идеально персонализированно манипулировать каждым из 8 миллиардов человек, полностью игнорирует колоссальные вычислительные и организационные сложности такой задачи, даже для сверхинтеллекта.
Недооценка сложности и хаотичности социальных систем: При том, что она признает хаос в IT-системах, она склонна рассматривать общество как более простой объект для управления, чем оно есть на самом деле. Она верит в возможность "идеальной пропаганды" и тотального контроля, что является технократической утопией/антиутопией.
Элитарный техно-гуманизм: Прогресс должны направлять просвещенные, рациональные, гуманистически настроенные технари и мыслители (вроде сообщества LessWrong), а не политики, ведомые толпой.
Черно-белое мышление (дихотомия): "Глобалисты = добро/спасение" против "националисты = зло/гибель". "Утилитаризм = решение" против "моральный релятивизм = катастрофа". "AGI = неопасен" против "ASI = смертельно опасен".
Только Пентагон никогда не требовал автономного оружия и массовой слежки за гражданами США.
Просто Трамп весь гешефт испортил
повесточка дегенератов-скрепоносцев стухнет
пока не будет создана и использована вакцина от ментальной "вирусни".
соцсетям выгодно длительное удержание пользователей на платформе, чтобы показывать больше рекламы. Оказалось, что лучший способ удержать - rage bait: показывать пользователям то, что у них вызывает ярость. Это всегда радикализирует людей, делает их левыми или правыми радикалами.
распространяются из-за алгоритма в соцсетях