ВНИМАНИЕ! На форуме начался конкурс - астрофотография месяца МАРТ!
AlexDark и 9 Гостей просматривают эту тему.
Индия строит свой AI-щит: 8 экзафлопс от G42 и Cerebras против зависимости от Запада https://ai-manual.ru/article/indiya-stroit-svoj-ai-schit-8-ekzaflops-ot-g42-i-cerebras-protiv-zavisimosti-ot-zapada/
Поддерживаю, роботы конечно прикольный кусочек будущего. Но на фоне Сингулярности, они ничтожная инновация
Агенты появились ещё летом
Все страшилки про дронов-убийц строятся на том, что им не будут противодействовать. Распознавание лиц глушится ИК засветкой за еще меньше денег, чем сам дрон, ну и против атакующих средств можно придумать средства защитные. Вспоминается фантастический рассказ про планету космических реднеков, которые параллельно с коровами и баранами разводили местных инопланетных жуков, от которых никакой практической пользы не было. Только у жуков были особо прочные надкрылья, поэтому когда очередной завоеватель галактики прилетел, то все его самолеты, ракеты и прочее разрушались, пробиваясь через рои жуков. Те же микродроны с кусочками победита или карбида кремния при достаточной плотности сделают ракеты и самолеты бесполезными. Против мелких дронов в помещениях - пылесос/вентилятор представит непреодолимое препятствие в силу физических ограничений на тягу. Это то, что придумывается сходу и очевидно. Думаю, если подумать еще - то можно пойти и дальше - лазеры непрерывные на сотни ватт уже копейки стоят, прикрутить к ним систему распознавания дронов/мух/комаров - и все. Против оптоволокна что-то типа цепных книппилей (на основе тех же дронов) может подойти. Просто сейчас пока побеждает снаряд, но завтра все может перемениться в пользу брони.
Ну так он будет создан людьми потому и людям будет подчиняться. Так же как неокортекс, лишь механизм усиления древнего мозга, так и любой ИИ будет просто усилителем мозга человеческого. Пора запомнить, любой интеллект всего лишь инструмент решения интеллектуальных задач. Если человек создает интеллект то он в него заложит задачи связанные со служением себе. Почему должно быть по другому не совсем понятно.
Вы по человечески можете говорить? Язык форума Русский!
Ошибка не может создать с высокой вероятностью устойчивое целенаправленное поведение. Это можно сделать только целенаправленным отбором.Цитата: Rattus от 26 Фев 2026 [07:46:24]Особенно это забавно выглядит в свете ксюшиной заявки на обсуждение в рамках найденных естественными науками законов природы и опоры на экспертное мнение специалистов, при том что оный специалист (с высшим краснодипломным общемедицинским образованием и учёной степенью по медицине же), имеющийся тут, насколько ему известно, в единственном экземпляре, ей не раз и не два писал, что продление индивидуальной жизни свыше считанных тысяч лет - ненаучная фонтастека. Допустим. Сильно нам лучше будет, если злой ИИ будет подвергать человека пыткам тысячи лет, вместо миллионов? Да даже если и сотни.Еще раз повторю, если вы видите какое то устойчивое сложное поведение у модели, то согласно бритве Оккама нужно делать вывод что это поведение появилось в результате намеренного труда разработчиков. Даже если сами разработчики в этом не признаются.
Особенно это забавно выглядит в свете ксюшиной заявки на обсуждение в рамках найденных естественными науками законов природы и опоры на экспертное мнение специалистов, при том что оный специалист (с высшим краснодипломным общемедицинским образованием и учёной степенью по медицине же), имеющийся тут, насколько ему известно, в единственном экземпляре, ей не раз и не два писал, что продление индивидуальной жизни свыше считанных тысяч лет - ненаучная фонтастека.
мусор на входе мусор на выходе
Не нужно из багов высасывать Василиска рокко, для это нет не каких оснований.
Потому когда я вижу что какая то модель ведет себя как будто подчинена своим собственным интересам, то я делаю самый очевидный вывод, за этим поведением стоят интересы разработчика.
Следует, отсюда...
сложность почти всегда есть результат отбора. Потому если мы эту сложность наблюдаем нужно предполагать и наличие отбора который привел к появлению этой сложности.
Этот вопрос не имеет отношения к реальности. Поскольку в реальности такая система на таком масштабе проиграет конкуренцию системе с более рациональным целеполаганием и использованием ресурсов, а скорее всего - уже на этапе разработки.
. Важно то что кто это делает намеренно
ну или как минимум за этим есть отбор какой то неведомый.
Предоставьте государствам самим разрабатывать и обучать полицейский ИИ для предотвращения преступлений с помощью ИИ и военный ИИ для отражения возможной агрессии с помощью других военных ИИ.
Цитата: Polnoch Ксю от 26 Фев 2026 [13:18:06]В том-то и дело, что нужно снижение самостоятельностиЭто опять ваша политическая пропаганда. Здесь нельзя высказывать политические убеждения.
В том-то и дело, что нужно снижение самостоятельности
Так уже Антропик сдался, гос.контракты это вкусно
У меня была мысль, что если все лидеры отрасли объединятся в формальном протесте, то минобороны останется только сосать бензин.
Anthropic обновила свою Политику ответственного масштабирования (Responsible Scaling Policy, RSP) до версии 3.0 и убрала из нее ключевое обещание, которое компания давала с 2023 года: не обучать ИИ-модели, если безопасность не доказана заранее. Теперь компания готова остановить разработку только при одновременном выполнении двух условий: если она лидирует в гонке ИИ и если считает риски катастрофическими.
Просто это означает, что Антропик будет жать педальку до конца.
, Что вообще не является юрисдикцией Пентагона.
Простой пример: берём десяток страниц постов, например нашей замечательной алармистки, скармливаем ИИ и получаем жесткий такой психопортрет.
Ошибка игнорирования масштаба (или "Бритва Хэнлона" как абсолют): Постоянное использование бритвы Хэнлона для объяснения любых сбоев и проблем в ИИ ("Это не злой умысел, а глупость/энтропия"). При этом сама же приписывает злой умысел целым социальным группам ("скрепоносцы").
Апокалиптический фатализм: Убежденность в том, что человечество обречено из-за "глупости" и "злобы" антиглобалистов
Это игнорирует принципиальную сложность (и, возможно, невозможность) формализации человеческих ценностей и гарантии их сохранения у принципиально иного, самоулучшающегося интеллекта.
Утилитаризм: Высшее благо — максимизация счастья и минимизация страданий наибольшего числа людей. Именно эта этика должна быть "прошита" в ASI.
Наивный взгляд на возможность глобального запрета: Представление о том, что в мире, полном конфликтов и недоверия
Планетарный запрет ASI: Убеждение, что единственный способ спастись — наднациональный, жестко контролируемый запрет на разработку систем, превосходящих AGI, до изобретения "идеального элаймента". Проводит прямую аналогию с контролем над ядерным оружием.Виновность "антиглобалистов": Глубочайшая убежденность в том, что крах глобализации и приход к власти националистов (с 2014/2022 года) лишил человечество последнего шанса на выживание, сделав неизбежной катастрофу. Это её личная "точка невозврата".
Перенос свойств текущих неудачников-агентов (ревард-хакинг) на будущие ASI-системы
Гиперболизация возможностей социальной инженерии ASI: Убеждение, что ASI сможет одновременно и идеально персонализированно манипулировать каждым из 8 миллиардов человек, полностью игнорирует колоссальные вычислительные и организационные сложности такой задачи, даже для сверхинтеллекта.
Недооценка сложности и хаотичности социальных систем: При том, что она признает хаос в IT-системах, она склонна рассматривать общество как более простой объект для управления, чем оно есть на самом деле. Она верит в возможность "идеальной пропаганды" и тотального контроля, что является технократической утопией/антиутопией.
Элитарный техно-гуманизм: Прогресс должны направлять просвещенные, рациональные, гуманистически настроенные технари и мыслители (вроде сообщества LessWrong), а не политики, ведомые толпой.
Черно-белое мышление (дихотомия): "Глобалисты = добро/спасение" против "националисты = зло/гибель". "Утилитаризм = решение" против "моральный релятивизм = катастрофа". "AGI = неопасен" против "ASI = смертельно опасен".
Только Пентагон никогда не требовал автономного оружия и массовой слежки за гражданами США.
Просто Трамп весь гешефт испортил