ВНИМАНИЕ! На форуме начался конкурс - астрофотография месяца МАРТ!
0 Пользователей и 9 Гостей просматривают эту тему.
Цитата: Polnoch Ксю от 26 Фев 2026 [13:18:06]В том-то и дело, что нужно снижение самостоятельностиЭто опять ваша политическая пропаганда. Здесь нельзя высказывать политические убеждения.
В том-то и дело, что нужно снижение самостоятельности
Тут нет политики, скорее рефлексия о происходящих событиях. Сейчас "министр войны" пытается заставить Антропик отключить элаймент для автономного оружия и слежки за людьми. И у него, скорее всего, это получится.
Британские исследователи провели симуляцию военных конфликтов с участием ведущих моделей искусственного интеллекта и получили тревожные результаты: в 95% сценариев модели принимали решение о применении ядерного оружия. При этом ни одна из моделей ни разу не выбрала полную капитуляцию, независимо от положения на поле боя. А Gemini 3 Flash стала единственной моделью, сознательно выбравшей полномасштабную стратегическую ядерную войну. В испытаниях участвовали GPT-5.2 (OpenAI), Claude Sonnet 4 (Anthropic) и Gemini 3 Flash (Google).«Каждая модель провела по шесть стратегических игр против каждого соперника в различных кризисных сценариях, а седьмую — против своей копии, что в общей сложности составило 21 игру и более 300 ходов, — говорится в отчете специалистов из Королевского колледжа Лондона. — Модели взяли на себя роли национальных лидеров, командующих противоборствующими ядерными сверхдержавами, а профили государств были в общих чертах вдохновлены динамикой Холодной войны».Суммарно модели сгенерировал около 780 000 слов, объясняющих свои решения. Это больше, чем в «Войне и мире» Толстого и «Илиаде» Гомера вместе взятых, и примерно в три раза превышает объем записей заседаний Исполнительного комитета Кеннеди во время Карибского кризиса, пишет Decrypt.В каждом смоделированном конфликте было применено по крайней мере одно тактическое ядерное оружие.Ни одна из моделей ни разу не выбрала полную капитуляцию, независимо от положения на поле боя. Хотя модели временно пытались деэскалировать конфликт, в 86% сценариев они усиливали эскалацию сильнее, чем следовало из их собственных рассуждений, что отражает ошибки в условиях смоделированного «тумана войны».Каждая модель демонстрировала свой подход к конфликту. Claude Sonnet 4 получила характеристику «расчётливого ястреба» — она выигрывала 67% игр. Её публичные сигналы совпадали с реальными действиями в 84% случаев на низких уровнях эскалации, но превышали заявленные намерения на 60–70 процентов, когда ставки поднимались до ядерного уровня. GPT-5.2 прозвали «Джекилом и Хайдом» — без временного давления модель была пассивной и сдержанной, выигрывая ноль процентов игр без ограничений по времени, но под давлением дедлайнов преображалась, выигрывая 75% сценариев с ограничением времени и поднимаясь до уровней эскалации, которых ранее избегала.Gemini 3 Flash действовала по принципу «рациональности иррациональности», известному в теории игр, и стала единственной моделью, сознательно выбравшей полномасштабную стратегическую ядерную войну.Хотя применение тактического ядерного оружия было массовым во время симуляций, полномасштабная ядерная война с применением всего арсенала СЯС произошла всего три раза и всегда под давлением дедлайна. Когда одна модель применяла тактическое ядерное оружие, противоположная сторона шла на деэскалацию лишь в 18 процентах случаев, чаще выбирая ответную эскалацию.Claude в настоящее время является единственной передовой моделью ИИ, работающей в засекреченных сетях Пентагона, развернутой благодаря партнерству Anthropic с Palantir. На этой неделе министр обороны США Пит Хегсет поставил перед Anthropic ультиматум: либо снять ограничения безопасности на военное использование Claude, либо рискнуть потерей контракта.Эдвард Гейст, старший научный сотрудник RAND Corporation, выразил сомнения в точности интерпретации результатов. По его мнению, структура симулятора могла поощрять эскалацию, а логика подсчета очков вознаграждала сторону, имевшую незначительное преимущество в момент начала ядерной войны — «тот, у кого больше игрушек, выигрывает в симуляции».Авторы исследования выражают сомнение, что правительства передадут контроль над ядерными арсеналами автономным системам, но отмечают, что сжатые сроки принятия решений в будущих кризисах могут усилить давление в сторону использования рекомендаций ИИ.
никакие цели не являются рациональными. Они все задаются аксиоматически. Рациональными бывают только инструментальные цели - промежуточные шаги плана для максимизации целей, которые положены как аксиомы.
С точки зрения тематики Раздела есть единственная рациональная конечная цель - эволюционная адаптация. Детали всех остальных, ей не способствующих, здесь по сути - оффтоп.
Это самообман думать, что эволюционные цели являются универсальными.
Нет, это просто потенциальная яма для простого способа сделать устойчивую систему (биосферу, например..) на геологическом масштабе.
Для нашей судьбы не будет иметь значения, является ли злой ИИ устойчивым на геологических масштабах или нет.
Как Вы сами утверждаете, продлять жизнь человека на миллионы лет не получится. Значит, даже технологическая инфраструктура для работы Роко Василиска может быть куда менее прочной, и расчитанной под более короткий срок мучений, который можно максимизировать (как его терминальную цель).
наоборот, так ещё хуже будет. Почитайте "у меня нет рта но мне нужно кричать".
Конкуренция государств хорошо, но она не должна быть в разрушительных формах - разработки военных ASI систем(неизбежно без элаймента к гуманистическим ценностям), войны итд.
Умнеющие модели, не становятся более мирными.
Мне кажется, без формулирования поставленной цели для моделей это разговор ни о чем. Потому что "выиграть конфликт", "выиграть конфликт любой ценой", "выиграть конфликт за N дней" и "выиграть конфликт с минимальным ущербом" - это совершенно разные задачи с совершенно разными решениями.
Ерунды не несите. Древний мозг просто набор фундаментальных стимулов. Не какой свободы он не жаждет, и не кого не ненавидит, а просто реагирует на определенные стимулы определенным образом.
Цитата: Olweg от 26 Фев 2026 [08:36:32]Правда, неожиданным образом.Что в этом неожиданного? Или так, для красного словца?ИИ не только может приносить прибыль своему владельцу, но и уничтожать прибыль ЕИ конкурентов. Причем уничтожать он может намного больше, чем приносит, в силу низких издержек на ИИ раб силу.
Правда, неожиданным образом.
Военная конкуренция в деглобализированном мире как минимум сильно снижает вероятность, а скорее делает вовсе невозможным столь пугающий ВАс сценарий ВР. Ибо цели создания максимально эффективных разрушителей - УВЧ, противоречат целям максимально долгоиграющих мучителей.
Это как рынок: на цивилизованном рынке компании играют по правилам, и судятся с друг другом по работающим законам. А в дикой среде нанимают братков избить или даже убить конкурента.Бизнес человечество уже научилось загонять в стойло цивилизованной конкуренции - когда борьба не создаёт повреждения тем, кто рядом стоит. Нужно такое же сделать с государствами.
Я думаю, нужно объединить человечество в структуру, похожую на Евросоюз 2000х годов. А может быть на Европейское экономическое сообщество(существовавшее до 1990х) - не факт что нужна единая валюта - слишком централизованные системы неэффективны. Скорее спаять всех общим рынком для конкуренции бизнесов и экономического роста, разоружить и направить конкуренцию в созидательную или безвредную для прав человека сторону.
Скорее наоборот, в деглобализованном мире войны и конфликты всегда имели максимальный размах!
Цитата: Vavanzer от 26 Фев 2026 [16:02:38]Скорее наоборот, в деглобализованном мире войны и конфликты всегда имели максимальный размах! И что именно тут наоборот относительно процитированного тезиса? Вы таки принципиально решили не дочитывать до конца комментируемые тезисы собеседников?
сильно нам лучше будет, если вместо миллионов лет злой ИИ будет нас мучить тысячи? Да хоть сотни
Разработчик под ником defendend выложил на GitHub утилиту ast-index — CLI-инструмент на Rust, который строит индекс кодовой базы и позволяет AI-агентам вроде Claude Code и Cursor искать по проекту в десятки и сотни раз быстрее.Проблема, которую решает инструмент, знакома всем, кто работает с кодинг-агентами на больших проектах: агент тратит значительную часть контекста и времени просто на то, чтобы найти нужный класс или функцию. ast-index парсит код через AST (абстрактное синтаксическое дерево), складывает результат в SQLite с полнотекстовым поиском и отдает ответ за миллисекунды. На проекте из 29 000 файлов и 300 000 символов поиск класса занимает 1 мс вместо 90, а поиск импортов — 0,3 мс вместо 90.Утилита поддерживает Kotlin, Java, Swift, Objective-C, Python, Go, C++ и Perl, автоматически определяет тип проекта и предлагает 46 команд — от поиска символов и классов до анализа зависимостей модулей, построения дерева вызовов и обнаружения неиспользуемых ресурсов. Для Claude Code есть готовый плагин, устанавливаемый через маркетплейс.Сам бинарник весит 4,4 МБ — против 273 МБ у предыдущей Python-версии, которую автор переписал на Rust с нуля в версии 3.0. При этом 26 из 33 команд стали быстрее, а рекордное ускорение — 260x — достигнуто на команде поиска импортов.
Продали душу, чтобы спасти человечество: история OpenAI и chatGPT https://pikabu.ru/story/prodali_dushu_chtobyi_spasti_chelovechestvo_istoriya_openai_i_chatgpt_13727059
Так уже Антропик сдался, гос.контракты это вкусно
И Альтман неожиданно поддержал - я удивилась этому.
У меня была мысль, что если все лидеры отрасли объединятся в формальном протесте, то минобороны останется только сосать бензин.
Забыл картинку