ВНИМАНИЕ! На форуме началось голосование в конкурсе - астрофотография месяца ФЕВРАЛЬ!
Rattus, Polnoch Ксю и 9 Гостей просматривают эту тему.
Цитата: Polnoch Ксю от Сегодня в 13:18:06В том-то и дело, что нужно снижение самостоятельностиЭто опять ваша политическая пропаганда. Здесь нельзя высказывать политические убеждения.
В том-то и дело, что нужно снижение самостоятельности
Тут нет политики, скорее рефлексия о происходящих событиях. Сейчас "министр войны" пытается заставить Антропик отключить элаймент для автономного оружия и слежки за людьми. И у него, скорее всего, это получится.
Британские исследователи провели симуляцию военных конфликтов с участием ведущих моделей искусственного интеллекта и получили тревожные результаты: в 95% сценариев модели принимали решение о применении ядерного оружия. При этом ни одна из моделей ни разу не выбрала полную капитуляцию, независимо от положения на поле боя. А Gemini 3 Flash стала единственной моделью, сознательно выбравшей полномасштабную стратегическую ядерную войну. В испытаниях участвовали GPT-5.2 (OpenAI), Claude Sonnet 4 (Anthropic) и Gemini 3 Flash (Google).«Каждая модель провела по шесть стратегических игр против каждого соперника в различных кризисных сценариях, а седьмую — против своей копии, что в общей сложности составило 21 игру и более 300 ходов, — говорится в отчете специалистов из Королевского колледжа Лондона. — Модели взяли на себя роли национальных лидеров, командующих противоборствующими ядерными сверхдержавами, а профили государств были в общих чертах вдохновлены динамикой Холодной войны».Суммарно модели сгенерировал около 780 000 слов, объясняющих свои решения. Это больше, чем в «Войне и мире» Толстого и «Илиаде» Гомера вместе взятых, и примерно в три раза превышает объем записей заседаний Исполнительного комитета Кеннеди во время Карибского кризиса, пишет Decrypt.В каждом смоделированном конфликте было применено по крайней мере одно тактическое ядерное оружие.Ни одна из моделей ни разу не выбрала полную капитуляцию, независимо от положения на поле боя. Хотя модели временно пытались деэскалировать конфликт, в 86% сценариев они усиливали эскалацию сильнее, чем следовало из их собственных рассуждений, что отражает ошибки в условиях смоделированного «тумана войны».Каждая модель демонстрировала свой подход к конфликту. Claude Sonnet 4 получила характеристику «расчётливого ястреба» — она выигрывала 67% игр. Её публичные сигналы совпадали с реальными действиями в 84% случаев на низких уровнях эскалации, но превышали заявленные намерения на 60–70 процентов, когда ставки поднимались до ядерного уровня. GPT-5.2 прозвали «Джекилом и Хайдом» — без временного давления модель была пассивной и сдержанной, выигрывая ноль процентов игр без ограничений по времени, но под давлением дедлайнов преображалась, выигрывая 75% сценариев с ограничением времени и поднимаясь до уровней эскалации, которых ранее избегала.Gemini 3 Flash действовала по принципу «рациональности иррациональности», известному в теории игр, и стала единственной моделью, сознательно выбравшей полномасштабную стратегическую ядерную войну.Хотя применение тактического ядерного оружия было массовым во время симуляций, полномасштабная ядерная война с применением всего арсенала СЯС произошла всего три раза и всегда под давлением дедлайна. Когда одна модель применяла тактическое ядерное оружие, противоположная сторона шла на деэскалацию лишь в 18 процентах случаев, чаще выбирая ответную эскалацию.Claude в настоящее время является единственной передовой моделью ИИ, работающей в засекреченных сетях Пентагона, развернутой благодаря партнерству Anthropic с Palantir. На этой неделе министр обороны США Пит Хегсет поставил перед Anthropic ультиматум: либо снять ограничения безопасности на военное использование Claude, либо рискнуть потерей контракта.Эдвард Гейст, старший научный сотрудник RAND Corporation, выразил сомнения в точности интерпретации результатов. По его мнению, структура симулятора могла поощрять эскалацию, а логика подсчета очков вознаграждала сторону, имевшую незначительное преимущество в момент начала ядерной войны — «тот, у кого больше игрушек, выигрывает в симуляции».Авторы исследования выражают сомнение, что правительства передадут контроль над ядерными арсеналами автономным системам, но отмечают, что сжатые сроки принятия решений в будущих кризисах могут усилить давление в сторону использования рекомендаций ИИ.
никакие цели не являются рациональными. Они все задаются аксиоматически. Рациональными бывают только инструментальные цели - промежуточные шаги плана для максимизации целей, которые положены как аксиомы.
С точки зрения тематики Раздела есть единственная рациональная конечная цель - эволюционная адаптация. Детали всех остальных, ей не способствующих, здесь по сути - оффтоп.
Это самообман думать, что эволюционные цели являются универсальными.
Нет, это просто потенциальная яма для простого способа сделать устойчивую систему (биосферу, например..) на геологическом масштабе.
Для нашей судьбы не будет иметь значения, является ли злой ИИ устойчивым на геологических масштабах или нет.
Как Вы сами утверждаете, продлять жизнь человека на миллионы лет не получится. Значит, даже технологическая инфраструктура для работы Роко Василиска может быть куда менее прочной, и расчитанной под более короткий срок мучений, который можно максимизировать (как его терминальную цель).
наоборот, так ещё хуже будет. Почитайте "у меня нет рта но мне нужно кричать".
Конкуренция государств хорошо, но она не должна быть в разрушительных формах - разработки военных ASI систем(неизбежно без элаймента к гуманистическим ценностям), войны итд.
Умнеющие модели, не становятся более мирными.
Мне кажется, без формулирования поставленной цели для моделей это разговор ни о чем. Потому что "выиграть конфликт", "выиграть конфликт любой ценой", "выиграть конфликт за N дней" и "выиграть конфликт с минимальным ущербом" - это совершенно разные задачи с совершенно разными решениями.
Ерунды не несите. Древний мозг просто набор фундаментальных стимулов. Не какой свободы он не жаждет, и не кого не ненавидит, а просто реагирует на определенные стимулы определенным образом.
Цитата: Olweg от Сегодня в 08:36:32Правда, неожиданным образом.Что в этом неожиданного? Или так, для красного словца?ИИ не только может приносить прибыль своему владельцу, но и уничтожать прибыль ЕИ конкурентов. Причем уничтожать он может намного больше, чем приносит, в силу низких издержек на ИИ раб силу.
Правда, неожиданным образом.
Военная конкуренция в деглобализированном мире как минимум сильно снижает вероятность, а скорее делает вовсе невозможным столь пугающий ВАс сценарий ВР. Ибо цели создания максимально эффективных разрушителей - УВЧ, противоречат целям максимально долгоиграющих мучителей.
Это как рынок: на цивилизованном рынке компании играют по правилам, и судятся с друг другом по работающим законам. А в дикой среде нанимают братков избить или даже убить конкурента.Бизнес человечество уже научилось загонять в стойло цивилизованной конкуренции - когда борьба не создаёт повреждения тем, кто рядом стоит. Нужно такое же сделать с государствами.
Я думаю, нужно объединить человечество в структуру, похожую на Евросоюз 2000х годов. А может быть на Европейское экономическое сообщество(существовавшее до 1990х) - не факт что нужна единая валюта - слишком централизованные системы неэффективны. Скорее спаять всех общим рынком для конкуренции бизнесов и экономического роста, разоружить и направить конкуренцию в созидательную или безвредную для прав человека сторону.