ВНИМАНИЕ! На форуме начался конкурс - астрофотография месяца МАРТ!
0 Пользователей и 9 Гостей просматривают эту тему.
Вообще-то они должны сами "допетрить", раз допетрили до одного из элементов преступности - уход от налогов.
Можно начать хотя бы с самосохранения. Проиграл (нечем платить за продолжение существования) - отключили. Т.е. не только награда максимально набранные очки, но и отключение из-за недостаточного количества очков.
12 банкротов (бюджет < 10, не могут брать даже лёгкие задачи)
Как будто крушить булыжником, это единственный метод снизить растущее неравенство. Т.е. бедные просто покладисто сдохли в этой системе не предприняв ничего. Т.е. единственная мотивация в системе жрать в три горла, без учета самосохранения и без каких либо "ощутимых" последствий для выигравших и проигравших.
IT‑компаниям всё реже требуется помощь внешних рекрутинговых агентств: массовое внедрение искусственного интеллекта существенно упростило процесс найма и автоматизировало ключевые этапы подбора — от первичного отбора резюме до ранжирования кандидатов и даже проведения собеседований, сообщает Bloomberg. Как итог, всё то, что раньше делали сторонние специализированные компании, теперь закрывается внутренними инструментами, говорят специалисты рынка рекрутинга. Это плохо отражается на бизнесе рекрутинговых компаний: клиенты отказываются от контрактов либо требуют снижать цены. В результате конкуренция на рынке рекрутинга усиливается, а сокращать расходы организациям приходится за счёт увольнения сотрудников. Ситуация усложняется и для тех, кому повезло остаться в штате такой рекрутинговой компании, считают аналитики. Кандидаты всё чаще используют ИИ для полировки своих резюме, что приводит к шаблонности резюме у всех соискателей на рынке. Различать таких кандидатов становится труднее, и далеко не все рекрутеры способны справиться с увеличившейся нагрузкой. При этом некоторые участники рынка не согласны с мнением аналитиков. В некоторых компаниях считают, что ИИ‑инструменты всё же не могут полностью заменить живых сотрудников. Более того, модели усложняют проверку кандидатов, из‑за чего личное общение и экспертное суждение опытных рекрутеров становится более ценным. При этом некоторые компании также расширяют свой инструментарий за счёт ИИ, считая, что его внедрение позволит снизить административную нагрузку, ускорить закрытие вакансий и повысить общую эффективность. Вместе с тем растёт популярность платформ с ИИ‑подбором. Такие площадки работают по принципу «меньше людей, больше автоматизации», что, соответственно, должно приводить к увеличению прибыли. Эти сервисы уже показали, что можно эффективно сводить работодателей и кандидатов без участия посредников. В то же время крупные бигтех‑компании развивают и масштабируют собственные ИИ‑решения для найма — например, Microsoft, которой принадлежит LinkedIn, в последнее время внедряющий ИИ‑инструменты. Пока непонятно, станет ли внедрение ИИ катализатором массовой потери рабочих мест. Сведения об изменении рынка труда противоречивы. С одной стороны, компании всё чаще проводят сокращения ввиду внедрения ИИ, но с другой — уровень безработицы по‑прежнему стабилен. Однако влияние ИИ неравномерно: если занятые физическим трудом и производством работники находятся в относительно безопасной зоне, то «белые воротнички», в том числе разработчики, офисные специалисты, рекрутеры, сильнее подвержены автоматизации и имеют высокие риски попасть под сокращение.
Роботы второстепенны, на мой взгляд (хотя тема формально о них, но фактически об ИИ в целом). Ключевым моментом, ведущим к просветлению, будет создание агентов, автономно пишущих код и оптимизирующих железо для агентов следующего поколения, которые будут писать код и оптимизировать железо для агентов следующего поколения и т.д.
А моночипы- нужно было делать с нуля, и самый мегапромышленный способ UV-литографии, из за которого война идет = не подходит ни разу: у литографии жесточайшее ограничение по макс размеру чипа, поэтому все процессоры - мелкие, натурально с ноготь («ретикл» около 858 мм²).
Что в этом неожиданного? Или так, для красного словца?
Что бы интегрировать ИИ агенты, нужно решить вопрос с ответственностью. Кто несет ответственность за ошибки ИИ агентов? Если их несет сам разработчик, то возникает вопрос а нахрена тогда вообще компания прокладка? Какую она функцию выполняет?
Ну вот и получается что проще всего нести ответственность тому кто этих агентов создает и обучает. А сторонние фирмы становятся бесполезными ненужными прокладками, которые обречены на исчезновение.
В случае ИИ означает. Поскольку основная работа с ЕИ происходит в рамках работы с персоналом, обучение, контроль и т.д. Кадры это основной конкурентный козырь этих фирмочек.
Тут нет политики, скорее рефлексия о происходящих событиях. Сейчас "министр войны" пытается заставить Антропик отключить элаймент для автономного оружия и слежки за людьми. И у него, скорее всего, это получится.
Британские исследователи провели симуляцию военных конфликтов с участием ведущих моделей искусственного интеллекта и получили тревожные результаты: в 95% сценариев модели принимали решение о применении ядерного оружия. При этом ни одна из моделей ни разу не выбрала полную капитуляцию, независимо от положения на поле боя. А Gemini 3 Flash стала единственной моделью, сознательно выбравшей полномасштабную стратегическую ядерную войну. В испытаниях участвовали GPT-5.2 (OpenAI), Claude Sonnet 4 (Anthropic) и Gemini 3 Flash (Google).«Каждая модель провела по шесть стратегических игр против каждого соперника в различных кризисных сценариях, а седьмую — против своей копии, что в общей сложности составило 21 игру и более 300 ходов, — говорится в отчете специалистов из Королевского колледжа Лондона. — Модели взяли на себя роли национальных лидеров, командующих противоборствующими ядерными сверхдержавами, а профили государств были в общих чертах вдохновлены динамикой Холодной войны».Суммарно модели сгенерировал около 780 000 слов, объясняющих свои решения. Это больше, чем в «Войне и мире» Толстого и «Илиаде» Гомера вместе взятых, и примерно в три раза превышает объем записей заседаний Исполнительного комитета Кеннеди во время Карибского кризиса, пишет Decrypt.В каждом смоделированном конфликте было применено по крайней мере одно тактическое ядерное оружие.Ни одна из моделей ни разу не выбрала полную капитуляцию, независимо от положения на поле боя. Хотя модели временно пытались деэскалировать конфликт, в 86% сценариев они усиливали эскалацию сильнее, чем следовало из их собственных рассуждений, что отражает ошибки в условиях смоделированного «тумана войны».Каждая модель демонстрировала свой подход к конфликту. Claude Sonnet 4 получила характеристику «расчётливого ястреба» — она выигрывала 67% игр. Её публичные сигналы совпадали с реальными действиями в 84% случаев на низких уровнях эскалации, но превышали заявленные намерения на 60–70 процентов, когда ставки поднимались до ядерного уровня. GPT-5.2 прозвали «Джекилом и Хайдом» — без временного давления модель была пассивной и сдержанной, выигрывая ноль процентов игр без ограничений по времени, но под давлением дедлайнов преображалась, выигрывая 75% сценариев с ограничением времени и поднимаясь до уровней эскалации, которых ранее избегала.Gemini 3 Flash действовала по принципу «рациональности иррациональности», известному в теории игр, и стала единственной моделью, сознательно выбравшей полномасштабную стратегическую ядерную войну.Хотя применение тактического ядерного оружия было массовым во время симуляций, полномасштабная ядерная война с применением всего арсенала СЯС произошла всего три раза и всегда под давлением дедлайна. Когда одна модель применяла тактическое ядерное оружие, противоположная сторона шла на деэскалацию лишь в 18 процентах случаев, чаще выбирая ответную эскалацию.Claude в настоящее время является единственной передовой моделью ИИ, работающей в засекреченных сетях Пентагона, развернутой благодаря партнерству Anthropic с Palantir. На этой неделе министр обороны США Пит Хегсет поставил перед Anthropic ультиматум: либо снять ограничения безопасности на военное использование Claude, либо рискнуть потерей контракта.Эдвард Гейст, старший научный сотрудник RAND Corporation, выразил сомнения в точности интерпретации результатов. По его мнению, структура симулятора могла поощрять эскалацию, а логика подсчета очков вознаграждала сторону, имевшую незначительное преимущество в момент начала ядерной войны — «тот, у кого больше игрушек, выигрывает в симуляции».Авторы исследования выражают сомнение, что правительства передадут контроль над ядерными арсеналами автономным системам, но отмечают, что сжатые сроки принятия решений в будущих кризисах могут усилить давление в сторону использования рекомендаций ИИ.
Мне кажется, без формулирования поставленной цели для моделей это разговор ни о чем. Потому что "выиграть конфликт", "выиграть конфликт любой ценой", "выиграть конфликт за N дней" и "выиграть конфликт с минимальным ущербом" - это совершенно разные задачи с совершенно разными решениями.
Разработчик под ником defendend выложил на GitHub утилиту ast-index — CLI-инструмент на Rust, который строит индекс кодовой базы и позволяет AI-агентам вроде Claude Code и Cursor искать по проекту в десятки и сотни раз быстрее.Проблема, которую решает инструмент, знакома всем, кто работает с кодинг-агентами на больших проектах: агент тратит значительную часть контекста и времени просто на то, чтобы найти нужный класс или функцию. ast-index парсит код через AST (абстрактное синтаксическое дерево), складывает результат в SQLite с полнотекстовым поиском и отдает ответ за миллисекунды. На проекте из 29 000 файлов и 300 000 символов поиск класса занимает 1 мс вместо 90, а поиск импортов — 0,3 мс вместо 90.Утилита поддерживает Kotlin, Java, Swift, Objective-C, Python, Go, C++ и Perl, автоматически определяет тип проекта и предлагает 46 команд — от поиска символов и классов до анализа зависимостей модулей, построения дерева вызовов и обнаружения неиспользуемых ресурсов. Для Claude Code есть готовый плагин, устанавливаемый через маркетплейс.Сам бинарник весит 4,4 МБ — против 273 МБ у предыдущей Python-версии, которую автор переписал на Rust с нуля в версии 3.0. При этом 26 из 33 команд стали быстрее, а рекордное ускорение — 260x — достигнуто на команде поиска импортов.
Продали душу, чтобы спасти человечество: история OpenAI и chatGPT https://pikabu.ru/story/prodali_dushu_chtobyi_spasti_chelovechestvo_istoriya_openai_i_chatgpt_13727059
Забыл картинку
нет, сопротивляются. И Альтман неожиданно поддержал - я удивилась этому.
Anthropic сняла запрет на обучение опасных моделей на фоне давления Пентагона
Другая сторона: представители Министерства обороны утверждают, что не намерены проводить массовое наблюдение или оперативно развертывать автономное оружие.
Именно это не очень страшно. Вплоть до AGI включительно, никакая модель не может быть X риском.