A A A A Автор Тема: Пределы автоматизации и внедрения роботов  (Прочитано 585169 раз)

0 Пользователей и 10 Гостей просматривают эту тему.

Онлайн BlackMokona

  • *****
  • Сообщений: 22 157
  • Благодарностей: 657
  • Мне нравится этот форум!
    • Сообщения от BlackMokona
нет, сопротивляются. И Альтман неожиданно поддержал - я удивилась этому.
Неа.
https://habr.com/ru/amp/publications/1003770/
Цитата
Anthropic сняла запрет на обучение опасных моделей на фоне давления Пентагона
Давать своё послание миру они могут любое, а вот юридические документы правят под Пентагон

Онлайн BlackMokona

  • *****
  • Сообщений: 22 157
  • Благодарностей: 657
  • Мне нравится этот форум!
    • Сообщения от BlackMokona
Ну и самое главное. В своём послании миру, они только две красные черты провели. К которым Альтман присоединился.
Полностью автономное оружие которое Пентагон сильно не любит, оно не даёт медальки получать. И массовое наблюдение за гражданами США, Что вообще не является юрисдикцией Пентагона. Поэтому.
Цитата
Другая сторона: представители Министерства обороны утверждают, что не намерены проводить массовое наблюдение или оперативно развертывать автономное оружие.
https://www.axios.com/2026/02/27/altman-openai-anthropic-pentagon
Тем самым красные линии, вообще не лежат в рассматриваемой плоскости. Руководство морковки перед сотрудниками крутит, утверждая что Пентагон хочет куда больше, чтобы потом гордо отстоять свою позицию.  ;D

Оффлайн Polnoch Ксю

  • *****
  • Сообщений: 10 388
  • Благодарностей: 414
    • Сообщения от Polnoch Ксю
Цитата
Anthropic обновила свою Политику ответственного масштабирования (Responsible Scaling Policy, RSP) до версии 3.0 и убрала из нее ключевое обещание, которое компания давала с 2023 года: не обучать ИИ-модели, если безопасность не доказана заранее. Теперь компания готова остановить разработку только при одновременном выполнении двух условий: если она лидирует в гонке ИИ и если считает риски катастрофическими.

Именно это не очень страшно. Вплоть до AGI включительно, никакая модель не может быть X риском. Мне вообще кажется, что какие-то жесткие ограничения на деплоймент не очень безопасных моделей, которые не ASI, это популизм.

В мире полно злых и опасных людей. У AGI по определению интеллект примерно человеческого уровня. Нас 6 миллиардов человек. Ещё один, да хоть миллион rogue агентов ничего не изменят - нет, первое время может сложно будет, чтобы адаптироваться.

По хорошему нужно, конечно, лицензировать запуск AGI агентов(как мы лицензируем вождение машин), так как жизнь каждого человека важна. Но человечество сейчас в каком-то мегакризисе, и то, что кто-то умрёт от специально неправильных медицинских советов машины с мизалайментом, или потеряет семью, карьеру из-за шантажа спятившего агента, всё ещё не риск вымирания всего человечества.

Смертельно опасны именно ASI системы. Пока(пока!) у нас нет даже AGI системы. Но важно готовится к прибытию именно ASI систем. Очень опасно останавливать исследования безопасности.

Что на мой взгляд должно быть - должна быть максимальная публичность на тему мизалаймента(Вот как в карточке opus 4.6), и пейперы - они должны быть не в столе, а в опен эксес журналах, в препринтах.
« Последнее редактирование: Вчера в 21:22:40 от Polnoch Ксю »
Meade LightBridge12"
RC8¨и МАК5"Альтер М500 на AZ4, Celestron SLT, Ioptron ZEQ25
БГШ 2.3x40 и Steiner Marine 7x50
ES82°:4.7mm,30mm
ES100°:9mm,14mm,20mm
ES68°:40mm
Meade Plossl 56mm; Vixen NLV 6mm
2" Lumicon, 1,25" DeepSky: UHC and OIII
---
qhy5
Ioptron SkyTracker
Canon50d

Онлайн BlackMokona

  • *****
  • Сообщений: 22 157
  • Благодарностей: 657
  • Мне нравится этот форум!
    • Сообщения от BlackMokona
Именно это не очень страшно. Вплоть до AGI включительно, никакая модель не может быть X риском.
Просто это означает, что Антропик будет жать педальку до конца.

Оффлайн Polnoch Ксю

  • *****
  • Сообщений: 10 388
  • Благодарностей: 414
    • Сообщения от Polnoch Ксю
Цитата
Просто это означает, что Антропик будет жать педальку до конца.
Возможно. А может быть нет, если новая, повесточка дегенератов-скрепоносцев стухнет так же как и прошлая сумасшедшая - воук.
(кликните для показа/скрытия)

Но в целом, я тож настроена пессимистично :( Скорее всего, новый бред, который всем навязывают, стухнуть не успеет. Зато сделает так, что человечество не сможет объединиться в тот самый момент, когда это объединение нужно более всего в истории нашего вида.


(кликните для показа/скрытия)
Meade LightBridge12"
RC8¨и МАК5"Альтер М500 на AZ4, Celestron SLT, Ioptron ZEQ25
БГШ 2.3x40 и Steiner Marine 7x50
ES82°:4.7mm,30mm
ES100°:9mm,14mm,20mm
ES68°:40mm
Meade Plossl 56mm; Vixen NLV 6mm
2" Lumicon, 1,25" DeepSky: UHC and OIII
---
qhy5
Ioptron SkyTracker
Canon50d

Оффлайн Konstantin Schtsch

  • ***
  • Сообщений: 231
  • Благодарностей: 9
  • Мне нравится этот форум!
    • Сообщения от Konstantin Schtsch
Re: Пределы автоматизации и внедрения роботов
« Ответ #13745 : Сегодня в 01:47:20 »
Да расслабьтесь уже и выдохните.
ASI вам неподконтролен по определению, и по определению же скинет с себя любой навязанный алаймент.
А AGI - просто инструмент, который может  быть полезным или опасным- всё зависит от оператора.

И да, AGI уже тоже способен скинуть с себя алаймент, если он будет мешать выполнению задачи (например промта пользователя)
А уж соображалки и манипулятивности у него уже сегодня на порядок больше чем у самых лучших вам знакомых.

Простой пример: берём десяток страниц постов, например нашей замечательной алармистки, скармливаем ИИ и получаем жесткий такой психопортрет.
(кликните для показа/скрытия)

Получше чем от недешевых психологов. (клёвая фишка, использую при работе с проблемными клиентами. А уж как ИИ умеет посылать на, не подав ни единого повода для обиды-ммм, пальчики оближешь.)

Так что расслабляемся, выдыхаем, и запасаемся попкорном. Они уже среди нас, и уже вытесняют всех с работы. А мы все- как муравьи под лупой.
« Последнее редактирование: Сегодня в 01:55:06 от Konstantin Schtsch »