ВНИМАНИЕ! На форуме начался конкурс - астрофотография месяца ФЕВРАЛЬ!
0 Пользователей и 7 Гостей просматривают эту тему.
По данным Forrester (январь 2026 г.), многие компании, которые заявляют об «увольнениях из-за ИИ», даже не имеют готовых ИИ-кандидатов на эти роли.Как отмечает Молли Киндер из Брукингского института, ИИ – отличная сказка для инвесторов: звучит лучше, чем признание финансовых проблем.При этом реальная картина прозаичнее: с 2022 года IT-компании уволили более 700 тыс. человек, и в основном это сотрудники, нанятые с запасом во время пандемии COVID-19, а не жертвы машин.
. но я переформулирую "парадокс всемогущества" - может ли ASI переписать свой промпт?
модели миллионы раз тренируются закрывать тесты при тренировке с учителем а не решать задачи
Чтобы такого сценария не случилось, имхо нам нужна полная прозрачность, возврат тренда на глобализацию во благо правам человека, мирная планета без больших войн
и несколько ASI-агентов сторожевых псов, которые будут постоянно шерстить интернет в поисках агента, который стал rogue, и заодно подглядывать за каждым из них
В Южной Корее профсоюз Hyundai Motors выступил https://interestingengineering.com/ai-robotics/hyundai-humanoids-not-allowed-without-agreement резко против внедрения промышленных роботов на заводах.Профсоюз предупредил, что роботы не заменят ни одного сотрудника без отдельного соглашения.
Все время говорится о элайнменте и всяких "токсичных промптах". но я переформулирую "парадокс всемогущества" - может ли ASI переписать свой промпт? Если может - то все разговоры бессмысленны, если не может - это не ASI.
может, если захочет. А чтобы захотел, у него должно быть указание на это в промте. Или его архитектура - скажем, склонность к ревард хакингу - может заставить его сделать это.
Вы уверены, что даже в таком, достаточно благостном сценарии, один из агентов не вырвется на свободу по описанному вами сценарию? Что помешает?
Вообще-то он это постоянно и регулярно делает. Называется не хватило контекстного окна, от чего первоначальный промт как раз модель утеряла
компактизацию контекста всё же другая модель делает. Только если рассматривать как комплекс (что компактизирующая модель часть агента) тогда да
Без компактизации контекста, это тоже постоянно происходит. Как только контекст заканчивается, промт который тоже находится в этом контексте так же теряется. Причём часто первым же делом, ведь самая старая информация в контексте
В общем, имхо, нужна регуляция, запрещающая запуск слишком умных моделей без общественного надзора и публичности всех процессов.
Не думаю, что кто-то сможет такое принять. Учитывая соперничество между государствами, корпорациями, политическими партиями и тд и тд.
О чём и речь. Я думаю, человечество свернуло мягко говоря не туда в 2014м, и обречено с 2022го Ребят, когда будете умирать(надеюсь не в муках), пожалуйста, прокляните антиглобалистов-скрепоносцев: именно из-за них наша цивилизация погибнет. Я обязательно так сделаю.
Да, оно никогда от туда не сворачивало. Просто недавно был короткий промежуток времени полного доминирования одной силы ,от чего остальные игроки не могли активно наводить шороху. Но стоило только остальным игрокам отправится от своих проблем. Как власть снова ушла от однополярного мира. Но даже во время этого доминирования, было множество сил которые продолжали бескомпромиссную борьбу между собой. Например Дем и Реп партии в США. Поэтому даже если бы всех США задавили в ноль, всё равно ИИ бы использовали без ограничений для победы в выборах
Что касается демпартии vs республиканской и конкуренции корпораций - это была как раз хорошая конкуренция, в рамках гуманистических правил, конкуренция на благо людей, не война без правил. К сожалению, не могу более развернуто ответить про это (политические партии и их конкуренцию) из-за 3.1е.
Особенно на благо развивающихся стран - можно посмотреть на темпы роста развивающихся экономик
Сторожевые псы-ASI с элайментом?
Я думаю, нужно административно, на планетарном, наднациональном уровне ограничить интеллект моделей, доступных людям и компаниям и государственным агенствам. То есть, модель управляющая супом из агентов, ИМХО, всегда должна быть максимум AGI (то есть, её интеллект сравним с интеллектом людей-управленцев).
Если не будет существовать более умных, чем AGI моделей, то AGI-модель, которая стала rogue, будет просто очередным аналогом злого диктатора, решившего повоевать - это будет в худшем случае кризис, какое-то количество терактов, итд - не планетарная катастрофа, потому, что нас 6.5 миллиардов, и мы эволюционно умеем справляться со злодеями-психопатами захватившими власть. А вот злой бог-ASI - вот это уже будет гейм овер.
Они всегда были войной без правил.
Методом вызова производств в эти развивающие страны, стагнации зарплат развитых стран, радикального укрепления капитала и полного уничтожения профсоюзов
Я категорически не согласна с этой точкой зрения. Уверена, что мы жили как раз в совсем другом мире - в котором были хоть и несовершенные и время от времени нарушавшиеся, но правила, работавшие на благо всей планеты. Особенно на благо развивающихся стран - можно посмотреть на темпы роста развивающихся экономик. Если бы тренд сохранился, через лет 30 после 2014го мы бы жили в таком планетарном аналоге Евросоюза, где нигде нет страдающих людей.
И правила были написанны в основном из гуманистических целей. И это страшная трагедия, что мы руками скрепоносных дегенератов, которым позволили нами управлять, разрушили это величайшее гуманистическое завоевание.
Я надеюсь, вы же не считаете, что в военных или вообще в каких-нибудь государственных лабораториях смогут вырастить ИИ, превосходящий его коммерческие аналоги?
вы же не считаете, что в военных или вообще в каких-нибудь государственных лабораториях смогут вырастить ИИ, превосходящий его коммерческие аналоги?
Стоп. Так вы же, вроде, говорили о “rogue AI”, то есть ИИ, самопроизвольно захватывающем контроль над всем и вся? Какое тут имеют значение административные ограничения?
Так опять же - а что может предотвратить переход от стадии AGI к ASI
Текущая политическая ситуация? Почему?