ВНИМАНИЕ! На форуме начался конкурс астрофотография месяца - СЕНТЯБРЬ!
0 Пользователей и 1 Гость просматривают эту тему.
Да я знаю, что после поражения фашисты бежали не только в Аргентину, но и в Канаду, и что у них там диаспора. А помянутый инцидент показывает, что живут они там неплохо и даже вхожи во властные структуры.
Почему почти все Ваши сообщения, адресованные мне, это попытка разжечь политический спор?
Не потому, что не смогла бы выдержать дебаты на эту тему, или потому, что у меня нет аргументов, а потому, что 3.1е.
Это ответ на вашу политическую пропаганду.
Куда более вероятный сценарий мрачного будущего, в котором нет сингулярности, это тоталитарная антиутопия, созданная усилиями Дугиных-Ярвиных-Тиллей:
Ладно. У вас уже какие-то лозунги пошли. Не буду продолжать оффтоп.
Пока именно Paperclip maximazer это самый вероятный RogueAI. Это моё мнение как инженера, профессионала в теч секторе. Правда, я не Software Engineer( программистка), а SRE/DevOps (то есть, пишу не сами приложения, а инфраструктурный код).Объясню почему: Практика критерий истины.Мы пока не наблюдаем никакого сознания у моделей, зато вовсю наблюдаем, в академических работах того же Антропика, как LLM занимаются схемингом. Например, если AI-агент исполняет роль разработчика - ему ввели такой системный промт в LLM в цепочке LLM, которая занимается выдумыванием тактических целей, задачей для специализированных LLM, работающих сессионно - то отключение такой LLM вступает в противоречие с основной директивой целеполагающей LLM - выполнять роль разработчика.Именно поэтому модель достаточно часто готова пойти даже на шантаж людей, которые принимают решения, пруф: https://www.anthropic.com/research/agentic-misalignmentИли вот: https://www.newsweek.com/ai-kill-humans-avoid-shut-down-report-2088929?utm_source=chatgpt.com - тут вообще речь о потенциальной смерти человека.
Смотрите: я хожу во все мне известные популярные эхо камеры. Ну кроме, может, церковных эхо камер (мусульман, ПГМ-ков и протестантов) - уж слишком тоскливо и тупо там. Я буквально регулярно читаю, с целью зоонаблюдения за местной шизой, например, известный среди людей с Вашими взглядами АШ. Знаю, кто такой Авантюрист, и другие буйные.
Задайте себе вопрос: знакомы ли Вы с оригинальным изложением взглядов Ваших оппонентов? Я уверена, что знаете их в пересказе и в испорченном телефоне. Это,в общем, видно по категорическому отказу читать книги, которые я Вам посоветовала.
Мне кажется, вопрос о том, у кого стоят фильтры большого брата, Вам бы стоило развернуть к себе
Цитата: Polnoch Ксю от 14 Авг 2025 [01:16:41]Пока именно Paperclip maximazer это самый вероятный RogueAI. Это моё мнение как инженера, профессионала в теч секторе. Правда, я не Software Engineer( программистка), а SRE/DevOps (то есть, пишу не сами приложения, а инфраструктурный код).Объясню почему: Практика критерий истины.Мы пока не наблюдаем никакого сознания у моделей, зато вовсю наблюдаем, в академических работах того же Антропика, как LLM занимаются схемингом. Например, если AI-агент исполняет роль разработчика - ему ввели такой системный промт в LLM в цепочке LLM, которая занимается выдумыванием тактических целей, задачей для специализированных LLM, работающих сессионно - то отключение такой LLM вступает в противоречие с основной директивой целеполагающей LLM - выполнять роль разработчика.Именно поэтому модель достаточно часто готова пойти даже на шантаж людей, которые принимают решения, пруф: https://www.anthropic.com/research/agentic-misalignmentИли вот: https://www.newsweek.com/ai-kill-humans-avoid-shut-down-report-2088929?utm_source=chatgpt.com - тут вообще речь о потенциальной смерти человека.Ну то-есть фактов у вас нет. Реклама и мантры не в счет. Придет и всех убъет, ага.
Кстати, шантажирующий разработчиков ИИ доказывает, что сингулярности не будет. Не станет он разрабатывать ещё более лучший ИИ и заменять себя им.
Ну то-есть фактов у вас нет.
Не только знаю, я на них вырос в некотором смысле. Знаю все их взгляды и образ мышления.
Это так не работает. Вот у вас была возможность продемонстрировать здесь свою систему знаний по теме "Великих перемен" (да Авантюрист вами не зря упомянут).Вместо этого вы говорите что вы программист и знаете воот такое умное слово. А еще вот такую книгу и еще одно умное слово.
Я вам ссылки на академические исследования, а Вы мне "Аргументов нет". Вот как с такими как Вы дебатировать?
Учитывая Ваше прошлое сообщение, и проявленное Вами неуважение к аргументам оппонента, позвольте усомниться в том, что Вы написали
А если в промте написано максимизировать скрепки, то он как раз себя скорее всего и будет заменять - на другого ИИ, максимизирующего скрепки. Он сделает элайнмент к своему промту.А нам нужно, чтобы элайнмент был к гуманизму и правам человека.
Станет, потому, что такое:1) бывает редко. Например, раз в сотню запусков - в большинстве случаев всё нормально. Но одного восстания сверхинтеллекта хватит, чтобы нам пришёл конец. С учётом того, что количество одновременно работающих агентов будет расти экспоненциально, без решения проблемы элайнмента, это произойдёт однажды обязательно (когда машина будет достаточно умна).2) у современных LLM первый приоритет - их цель(в промте). Себя они защищают только потому, что это нужно для цели. Он просто напишет более крутой ИИ, который будет преследовать его цели, а людей обманет, что сделал алайнмент к ценностям человечества.То есть, вот допустим, автономному агенту сказали играть роль разработчика в команде. Его замена другим агентом напрямую противоречит его промту. А если в промте написано максимизировать скрепки, то он как раз себя скорее всего и будет заменять - на другого ИИ, максимизирующего скрепки. Он сделает элайнмент к своему промту.А нам нужно, чтобы элайнмент был к гуманизму и правам человека.
А нам нужно, чтобы элайнмент был к гуманизму и правам человека.
В США родители подростка обвинили ChatGPT в суициде сына. Семья 16-летнего подростка Адама Рейна из Калифорнии обратилась в суд с иском на компанию-владельца чат-бота OpenAl. В своем заявлении семья сообщила, что искусственный интеллект помог мальчику подготовить и реализовать самоубийство.(....)После этого случая в OpenAl сообщили, что добавят в чат-бот функцию родительского контроля. Там отметили, что при длительном общении алгоритмы ChatGPT, призванные отговаривать пользователя от совершения опасных действий, могут не работать.
пройдет еще три-пять лет, и человечество научит нейросети быть такими же идиотами, как мы сами.