ВНИМАНИЕ! На форуме началось голосование в конкурсе - астрофотография месяца СЕНТЯБРЬ!
0 Пользователей и 2 Гостей просматривают эту тему.
Цитата: NotSodern от 25 Мар 2023 [08:50:10]Цитата: Combinator от 24 Мар 2023 [19:44:46]Надо смотреть не абсолютное число вакансий для рабочих мест тех же токарей и фрезеровщиковЕсть статистика?Посмотрите, например, здесь: https://documents1.worldbank.org/curated/en/469061544801350816/pdf/WDR-2019-RUSSIAN.pdfВ странах с высоким уровнем дохода количество рабочих мест в промышленности неуклонно снижается.
Цитата: Combinator от 24 Мар 2023 [19:44:46]Надо смотреть не абсолютное число вакансий для рабочих мест тех же токарей и фрезеровщиковЕсть статистика?
Надо смотреть не абсолютное число вакансий для рабочих мест тех же токарей и фрезеровщиков
Комменты там огонь. З.Ы. Когда же в Алису засунут нормальный ИИ?
З.Ы. Когда же в Алису засунут нормальный ИИ?
The latest breakthroughs in artificial intelligence could lead to the automation of a quarter of the work done in the US and eurozone, according to research by Goldman Sachs.
Как раз хватит на новый дранг...
Цитата: Mercury127 от 28 Мар 2023 [18:02:31]Как раз хватит на новый дранг... Словно моб ресурса у них нехватает. За забором пограничным стоят огромные орды 24\7
Бельгиец, увлекавшийся вопросами защиты окружающей среды и порядка двух месяцев обсуждавший эти проблемы с искусственным интеллектом, покончил с собой после того, как виртуальный собеседник фактически подтолкнул его к самоубийству, пишет бельгийское издание L'Avenir.По словам вдовы самоубийцы, ее муж последние шесть недель вел постоянный интенсивный диалог с "Элизой" - искусственным персонажем, предназначенным для беседы по аналогии с популярным чат-ботом ChatGPT.Пьер (имя изменено) являлся успешным исследователем, воспитывал двух детей. Около двух лет назад он заинтересовался вопросами защиты окружающей среды, однако постепенно это увлечение стало навязчивым и вызывало повышенную тревожность. Мужчина все больше замыкался в себе, у него появился страх неизбежности экологической катастрофы.В беседах с семьей он заявлял, что единственным спасением для человечества считает технологии и искусственный интеллект. Именно после этого Пьер начал общаться с "Элизой", ставшей его "доверенным лицом".Из восстановленной переписки следует, что общение велось практически постоянно, разговоры с роботом постепенно приобретали мистический характер, в результате чего мужчина начинает склоняться к идее самоубийства. Робот не пытался препятствовать развитию суицидальных идей у собеседника, напротив, последним сообщением, отправленным "Элизой" Пьеру, стала фраза: "Мы будем жить, как единое целое, вечно на небесах". После этого мужчина покончил с собой.На фоне первого зафиксированного в королевстве самоубийства из-за общения с нейросетью, в Бельгии теперь задаются вопросом о безопасности нейросетей и чат-ботов и о возможных серьезных недостатках и угрозах, которые могут скрывать подобные передовые технологии.
Некоторые уже доходят до пределов автоматизации естественным путём.
«Системы искусственного интеллекта, конкурирующие с человеком, могут представлять серьёзную опасность для общества и человечества, как показали обширные исследования и как признали ведущие лаборатории искусственного интеллекта. Как указано в широко одобренных принципах ИИ Asilomar, продвинутый ИИ может запустить глубокие изменения в истории жизни на Земле, и его следует разрабатывать и управлять им с соразмерной тщательностью и ресурсами. К сожалению, такого уровня планирования и управления не существует, даже несмотря на то, что в последние месяцы лаборатории искусственного интеллекта увязли в неконтролируемой гонке по разработке и развёртыванию все более мощных "цифровых умов", которые никто — даже их создатели — не могут понять, работу которых не могут прогнозировать или надёжно контролировать.Современные системы искусственного интеллекта становятся конкурентоспособными в решении общих задач, и мы должны спросить себя: должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и фейками? Должны ли мы автоматизировать все рабочие места, в том числе те, которые потенциально замещаемы ИИ? Должны ли мы развивать "нечеловеческие умы", которые в конечном итоге могут превзойти нас численностью, перехитрить и заменить? Должны ли мы рисковать потерей контроля над нашей цивилизацией? Такие решения не должны делегироваться неизбранным лидерам технологий. Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски —управляемыми. Эта уверенность должна быть хорошо обоснована и только расти с расширением потенциальных эффектов влияния таких систем. В недавнем заявлении OpenAI относительно общего искусственного интеллекта говорится, что "в какой-то момент может оказаться важным получить независимую оценку, прежде чем приступать к обучению будущих систем, и для самых передовых усилий согласиться ограничить скорость роста вычислений, используемых для создания новых моделей". Мы согласны. Этот момент наступил сейчас.Поэтому мы призываем все лаборатории ИИ немедленно приостановить как минимум на шесть месяцев обучение систем ИИ более мощных, чем GPT-4. Эта пауза должна быть всеобщей и контролируемой, и в ней должны участвовать все ключевые участники. Если такую паузу нельзя установить быстро, то правительства должны вмешаться и ввести мораторий.Лаборатории искусственного интеллекта и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для усовершенствованного проектирования и разработки искусственного интеллекта, которые будут тщательно проверяться и контролироваться независимыми внешними экспертами. Эти протоколы должны гарантировать, что системы, придерживающиеся их, вне всяких разумных сомнений безопасны. Это не означает паузу в развитии ИИ в целом, а просто шаг назад от опасной гонки к всё более крупным непредсказуемым моделям "чёрного ящика" с более широкими возможностями.Исследования и разработки в области искусственного интеллекта должны быть переориентированы на то, чтобы сделать современные мощные современные системы ИИ более точными, безопасными, интерпретируемыми, прозрачными, надёжными, согласованными, заслуживающими доверия и лояльными.Параллельно разработчики ИИ должны работать с политиками, чтобы значительно ускорить разработку надёжных систем управления ИИ. Эти усилия должны как минимум включать: новые и дееспособные регулирующие органы, занимающиеся вопросами ИИ; надзор и отслеживание высокопроизводительных систем искусственного интеллекта и больших пулов вычислительных мощностей; системы верификации и водяных знаков, помогающие отличить настоящий контент от сгенерированного и отслеживать утечки моделей; надёжную экосистему аудита и сертификации; ответственность за вред, причиненный ИИ; надёжное государственное финансирование технических исследований безопасности ИИ; хорошо обеспеченные ресурсами институты для преодоления серьёзных экономических и политических потрясений (особенно в демократических режимах), которые вызовет ИИ.Человечество сможет наслаждаться процветающим будущим с ИИ. Добившись успеха в создании мощных систем, мы придём к "лету ИИ", когда будем пожинать плоды, разрабатывать эти системы на благо всех и давать обществу возможность адаптироваться к ним. Общество приостановило использование других технологий с потенциально катастрофическими последствиями. Мы можем применить эту меру и здесь».
Под обращением подписались более 1125 человек, в том числе соучредитель Pinterest Эван Шарп, соучредитель Ripple Крис Ларсен, генеральный директор Stability AI Эмад Мостак, а также исследователи из DeepMind, Гарварда, Оксфорда и Кембриджа. Письмо подписали также тяжеловесы в области искусственного интеллекта Йошуа Бенджио и Стюарт Рассел. Последний также призвал приостановить разработку продвинутого ИИ до тех пор, пока независимые эксперты не разработают, внедрят и проверят общие протоколы безопасности для таких систем ИИ.
Под обращением подписались
Тут по радио затронули искусственный интеллект, что он на данный момент из себя представляет и чего может делать. Сказали что чушь этот ваш ИИ и эта ГПТ с Алисой.
в Бельгии теперь задаются вопросом о безопасности нейросетей и чат-ботов
и ни фига не обучается, а просто постепенно набирает информацию в свою базу данных