ВНИМАНИЕ! На форуме начался конкурс - астрофотография месяца АПРЕЛЬ!
0 Пользователей и 1 Гость просматривают эту тему.
«Системы искусственного интеллекта, конкурирующие с человеком, могут представлять серьёзную опасность для общества и человечества, как показали обширные исследования и как признали ведущие лаборатории искусственного интеллекта. Как указано в широко одобренных принципах ИИ Asilomar, продвинутый ИИ может запустить глубокие изменения в истории жизни на Земле, и его следует разрабатывать и управлять им с соразмерной тщательностью и ресурсами. К сожалению, такого уровня планирования и управления не существует, даже несмотря на то, что в последние месяцы лаборатории искусственного интеллекта увязли в неконтролируемой гонке по разработке и развёртыванию все более мощных "цифровых умов", которые никто — даже их создатели — не могут понять, работу которых не могут прогнозировать или надёжно контролировать.Современные системы искусственного интеллекта становятся конкурентоспособными в решении общих задач, и мы должны спросить себя: должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и фейками? Должны ли мы автоматизировать все рабочие места, в том числе те, которые потенциально замещаемы ИИ? Должны ли мы развивать "нечеловеческие умы", которые в конечном итоге могут превзойти нас численностью, перехитрить и заменить? Должны ли мы рисковать потерей контроля над нашей цивилизацией? Такие решения не должны делегироваться неизбранным лидерам технологий. Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски —управляемыми. Эта уверенность должна быть хорошо обоснована и только расти с расширением потенциальных эффектов влияния таких систем. В недавнем заявлении OpenAI относительно общего искусственного интеллекта говорится, что "в какой-то момент может оказаться важным получить независимую оценку, прежде чем приступать к обучению будущих систем, и для самых передовых усилий согласиться ограничить скорость роста вычислений, используемых для создания новых моделей". Мы согласны. Этот момент наступил сейчас.Поэтому мы призываем все лаборатории ИИ немедленно приостановить как минимум на шесть месяцев обучение систем ИИ более мощных, чем GPT-4. Эта пауза должна быть всеобщей и контролируемой, и в ней должны участвовать все ключевые участники. Если такую паузу нельзя установить быстро, то правительства должны вмешаться и ввести мораторий.Лаборатории искусственного интеллекта и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для усовершенствованного проектирования и разработки искусственного интеллекта, которые будут тщательно проверяться и контролироваться независимыми внешними экспертами. Эти протоколы должны гарантировать, что системы, придерживающиеся их, вне всяких разумных сомнений безопасны. Это не означает паузу в развитии ИИ в целом, а просто шаг назад от опасной гонки к всё более крупным непредсказуемым моделям "чёрного ящика" с более широкими возможностями.Исследования и разработки в области искусственного интеллекта должны быть переориентированы на то, чтобы сделать современные мощные современные системы ИИ более точными, безопасными, интерпретируемыми, прозрачными, надёжными, согласованными, заслуживающими доверия и лояльными.Параллельно разработчики ИИ должны работать с политиками, чтобы значительно ускорить разработку надёжных систем управления ИИ. Эти усилия должны как минимум включать: новые и дееспособные регулирующие органы, занимающиеся вопросами ИИ; надзор и отслеживание высокопроизводительных систем искусственного интеллекта и больших пулов вычислительных мощностей; системы верификации и водяных знаков, помогающие отличить настоящий контент от сгенерированного и отслеживать утечки моделей; надёжную экосистему аудита и сертификации; ответственность за вред, причиненный ИИ; надёжное государственное финансирование технических исследований безопасности ИИ; хорошо обеспеченные ресурсами институты для преодоления серьёзных экономических и политических потрясений (особенно в демократических режимах), которые вызовет ИИ.Человечество сможет наслаждаться процветающим будущим с ИИ. Добившись успеха в создании мощных систем, мы придём к "лету ИИ", когда будем пожинать плоды, разрабатывать эти системы на благо всех и давать обществу возможность адаптироваться к ним. Общество приостановило использование других технологий с потенциально катастрофическими последствиями. Мы можем применить эту меру и здесь».
Под обращением подписались более 1125 человек, в том числе соучредитель Pinterest Эван Шарп, соучредитель Ripple Крис Ларсен, генеральный директор Stability AI Эмад Мостак, а также исследователи из DeepMind, Гарварда, Оксфорда и Кембриджа. Письмо подписали также тяжеловесы в области искусственного интеллекта Йошуа Бенджио и Стюарт Рассел. Последний также призвал приостановить разработку продвинутого ИИ до тех пор, пока независимые эксперты не разработают, внедрят и проверят общие протоколы безопасности для таких систем ИИ.
Под обращением подписались
Тут по радио затронули искусственный интеллект, что он на данный момент из себя представляет и чего может делать. Сказали что чушь этот ваш ИИ и эта ГПТ с Алисой.
в Бельгии теперь задаются вопросом о безопасности нейросетей и чат-ботов
и ни фига не обучается, а просто постепенно набирает информацию в свою базу данных
Тут по радио затронули искусственный интеллект
В целом если вещал не президент то особого значения не имеет.
Цитата: Ый от 29 Мар 2023 [20:41:15]Тут по радио затронули искусственный интеллектА кто вещал? Какой титул, какие достижения ?Буржуазная печать широко разрекламировала новую науку — кибернетику. Эта модная лжетеория, выдвинутая группкой американских «учёных», претендует на решение всех стержневых научных проблем и на спасение человечества от всех социальных бедствий. Кибернетическое поветрие пошло по разнообразным отраслям знания: физиологии, психологии, социологии, психиатрии, лингвистике и др. По утверждению кибернетиков, поводом к созданию их лженауки послужило сходство между мозгом человека и современными сложными машинами.— Ярошевский М. Кибернетика — «наука» мракобесов. — Литературная газета. — 5 апреля 1952. — № 42(2915). — С. 4В целом если вещал не президент то особого значения не имеет. ИТ компании идут своим путем не связанным с болтовней на радио
Так на таком уровне кибернетику и критиковали. Тут вам не генетика.
Цитата: Проходящий Кот от 30 Мар 2023 [10:52:15]Так на таком уровне кибернетику и критиковали. Тут вам не генетика.Ага, раньше литературная газета и огонек, сейчас тик-токи и дзены.
Цитата: Vitaliy от 30 Мар 2023 [10:54:22]Цитата: Проходящий Кот от 30 Мар 2023 [10:52:15]Так на таком уровне кибернетику и критиковали. Тут вам не генетика.Ага, раньше литературная газета и огонек, сейчас тик-токи и дзены. Тик токи и Дзены не выражают государственную позицию. А вот в СССР было иначе, любое СМИ либо выражает государственную позицию либо незаконно.
Посмотрите наконец советский Фитиль, Крокодил или украинский Перец, сейчас по шапке власти быстрее настучат за такое чем тогда. А сколько оскорблений и клеветы получите в свой адрес от некоторых, ух. Я уже сталкивался здесь с этим.
Цитата: Vitaliy от 30 Мар 2023 [11:05:16]Посмотрите наконец советский Фитиль, Крокодил или украинский Перец, сейчас по шапке власти быстрее настучат за такое чем тогда. А сколько оскорблений и клеветы получите в свой адрес от некоторых, ух. Я уже сталкивался здесь с этим.Смотрел, что то не видел там никакой клеветы, все максимально обобщено и без всяких указаний на конкретные персоналии у власти.
А вообще странно, в СССР в детстве у меня была советская старая книга про кибернетику.
Цитата: Vitaliy от 30 Мар 2023 [10:50:16]А вообще странно, в СССР в детстве у меня была советская старая книга про кибернетику.После того, как ушёл в мир иной великий вождь и учитель, в СССР довольно быстро реабилитировали как лженауку генетику, так и лженауку кибернетику.
Я жил позже, но печему-то именно тот промежуток времени у некоторых распространяется на все 70 лет.