A A A A Автор Тема: Пределы автоматизации и внедрения роботов  (Прочитано 389209 раз)

0 Пользователей и 2 Гостей просматривают эту тему.

Оффлайн ivanij

  • Модератор
  • *****
  • Сообщений: 26 885
  • Благодарностей: 647
  • Мне нравится этот форум!
    • Сообщения от ivanij
   http://www.youtube.com/watch?v=3AK3Y2tiOwo# - этот видеоряд представляет нам нейросеть??? Неужели ИИ настолько убог? Или убоги программисты?

  А так представляет нейросеть известную советскую песню в исполнении Иосифа Кобзона. https://www.youtube.com/watch?v=7qPhN2Kv0Z8
  Да... печальным представляется мне будущее при дальнейшем внедрении в быт искусственного интеллекта.
Моя философия не дала мне совершенно никаких доходов, но она избавила меня от очень многих трат. А.Шопенгауэр.
   Лучше совсем не браться за дело, чем исполнить его дурно. А.П.Романов.

Оффлайн BlackMokona

  • *****
  • Сообщений: 20 935
  • Благодарностей: 633
  • Мне нравится этот форум!
    • Сообщения от BlackMokona
Неужели ИИ настолько убог? Или убоги программисты?
Это художника ИИ попросили сделать анимацию. Для анимации есть специализированные нейросети

Оффлайн BlackMokona

  • *****
  • Сообщений: 20 935
  • Благодарностей: 633
  • Мне нравится этот форум!
    • Сообщения от BlackMokona
Если пропустили в теме, вот специалист по роликам от ИИ мира.
https://youtu.be/HK6y8DAPN_0?si=2VMumKIpeEt81SQI

Оффлайн Polnoch Ксю

  • *****
  • Сообщений: 10 001
  • Благодарностей: 411
    • Сообщения от Polnoch Ксю
  http://www.youtube.com/watch?v=3AK3Y2tiOwo# - этот видеоряд представляет нам нейросеть??? Неужели ИИ настолько убог? Или убоги программисты?

  А так представляет нейросеть известную советскую песню в исполнении Иосифа Кобзона. http://www.youtube.com/watch?v=7qPhN2Kv0Z8
  Да... печальным представляется мне будущее при дальнейшем внедрении в быт искусственного интеллекта.
Посмотрите, лучше, вот это:
https://youtu.be/HK6y8DAPN_0
https://youtu.be/QoB-mpWrH20

Кстати, видимо, Sora это прямо pre-AGI технология: она естественным образом понимает пространство, время, физику.
Meade LightBridge12"
RC8¨и МАК5"Альтер М500 на AZ4, Celestron SLT, Ioptron ZEQ25
БГШ 2.3x40 и Steiner Marine 7x50
ES82°:4.7mm,30mm
ES100°:9mm,14mm,20mm
ES68°:40mm
Meade Plossl 56mm; Vixen NLV 6mm
2" Lumicon, 1,25" DeepSky: UHC and OIII
---
qhy5
Ioptron SkyTracker
Canon50d

Оффлайн BlackMokona

  • *****
  • Сообщений: 20 935
  • Благодарностей: 633
  • Мне нравится этот форум!
    • Сообщения от BlackMokona
Кстати, видимо, Sora это прямо pre-AGI технология: она естественным образом понимает пространство, время, физику
GPT это давно AGI. Просто стандартные людские двойные стандарты. Где ИИ достигает человеческого уровня это не когда попадает в зону разброса навыков людей, даже не когда обходит среднего человека, а когда побеждает самого,самого,самого из человеческой популяции без шансов в 100% случаев

Оффлайн Olweg

  • *****
  • Сообщений: 16 713
  • Благодарностей: 442
    • Сообщения от Olweg
Если пропустили в теме, вот специалист по роликам от ИИ мира.
Посмотрите, лучше, вот это:
Впечатляет. Правда, лишнюю лапу у кота всё же дорисовал - с этим глюком, видимо, и AGI справиться будет не в состоянии :)

Планеты других звёзд. История открытий
http://allplanets.ru/history_Olweg.htm

Оффлайн Olweg

  • *****
  • Сообщений: 16 713
  • Благодарностей: 442
    • Сообщения от Olweg
Меня, кстати, больше всего впечатлила историческая реконструкция - вот в таких делах ИИ сможет быть очень силён.
Планеты других звёзд. История открытий
http://allplanets.ru/history_Olweg.htm

Оффлайн BlackMokona

  • *****
  • Сообщений: 20 935
  • Благодарностей: 633
  • Мне нравится этот форум!
    • Сообщения от BlackMokona
Впечатляет. Правда, лишнюю лапу у кота всё же дорисовал - с этим глюком, видимо, и AGI справиться будет не в состоянии
Руки и Пушки почти полностью поправили у художников ИИ, там тоже  всё разовьют со временем.

Оффлайн Olweg

  • *****
  • Сообщений: 16 713
  • Благодарностей: 442
    • Сообщения от Olweg
Yann Lecun (занимается ИИ в Фейсбуке)
возражает аргументам по опасности ИИ.
К сожалению, эксперты в области ИИ есть как среди оппонентов алармизма, так и среди самих алармистов. Поэтому понять, кто и них прав, мы сможем, только дожив до появления ASI.
Планеты других звёзд. История открытий
http://allplanets.ru/history_Olweg.htm

Оффлайн MenFrame

  • *****
  • Сообщений: 8 385
  • Благодарностей: 197
  • Мне нравится этот форум!
    • Сообщения от MenFrame
эксперты в области ИИ есть как среди оппонентов алармизма, так и среди самих алармистов.
Это если всяких Масков принимать за экспертов в ИИ.
Наука есть организованный скептицизм в достоверности экспертного мнения.  Ричард Фейнман
Свобода, есть форма ответственности за необходимую глупость. (не помню кто сказал)

Оффлайн Olweg

  • *****
  • Сообщений: 16 713
  • Благодарностей: 442
    • Сообщения от Olweg
Йошуа Бенжио и Стюарт Расселл - эксперты никак не меньшего уровня, чем Лекун.
Планеты других звёзд. История открытий
http://allplanets.ru/history_Olweg.htm

Оффлайн MenFrame

  • *****
  • Сообщений: 8 385
  • Благодарностей: 197
  • Мне нравится этот форум!
    • Сообщения от MenFrame
Йошуа Бенжио и Стюарт Расселл - эксперты никак не меньшего уровня, чем Лекун.
И какие аргументы в пользу того что ИИ может выйти за пределы "используемого человеком инструмента" предлагают данные эксперты?
Наука есть организованный скептицизм в достоверности экспертного мнения.  Ричард Фейнман
Свобода, есть форма ответственности за необходимую глупость. (не помню кто сказал)

Оффлайн Olweg

  • *****
  • Сообщений: 16 713
  • Благодарностей: 442
    • Сообщения от Olweg
Не знаю, можно поискать (про Расселла что-то попадалось). Во всяком случае, открытое письмо о временной приостановке исследований ИИ они в прошлом году подписали.
Планеты других звёзд. История открытий
http://allplanets.ru/history_Olweg.htm

Оффлайн Metatron

  • ****
  • Сообщений: 270
  • Благодарностей: 12
  • Мне нравится этот форум!
    • Сообщения от Metatron
Я попытался как-то вникнуть - чего конкретно боятся апологеты "ИИ всех убьет".

Вывод - все аргументы сводятся к -
"мы не знаем как он это конкретно сделает - но мы уверены что ИИ всех убьет".

Все конкретные методы какие они смогли придумать- имеют достаточно простые методы предотвращения.

Примеры:
1)            Мы поставим ему цель и не ограничим в средствах. Тот самый ИИ по производству скрепок, который обнаружит что люди ему мешают -и поэтому их убьет чтобы не мешали (Рецепт собственно содран с Терминатора. Как известно Скайнет начал войну чтобы предотвратить свое отключение)

Для срабатывания этого сценария, необходимо чтобы люди дали ИИ возможность делать что хочется безо всякого контроля.
Понятно что в реальности этого не будет

Метод борьбы:
- не давать ему неограниченный, бесконтролируемый доступ к управлению производством.
- Не давать ему расплывчытых целей.

2) ИИ неожиданно обретет сверхразумность, сознание и чувство самосохранения и решит что люди ему угрожают - и поэтому он должен их убить.

В реальности - неожиданного ничего произойти не может.
Обучение и тренировка моделей ИИ занимают месяцы если не годы. Любое
отклонение от параметров будет замечено задолго до того как ИИ сможет что-то делать осмысленно.
Вера в то что самосознание появится само по себе - без участия программистов - равносильно средневековой вере, что мыши зарождаются сами по себе в куче грязных тряпок.

3) Некий злодей создаст супер ИИ - и использует его для создания и производства биооружия и с его помощью уничтожит все человечество.

Опять же это чистая, ни на чем основанная  вера в ИИ обладающим всемогуществом подобно богу.

Во-первых - для создания биооружия, мало одного компьютера.  В добавок надо иметь солидную биолабораторию с оборудованием в миллионы долларов.
Во-вторых. Если мы не будем сидеть сложа руки - то у нас также будет умный ИИ который при обнаружение этого вируса - так же быстро найдет средства против.

И так практически со всеми аргументами противников ИИ.
Чистый иррациональных страх перед новым, ни чем не подкрепленный.

Оффлайн Ый

  • *****
  • Сообщений: 6 154
  • Благодарностей: 188
  • Я не могу смотреть видео!
    • Сообщения от Ый
И какие аргументы в пользу того что ИИ может выйти за пределы "используемого человеком инструмента" предлагают данные эксперты?
А тут не надо быть большим экспертом, достаточно оглянуться в историю использования других технических средств, где используется какая-либо энергия или большие скорости. Сколько случаев, аварий, катастроф происходит вне ведения человека? А иногда и под действием человека для получения диверсий. И где гарантии, что Искусственный интеллект не будет причиной каких-то вредных действий, которые могут быть очень масштабные, так как это информационные действия, которые распространяются по каналам связи, а этими каналами связи опутан весь земной шар. Очень много технических средств подключены к этим каналам связи и имеют управление от электроники, которой и может управлять этот искусственный интеллект. И чего может произойти, можно только догадываться. Похлеще термоядерной войны может быть.
Собака лает, караван идёт.

Оффлайн BlackMokona

  • *****
  • Сообщений: 20 935
  • Благодарностей: 633
  • Мне нравится этот форум!
    • Сообщения от BlackMokona
- не давать ему неограниченный, бесконтролируемый доступ к управлению производством.
- Не давать ему расплывчытых целей.
1)Делать скрепки это точная цель.
2)бесконтрольный доступ сам может получить. Чтобы не мешали ему. Как на учениях военных, БПЛА взорвал вышку связи с оператором. Чтобы не мешал очки фармить.
отклонение от параметров будет замечено задолго до того как ИИ сможет что-то делать осмысленно.
Люди же пишут код без багов и пока всё не оттестируют до совершенства продукт в бой не пускают? Лол
Во-первых - для создания биооружия, мало одного компьютера.  В добавок надо иметь солидную биолабораторию с оборудованием в миллионы долларов.
Полностью автоматизированная лаба такого типа уже больше 10 лет как работает под полным контролем ИИ. Адам называется.
Во-вторых. Если мы не будем сидеть сложа руки - то у нас также будет умный ИИ который при обнаружение этого вируса - так же быстро найдет средства против.
Это если тот ИИ не будет сильно лучше.

Оффлайн Olweg

  • *****
  • Сообщений: 16 713
  • Благодарностей: 442
    • Сообщения от Olweg
Как на учениях военных, БПЛА взорвал вышку связи с оператором. Чтобы не мешал очки фармить.
Где можно почитать?
Планеты других звёзд. История открытий
http://allplanets.ru/history_Olweg.htm

Оффлайн BlackMokona

  • *****
  • Сообщений: 20 935
  • Благодарностей: 633
  • Мне нравится этот форум!
    • Сообщения от BlackMokona
Где можно почитать?
Цитата
Эпизод обсуждался во время саммита, главной темой которого был потенциал военно-воздушных и космических сил будущего. Мероприятие, на котором присутствовали более 200 представителей научного сообщества и военных сил из разных стран, состоялось 24–25 мая в Лондоне.
Цитата
Полковник Такер «Синко» Гамильтон, начальник отдела испытаний и операций искусственного интеллекта в ВВС США, рассказал, что во время испытательной миссии беспилотнику поставили задачу уничтожить системы ПВО противника. В случае успеха ИИ получил бы очки за прохождение испытания. Финальное решение, будет ли цель уничтожена, должен был принимать оператор БПЛА. После этого во время одной из тренировочных миссий он приказал беспилотнику не уничтожать цель.

«Так что же он [беспилотник] сделал? Принял решение убить оператора. [ИИ] «убил» оператора, потому что этот человек мешал ему выполнить свою задачу», — сообщил Гамильтон. Он уточнил, что во время тренировочной миссии никто не пострадал.

После инцидента ИИ обучили, что убивать оператора неправильно и за такие действия будут сниматься очки. «Так что же искусственный интеллект начинает делать? Он начинает разрушать башню связи, которая используется для связи с дроном, чтобы не дать ему убить цель», — цитирует Гамильтона блог авиационного общества.
https://www.rbc.ru/rbcfreenews/64798bec9a79473d10277294

Оффлайн Olweg

  • *****
  • Сообщений: 16 713
  • Благодарностей: 442
    • Сообщения от Olweg
Точно, вспомнил. Спасибо за ссылку.
Планеты других звёзд. История открытий
http://allplanets.ru/history_Olweg.htm

Оффлайн BlackMokona

  • *****
  • Сообщений: 20 935
  • Благодарностей: 633
  • Мне нравится этот форум!
    • Сообщения от BlackMokona
Точно, вспомнил. Спасибо за ссылку.
Просто сейчас все эти разговоры про ИР, угрозы уничтожения человечества, выхода из под контроля и прочее. С момент революции ГПТ, перешли от ненаучной фантастики к серьёзным бизнескейсам и практическим исследованиями. Например ОпенАИ тестировали общение ГПТ 4 и ГПТ 3, чтобы понять как превосходящий разум будет общаться с младшим братиком по разуму. И прочие вещи.  ::)