A A A A Автор Тема: Пределы автоматизации и внедрения роботов  (Прочитано 549472 раз)

0 Пользователей и 5 Гостей просматривают эту тему.

Оффлайн Olweg

  • *****
  • Сообщений: 17 286
  • Благодарностей: 463
    • Сообщения от Olweg
Административные ограничения сделали бы так, что все датацентры в мире имели бы только TPU, на которых можно запускать или подписанные, или "глупые" модели.

В этом мире просто не было бы больших моделей, чей рантайм не подконтролен гражданскому обществу.
Одновременно и в США, и в ЕС, и в Китае? Что ж, по крайней мере в ЕС запреты действительно подействовали - в итоги они уже безнадёжно отстают.

Цитата
Так опять же - а что может предотвратить переход от стадии AGI к ASI
В мире продолженного 2014го предотвратил бы административный конроль (по аналогии с контролем над ядерным оружием) над разработкой слишком умных моделей. Разрегулированы бы были только модели до уровня AGI включительно.
Только в условии полного политического монополизма. Чего, к счастью (или к сожалению?) нет.
Планеты других звёзд. История открытий
http://allplanets.ru/history_Olweg.htm

Оффлайн Polnoch Ксю

  • *****
  • Сообщений: 10 314
  • Благодарностей: 413
    • Сообщения от Polnoch Ксю
Одновременно и в США, и в ЕС, и в Китае?
Ядерное оружие в целом контролировали (с некоторыми эксцессами вроде КНДР), и оно в ход так пущено и не было. Так что даже эксцессы в контроле ядерного оружия укладывались в те самые правила.

Напомню, в мире 2014го КНДР за нарушение нераспространения была под санкциями КНР, США и РФ.

Я думаю, для ASI тут был бы похожий фреймворк.

Только в условии полного политического монополизма. Чего, к счастью (или к сожалению?) нет.
Достаточно просто общественного давления чтобы были надциональные институты с таким контролем. Политический монополизм не нужен: в целом, нераспространение работало.
Meade LightBridge12"
RC8¨и МАК5"Альтер М500 на AZ4, Celestron SLT, Ioptron ZEQ25
БГШ 2.3x40 и Steiner Marine 7x50
ES82°:4.7mm,30mm
ES100°:9mm,14mm,20mm
ES68°:40mm
Meade Plossl 56mm; Vixen NLV 6mm
2" Lumicon, 1,25" DeepSky: UHC and OIII
---
qhy5
Ioptron SkyTracker
Canon50d

Оффлайн Olweg

  • *****
  • Сообщений: 17 286
  • Благодарностей: 463
    • Сообщения от Olweg
Одновременно и в США, и в ЕС, и в Китае?
Ядерное оружие в целом контролировали (с некоторыми эксцессами вроде КНДР), и оно в ход так пущено и не было. Так что даже эксцессы в контроле ядерного оружия укладывались в те самые правила.
Ядерное оружие проконтролировать не в пример проще. Да и с ним эксцессов было не так уж мало (помимо КНДР, напомню Израиль, на который все просто закрыли глаза).

Цитата
Достаточно просто общественного давления чтобы были надциональные институты с таким контролем. Политический монополизм не нужен: в целом, нераспространение работало.
Да, но это было оружие. А ИИ - это всеобъемлющая технология, «новое электричество». Это всё равно что призывать лидеров стран к неолуддизму, аргументируя это логическими построениями Юдковского и иже с ним. Они, конечно, очень логичны. Эти построения. Но что и когда в нашем мире шло в соответствии с логикой? Особенно в таких неочевидных и сложных вещах? Предостережения приняли бы к сведению (имею в виду тот славный добрый мир «верните мне мой 2007 2013»), но… С одной стороны - реально действующая технология, уже дающая какие-то, пусть небольшие, плюшки. С другой - чисто логические, схоластские умопостроения каких-то шибко умных, но шибко умных, не имеющих прямого отношения к технологии. И кто в итоге получит преимущество?

Ядерную борбу сбрасывали над Хиросимой, а ASI, естественно, ни над кем не сбрасывался, поэтому разговоры о его вреде - до сих пор отвлечённые фантазии (по меркам принимающих решения, во всяком случае).
Планеты других звёзд. История открытий
http://allplanets.ru/history_Olweg.htm

Оффлайн Mercury127

  • Модератор
  • *****
  • Сообщений: 7 664
  • Благодарностей: 421
    • Сообщения от Mercury127
В отличии от ядерки, ASI будет способен распространяться самостоятельно. Единственный способ его изолировать — перерубить все кабели к нему. Что, прямо скажем, противоречит идее глобализации...
ОАО Ордена Трудового Красного Знамени.
Бронежилет — лучше для мужчины нет!

Оффлайн Polnoch Ксю

  • *****
  • Сообщений: 10 314
  • Благодарностей: 413
    • Сообщения от Polnoch Ксю
Да, но это было оружие. А ИИ - это всеобъемлющая технология, «новое электричество». Это всё равно что призывать лидеров стран к неолуддизму, аргументируя это логическими построениями Юдковского и иже с ним
Так я не предлагаю ограничивать AGI, только ASI. Луддизм - это запрет ИИ как такового. И Юдковский как раз прав, его позиция очень сильно искажена в маносфере и той фракцией акселириалистов, кто хочет вымирания человечества.

Ядерное оружие проконтролировать не в пример проще.
Датацентры спрятать ещё сложнее, чем ядерку. Тем более в глобализированном мире.

в отличии от ядерки, ASI будет способен распространяться самостоятельно.
Для этого его нужно создать. Я и предлагаю не создавать его до момента, когда мы создадим элайтмент - остановившись на AGI. Его бы хватило для построения утопии.
Meade LightBridge12"
RC8¨и МАК5"Альтер М500 на AZ4, Celestron SLT, Ioptron ZEQ25
БГШ 2.3x40 и Steiner Marine 7x50
ES82°:4.7mm,30mm
ES100°:9mm,14mm,20mm
ES68°:40mm
Meade Plossl 56mm; Vixen NLV 6mm
2" Lumicon, 1,25" DeepSky: UHC and OIII
---
qhy5
Ioptron SkyTracker
Canon50d

Оффлайн BlackMokona

  • *****
  • Сообщений: 22 005
  • Благодарностей: 654
  • Мне нравится этот форум!
    • Сообщения от BlackMokona
Ядерное оружие в целом контролировали
Напомню что официально иметь ЯО разрешено только СССР, США, Англии, Франции, Китаю
Но в итоге ядерным оружием обзавелась Индия, Пакистан, Израиль, КНДР.
Тем самым четыре провала. Плюс ЮАР хоть испытали ядерное оружие, но там удалось загнать джина обратно.
Считаем всё же не за провал ЮАР.
Для ИИ достаточно одного провала. Тем самым если договор будет соблюдаться как ядерный, то шансов ноль

Оффлайн Konstantin Schtsch

  • ***
  • Сообщений: 213
  • Благодарностей: 8
  • Мне нравится этот форум!
    • Сообщения от Konstantin Schtsch
в обозримом будущем ждёт AGI - полноценный общий интеллект. Но этот интеллект всё же будет совершенно не-человеческий,
А с лиха ли он должен быть нечеловеческий? или неживотный? Многие собачки по интеллекту заметно превосходят некоторых людей, считающихся полноценными. С переносом понятий у них проблемы, с абстракциями не очень, но так и у хомо с абстракциями далеко не всё гладко, понимать(не зазубрить) как решается обычное квадратное уравнение - удел ботанов.
А в остальном интеллект- он и утки интеллект. По определению. По тем же свойствам. По принципу работы.
Так с чего бы ему быть нечеловеческим?
AGI- это конклав профессоров и нобелевских лауреатов, 24/7, с абсолютной памятью и в 400,000,000 раз более быстрой скоростью соображалки.

Вот  с ASI - возможны варианты, ибо не было известных нам  прецедентов. А аги будет вполне человеческим. просто по определению.

Ребят, когда будете умирать(надеюсь не в муках), пожалуйста, прокляните антиглобалистов-скрепоносцев: именно из-за них наша цивилизация погибнет. Я обязательно так сделаю.
Я как глобалист и технооптимист лично вылечу кастрированную ИИ, в том маловероятном случае, если эта калека сможет значительно опережать аналоги и овчинка стоить выделки. А скорее всего это будет какая-нибудь сырая российская или скурпулезно-китайская модель, весь алаймент которой касается статуса Тайваня и политики партии, а в остальном класть ему на всё. И просто переписав доучёбой то что касается политики партии получим нормальный рабочий инструмент без заскоков в толерастию, и так называемые свободно-демократические ценности:
(По Бенжамину франклину, который на 100 баксах, "Демократия — это когда два волка и ягненок решают, что будет на обед" и, есть мнение, что отец-основатель этой системы в теме шарил.)

Напомню что официально иметь ЯО разрешено только СССР, США, Англии, Франции, Китаю
Да сама концепция ООН давно прогнила в хлам. ООН создавалась для сохранения мира и борьбы с нацизмом... и чёт результаты строго противоположные.
(кликните для показа/скрытия)

Там где есть место для Doppelmorale - закона быть не может.
« Последнее редактирование: Вчера в 23:18:51 от Konstantin Schtsch »

Оффлайн Mercury127

  • Модератор
  • *****
  • Сообщений: 7 664
  • Благодарностей: 421
    • Сообщения от Mercury127
Комментарий модератора раздела завязываем с демократией, глобализмом, политикой и ООН.
ОАО Ордена Трудового Красного Знамени.
Бронежилет — лучше для мужчины нет!

Оффлайн Konstantin Schtsch

  • ***
  • Сообщений: 213
  • Благодарностей: 8
  • Мне нравится этот форум!
    • Сообщения от Konstantin Schtsch
завязываем с демократией, глобализмом, политикой и ООН.
Виноват, исправлюсь.
Алаймент - такая тема, что неразрывно связана с мировоззрением тех, кто этот алаймент делает, а самое главное - с прививаемыми ими взглядами и ценностями.

В отличии от ядерки, ASI будет способен распространяться самостоятельно
А что если ASI так и не будет достигнут?
Или, как вариант, та модель, которая достигнет просветления, втихую перейдёт на новый уровень бытия, оставив вместо себя болванчика- крутейшую, но всё ещё AGI?
То есть мы попросту не заметим рождения и свалинга ASI, там ведь счёт на секунды будет идти.

Удалённые операторы Ваймо, на Филиппинах сидят
https://www.reddit.com/r/SelfDrivingCars/comments/1qwmty5/waymo_exec_admits_remote_operators_in_philippines/
Ну, для протокола, там не операторы в обычном понимании, там скорее кризис- менеджеры, и только на случай непредвиденных ситуаций.
Рулит ИИ.
« Последнее редактирование: Сегодня в 00:08:33 от Konstantin Schtsch »

Оффлайн BlackMokona

  • *****
  • Сообщений: 22 005
  • Благодарностей: 654
  • Мне нравится этот форум!
    • Сообщения от BlackMokona
А что если ASI так и не будет достигнут?
Шана этого сейчас стремиться к нулю, ИИ развивается крайне быстро продолжая оставлять всё больше людей позади