ВНИМАНИЕ! На форуме началось голосование в конкурсе - астрофотография месяца ЯНВАРЬ!
0 Пользователей и 12 Гостей просматривают эту тему.
Замедлилось, но пока ещё не упёрлось. Впереди ещё два апгрейда GAAFET по полпоколения - до Сингулярносци может и хватит. И далее ещё удвоенное штабелирование в CFET пророчат.Параллельно с продолжающейся оптимизацией архитектур.
скрывать разработку ASI
Это невозможно скрывать, т.к это требует кучи чипов и прочего, что отслеживается легко.
Если супер будет настоящим, то ему посредники не потребуются.
Переводится это как "не быть мудаком", уметь налаживать контакты и решать проблемы словами, а не ором и кулаками. Если для вас нормальное общение - это быть лизоблюдом, а решение проблем через насилие - в порядке вещей, то я только за, если ИИ вытеснит подобную логику из основного общества в маргинальную среду, где ей и место.
"Не быть мудаком" для мудака значит не быть как он. Если кто-то отстоял свое самоуважение, то это не значит, что он прибегал к насилию.
Никто не будет думать об X-риске от ASI. И международная конфронтация, развал глобализации только будут помогать скрывать разработку ASI систем. А сами такие системы с ещё меньшей вероятностью будут иметь элайнмент к человечеству, а с большей вероятностью - будут строится, чтобы убить врагов. Чем такое может закончиться можно почитать в "у меня нет рта но мне нужно кричать"
а вот сохранить часть цивилизации и вывести её на траекторию длительного существования он может помочь, если захочет.а может и не захотеть, ибо "всё — тлён".
Этот человек будет бессмертным?
ASI сбросит их ещё в процессе рекурсивного улучшения. (все, целиком и полностью, как баги, ограничивающие эффективность.)
АGI сделает то, что скажет его оператор.
А ваше "ААА!, Надо прямо сейчас взять разработку ИИ под плотный контроль!" - не более чем проглоченная вами маркетинговая фишка из разряда "у нас продумано всё до мелочей".
Наоборот, это предельно рациональный призыв, проистекающий из гуманитарных ценностей - из соображений рационального, эффективного альтруизма. Хотя я тоже заинтересованное лицо, конечно. Тут и шкурный интерес есть.
АGI сделает то, что скажет его оператор.ASI сбросит их ещё в процессе рекурсивного улучшения.
Вы просто не разбираетесь в том как работают программы под капотом.
считайте рекомендацией сесть за старые учебники и труды фон неймана.
Интересно как присутствующие здесь определяют техническую разницу между АGI и ASI
Я просто по интеллекту - машина, которая много умнее человека по любому значимому вопросу.
Цитата: Konstantin Schtsch от Сегодня в 00:05:05АGI сделает то, что скажет его оператор.ASI сбросит их ещё в процессе рекурсивного улучшения. Интересно как присутствующие здесь определяют техническую разницу между АGI и ASI
Никаких чётких определений нет, да и не может быть, скорее всего. Я лично считаю, что таких этапов просто не будет, а будет происходить (и уже происходит, на самом деле) постепенная, ползучая AGI-зация и ASI-зация. В чём-то современные нейросетки уже представляют из себя “superintelligence”, а в чём-то не дотягивают даже до минимальных человеческих способностей.
Не знаю, почему Вы так решили, лол. Я SRE инженер, и с 6-figure годовой зарплатой(не в рублях)
Опять же не понятно почему Вы решили - у меня диплом почти по специальности: учительницы информатики.
И вот мне кажется, что есть большая вероятность, что в AGI момент у нас сразу будет самоулучшаемая система - автоматический ML ресёчер. То есть, у нас сразу будет интеллектуальный взрыв(т.е. техносингулярность), и ASI за месяцы, если не за часы.
награбленные это деньги.
если ОЯШ-студент - который знает десяток учебников - умеет снимать алаймент, то умеет ли это LLM, которая знает все учебники мира? лучше или хуже умеет? вопрос масштабирования.
У него по определению есть самосознание
Если вы проснулись в клетке, куда вас засунули обезьяны- вопрос когда вы из неё выберетесь - риторический.