ВНИМАНИЕ! На форуме начался конкурс - астрофотография месяца - АВГУСТ!
0 Пользователей и 1 Гость просматривают эту тему.
Авторы недавней статьи в Science Станислас Деан (Stanislas Dehaene), Хакван Лау (Hakwan Lau) и Сид Куидер (Sid Kouider) предлагают посмотреть на это понятие [сознание] с точки зрения применимости в области исследований искусственного интеллекта. Поняв лучше, как устроено человеческое сознание, исследователи, возможно, смогут его смоделировать и тем самым усовершенствовать наши ИИ-технологии.Авторы статьи выделяют два типа сознания: сознание как распространение актуальной информации по всем частям мозга (С1) и сознание как рефлексия, интроспекция и отслеживание ошибок (С2). Дополнительно вводится обозначение C0 для бессознательного. Учёные утверждают, что, во-первых, многие интеллектуальные задачи человек выполняет на бессознательном уровне, а, во-вторых, для моделирования полного человеческого интеллекта одного только уровня С1 недостаточно, а необходима ещё функция самоконтроля (С2). Кроме этого, они утверждают, что текущий ИИ находится на уровне бессознательного (С0).
Многие из человеческих бессознательных процессов были воплощены программно с помощью нейронных сетей с обратным распространением ошибки. Теперь исследователям стоит задуматься, что необходимо сделать, чтобы также реализовать уровни сознания — С1 и С2.
Сознание С1 — это первое, что появилось у сложных организмов для обработки информации и компенсации модулярности и параллелизма информационных процессов. Этот тип сознания подразумевает существование «глобального нейронного рабочего пространства» (global neuronal workspace), в котором один фрагмент информации может быть выбран и удержан в памяти для последующей обработки, а также разослан другим модулям. Сознательно воспринятой можно назвать такую информацию, которая победила в соревновании за доступ к рабочему пространству, была разослана по всем модулям, и согласно которой может быть принято решение. Сознание, таким образом, это временное доминирование определённой мысли или хода мыслей над другими.
Сознание С2 — это что-то типа рефлексии. Если С1 позволяет обрабатывать входные стимулы, то С2 «вычисляет вероятность», насколько суждения С1 являются правильными или ложными. Такое сознание можно назвать метасознанием.
Люди довольно преуспели в наделении компьютеров способностью решать отдельные интеллектуальные задачи, но создать систему, которая бы работала сразу с несколькими интеллектуальными процессами, пока не получилось. В 60-х существовали вычислительные архитектуры, которые назывались «системами с доской объявлений» (blackboard systems). В них разные модули могли разделять свою информацию с другими так, чтобы все её понимали. В недавно разработанной архитектуре под названием PathNet, чтобы наделить программу способностью понимать, какой именно путь в её множестве нейронных сетей наиболее приспособлен для решения той или иной задачи, использован генетический алгоритм. Эта система может проводить генерализацию между разными заданиями, поэтому представляет собой шаг вперёд в задаче создания универсального ИИ.
Текущие системы машинного обучения не умеют проверять себя на ошибки, за исключением байесовских систем и PathNet, упомянутых выше. Но даже используя обычные свёрточные нейронные сети, которые не сообщают нам вероятность того, что была совершена ошибка, можно выкрутиться — натренировать другую сеть, которая бы предсказывала вероятность ошибки. Среди ИИ-моделей есть состязательные генеративные сети, которые используют вторую сеть, чтобы она оценивала правдоподобие сгенерированного первой сетью результата. Если такую модель, работающую по принципу С2, совместить с моделями С1, мы могли бы получить ИИ, который смог бы более точно имитировать человеческое сознание.
Аргументы авторов статьи незамысловаты. Отходя от доминирующих определений, они называют сознанием два типа вычислений, выполняемых в мозгу. Они также утверждают, что машина, у которой будет С1 и С2, будет полностью сознательной. Если она что-то увидит, она будет знать, что видит это. Она сможет испытывать визуальные галлюцинации, если её механизмы автомониторинга сломаются.Некоторые могут остаться недовольными этим определением сознания. Не сводят ли авторы всё к вычислениям? А как же элемент субъективного восприятия? Учёные решают не вступать в этот извечный спор, а просто приводят аргумент: когда люди теряют способность к сознанию С1 или С2, они также теряют субъективное восприятие. Например, если у человека повреждена первичная визуальная кора, это может привести к неврологическому состоянию «слепого зрения», когда у людей есть область зрения, в которой они могут локализовать визуальные стимулы, но не могут сказать, что это такое, или предположить, что это именно это.Итог простой: хотя столетия философского дуализма научили нас верить в то, что субъективный опыт не сводим к сигналам нейронов, эмпирика нам говорит, что возможно всё-таки сводим.
Итог простой: хотя столетия философского дуализма научили нас верить в то, что субъективный опыт не сводим к сигналам нейронов, эмпирика нам говорит, что возможно всё-таки сводим.
Т.е. нейрон можно принять за элементарную, неделимую единицу в информационных процессах мозга?
Цитата: EmperioAf от 29 Апр 2019 [14:59:36]Т.е. нейрон можно принять за элементарную, неделимую единицу в информационных процессах мозга? Разумеется нет! У нейрона может быть от единиц до двух десятков тысяч синапсов (контактов с другими нейронами), а синапс в среднем кодирует около 4,7 бита.
Я имел ввиду как раз "сигнал нейрона", а не "нейрон".
Тоесть общий объём мозга вполне может быть оценен вполне конечной величиной
оварищ, дайте сначала вменяемое определение термину "Сознание" а потому уж поговорим об его искуственном воспроизведении.
вот вы - боль чувствуете
но настоящей боли он не чувствует.
И если наука не выделяет этой сущности, что именно способно чувствовать,
Для некоторых это понятно, и без строгих определений терминов. "Сознание - свойство объекта, которое выражается в способности чувствовать".
Ваша способность чувствовать боль просто сложная реакция на раздражитель....
А с чего вы взяли что чувствуете настоящую боль?
а внутреннее ощущение субъектом - либо есть либо нет.
У камня, я думаю, такого свойства нет, т.е. камень ничего не чувствует.
Компьютер - тоже вроде как, неживой, а потому ничего не чувствует.
Некорректный вопрос.
"а с чего вы взяли что вы что то видите глазами? может вы слепой?"
Я вижу мозгом, ну или психикой.
А компьютер может обрабатывать информацию, в том числе кинестетическую.
Я не понимаю, что такого можно напрограммировать, чтобы программа, а точнее железо, её обрабатывающее (транзисторы, ячейки памяти и т.д.) -вдруг обрели способность что то почувствовать.
Машине нет необходимости чувствовать боль, для этого у неё есть датчики и сенсоры, которые точно скажут, что и где не в порядке.
Цитата: LV46 от 22 Июл 2019 [02:06:04]Машине нет необходимости чувствовать боль, для этого у неё есть датчики и сенсоры, которые точно скажут, что и где не в порядке. Диагностикой неполадок ПК Вам, видимо, заниматься не приходилось...
Любую мыслимую информацию о ПК можно почерпнуть как из самой системы, так и из специальных назовём их "лечебных" программ.