Телескопы покупают здесь


A A A A Автор Тема: Психика, сознание, разум - определения и возможность моделирования  (Прочитано 155442 раз)

0 Пользователей и 2 Гостей просматривают эту тему.

Оффлайн Серый Страж

  • ****
  • Сообщений: 484
  • Благодарностей: 49
  • Мне нравится этот форум!
    • Сообщения от Серый Страж
Условно говоря: оцениваемое - это текущий сенсорный образ, образец - это образ из памяти (образ-воспоминание), а оценщик - это процесс сравнения/сопоставления/согласования (то бишь, это процесс осознания - он всегда между знанием и осознаваемым). Это если объяснять "на пальцах и верёвках".
Есть сигнал на входе, он последовательно активизирует сеть, проходя от входа к выходу. На выходе загорается правый нейрон — сеть узнала кошку.
Значит, если правый, то узнала? А почему именно так считаете? Может, наоборот, это свидетельствует о том, что не узнала? Может, если узнала, никакой вообще нейрон загораться не должен на выходе? Ведь то, что она узнала и именно при загорании правого нейрона - это ваша интерпретация.

То есть, это вы сами, в данном случае, узнали, а сеть всего лишь выдала сигнал (типа, входной сигнал преобразовала в выходной).

Где здесь «воспоминание» и «осознание»? Откуда всё это взялось?
В данном случае, и «воспоминание» и «осознание» было у вас. Это у вас есть знания о кошечках и вы можете вспомнить об этом, это вы умеете сравнивать/сопоставлять и т.д. А сеть в результате обучения (вы об обучении не говорили, но я предполагаю так, верно или ошибаюсь?) научилась только абстракт "кошачесть" выделять и вот знание "кошачести" у неё есть (это знание "вшито" в саму сеть в распределённом виде).

Как видите, я на ваши вопросы отвечаю, а вы на мои не отвечаете.
Поэтому и не отвечаю, что вначале надо с мат. частью разобраться.
И снова: я ответил на ваши вопросы, а вы на мои опять не ответили.

Ответы на мои вопросы не требуют разборок с мат. частью. Просто ответьте на каждый вопрос "да" или "нет".

Ваши вопросы попросту не имеют смысла, на них нельзя ответить. Но вы пока этого не понимаете.
На них можно ответить. Мало того, в первую очередь, на них нужно ответить вам самому (для себя), чтобы понять, что сам ваш подход нуждается в корректировке.

И я начинаю понимать, почему вы избегаете ответов на эти простые вопросы. Ответы (причём, любые - и ответ "да", и ответ "нет") прояснят ситуацию и сделают явным ваше собственное недопонимание для окружающих (кстати, и для вас самого сделают явным).

Вернёмся к ним позже, если потребуется.
Именно сейчас и требуются ответы на эти вопросы - нам уже давно пора двигаться дальше, а вы тормозите с ответами...

Повторно прошу ответить на вопросы (в пятый раз уже прошу):
1.Можно ли, не имея знаний, узнать или распознать?
2.Можно ли, не используя знания, узнать или распознать?
3.Можно ли узнать или распознать, не сопоставляя/сравнивая, при этом, распознаваемое/узнаваемое с имеющимися знаниями?
Всегда на границе Света и Тьмы...

Оффлайн Проходящий Кот

  • *****
  • Сообщений: 19 348
  • Благодарностей: 426
    • Сообщения от Проходящий Кот
Эту секретную информацию из него даже Мюллер с Ежёвым, да и Торквамада не смогли бы выбить.....

Оффлайн noxx77

  • *****
  • Сообщений: 4 966
  • Благодарностей: 154
  • Мне нравится этот форум! ;))
    • Skype - zerghammer1
    • Сообщения от noxx77
    • ВК
Чтобы оно не противоречило, вам надо или хотя бы немного владеть предметом обсуждения, или внимательно читать, что написано. Ни на что из этого вы не сподобились, поэтому написали чушь. В который раз уже. И ссылки надо тоже не только по названиям читать.
Зачем, если ваше высказывание уже противоречит логике и факту, то есть заведомо ложно и антинаучно - что легко доказывается без ознакомления с простынями мутной графомании по ссылкам?
Для того, чтобы сравнить, нужно то, что оценивается, образец для оценки и тот, кто оценивает, кто принимает решения. Где это всё находится в мозге?
Заведомо ложная предпосылка, ведущая к абсурдным выводам: местоимение "кто" в русском языке предполагает целостный биологический объект, причём даже не разумный, например насекомое. "Кто" не может находиться "в мозге", если это не паразит, но сознание (и бессознательное) человека - который тоже "кто", могут "находиться", точнее продуцироваться работой ГМ - вкупе с органами восприятия и саморегуляции, которые, разумеется, никаких решений не принимают и по сути периферия.
Однако, образцы хранятся в памяти, а память связана с работой неокортекса и гипокампа: https://www.bbc.com/russian/features-39540692
А вот немного о принятии решений https://scientificrussia.ru/articles/kak-mozg-prinimaet-resheniya
Как видите, довольно неплохо находится, если поискать. Только вопрос должен ставиться
Учитывая, что весь мозг — это сеть нейронов, то это какие-то особые сети внутри нейронной сети мозга?
Чаще всего да. Отделы головного мозга, отвечающие за его функции, отличаются структурно. Это давно известно медикам и психологам: https://studme.org/103911/meditsina/stroenie_otdelov_golovnogo_mozga
Идея, что искусственный интеллект в принципе не сможет превзойти естественный - это не проверяемая гипотеза.
То есть ненаучная? ;)
А если идти от гипотезы, что всё сводится к способности машины осуществлять ту или иную человеческую "интеллектуальную" деятельность на человеческом уровне. Многофункциональность человека как правило преувеличивается, исходя из факта биологической идентичности и потенцильно разных реализаций в рамках одного пула способностей. На практике наблюдается специализация с потерей большей части потенциала.



Универсальность реализуется в согласованной работе "узкоспециализированных" людей. Если создать полноценный ряд взаимодействующих узкоспециализированных ИИ, покрывающий весь ряд человеческих функций, и превосходящих в каждой, то вполне можно говорить о тотальном превосходстве ИИ над ЕИ, в то же время, превосходство ИИ в отдельных задачах и видах деятельности уже факт.
В космосе никто не услышит визга той чуши, которую Вы порете

Онлайн MenFrame

  • *****
  • Сообщений: 7 290
  • Благодарностей: 165
  • Мне нравится этот форум!
    • Сообщения от MenFrame
Достаточно муть разводить. Согласно функции активации вычисляется выходной сигнал.
Да и эта функция называется сравнение.
И ничего ни с чем не сравнивается.
Сравнивается, входящая сигнатура с синаптическим шаблоном.
На уровне всех нейронов происходит распознавание/обобщение.
У вас какой то мусор в голове, мешающий понять что распознавание невозможно без сравнения. Вы кажется вообще не понимаете как работает нейросети...талдычите только одно
Цитата
происходит распознавание/обобщение
А какой именно функционал за этим стоит не в курсе. Запудрили себе мозги бифуркациями.
« Последнее редактирование: 13 Июн 2021 [07:28:00] от MenFrame »
Наука есть организованный скептицизм в достоверности экспертного мнения.  Ричард Фейнман
Свобода, есть форма ответственности за необходимую глупость. (не помню кто сказал)

Оффлайн noxx77

  • *****
  • Сообщений: 4 966
  • Благодарностей: 154
  • Мне нравится этот форум! ;))
    • Skype - zerghammer1
    • Сообщения от noxx77
    • ВК
"Если"  - вот ключевое слово. Но возможно ли такое?
Ну смотрите, чтобы ответить, здесь изначально главное - формализовать задачу. То есть выделить некоторый пул функций, которые надо механизировать/компьютеризировать и выделить критерии успешности их выполнения. Это нельзя сделать в общем, задача будет весьма конкретной в каждом случае - равно как и ответ на вопрос.
Сложнее всего, на мой взгляд с функциями социальными, потому что они предполагают наличие сознания: способности определять своё место в социуме, понимать и предсказывать поведение взаимодействующих с тобой людей и строить стратегию на этой основе. Здесь в защиту машины можно сказать, что сами люди далеко не всегда успешно это делают - как, практически и в любой области. Более того, решают задачи различными способами. То есть задирать планку тоже не стоит: успешнее - значит успешнее в среднем. Может ли машина моделировать социум, строить гипотезы с высокой вероятностью, осуществлять поиск? Может ли она самообучаться на ответах среды? Здесь я бы всё-таки выделил факт, что психопаты бывают более успешны в общении и достижении социальных целей, чем люди с нормальной эмпатией, потому что реагируют рационально.

Плюс критерии успеха могут включать такие параметры как работоспособность: если машина способна решить задачу даже в 2 раза медленнее и это не критично, но работает в 3 раза дольше, она уже выигрывает. И, наконец, важный параметр - затраты на воспроизводство. Человек минимум треть жизни растёт и обучается, причём даже для работы в областях, где всё уже давно по инструкции. Издержки на передачу и копирование информации в человеческом мире гораздо выше, чем машинные, плюс в каждом случае приходится мириться с социальными издержками сложной личности со своими потребностями и усложнять само взаимодействие. Машины решают задачи меньшими вычислительными мощностями, потому что делают сами задачи проще - это надо учитывать.

Поэтому считаю, что даже для того, чтобы дать какие-то прикидочные прогнозы о возможности, стоит сначала корректно описать задачу.
Если создать полноценный ряд взаимодействующих узкоспециализированных ИИ, покрывающий весь ряд человеческих функций, и превосходящих в каждой, то вполне можно говорить о тотальном превосходстве ИИ над ЕИ, в то же время, превосходство ИИ в отдельных задачах и видах деятельности уже факт.
Специфика электронных "мозгов" в том, что в отличии от людей, их всех, разных специальностей, можно объединить в единую систему, которая будет работать как единый организм. У людей так не получается. Каждый человеческий мозг обособлен, и чтобы решать многосложную задачу, люди объединяются в рабочие или творческие коллективы. Но такая общественная работа не очень эффективна, людям для обмена мозговой информацией надо разговаривать или письменно общаться, а этот метод крайне неудобен и не очень информативен, таким образом сложно, а часто нельзя передать другим людям всё то, чего у вас в голове. Отсюда бестолковые обсуждения, непонимание, большое время для передачи информации от одного мозга к другому. А в электронной системе, объединяющей искусственные мозги, таких проблем не будет, все они будут обмениваться информацией практически мгновенно.
Верно, но мозг отдельного человека работает как система разных связанных интеллектов со своими задачами. То есть на внутреннем уровне всё-таки быстрая связь "мозгов" организована. А вот на внешнем всё печальнее
« Последнее редактирование: 13 Июн 2021 [09:19:17] от noxx77 »
В космосе никто не услышит визга той чуши, которую Вы порете

Оффлайн Вайт

  • *****
  • Забанен!
  • Сообщений: 631
  • Благодарностей: 7
  • Мне нравится этот форум!
    • Сообщения от Вайт
Значит, если правый, то узнала? А почему именно так считаете? Может, наоборот, это свидетельствует о том, что не узнала? Может, если узнала, никакой вообще нейрон загораться не должен на выходе? Ведь то, что она узнала и именно при загорании правого нейрона - это ваша интерпретация.

Вы ранее утверждали, что знание — это структура сети. Вот сети показывают кошек и собак, она их различает. Это значит, что у сети есть знание собак и кошек? И различает сеть кошек и собак, потому что внутри себя сравнивает входящие сигналы со своими знаниями? Но сейчас, как я понял, вы утверждаете, что процесс сравнения обязательно связан с осознанием и воспоминаниями? То есть наша сеть различает кошек и собак, потому что у неё есть сознание и она вызывает в себе «образы-воспоминания»? И без всего этого сравнения не будет, сеть кошек от собак не отличит?

Ответы на мои вопросы не требуют разборок с мат. частью. Просто ответьте на каждый вопрос "да" или "нет".

По-вашему, знание — это структура сети, следовательно любое знание — это вся структура сети, сеть — это же распределённая система. То есть все знания в сети одинаковые. Но они же разные? Как это возможно, и что такое знание? Как видите, на ваши вопросы невозможно ответить, потому что пока даже непонятно, о чём они, о какой сущности речь идёт. В связи с чем я вам и говорю, что вначале надо разобраться с мат. частью.

Зачем, если ваше высказывание уже противоречит логике и факту, то есть заведомо ложно и антинаучно - что легко доказывается без ознакомления с простынями мутной графомании по ссылкам?

Фактов вы не знаете, поэтому логика вас подводит. Изучите, как работают нейронные сети, как работает мозг.

Однако, образцы хранятся в памяти, а память связана с работой неокортекса и гипокампа:

Вся сеть — память.

Отделы головного мозга, отвечающие за его функции, отличаются структурно. Это давно известно медикам и психологам:

Вы не понимаете значения этих отличий.

То есть ненаучная?

Идея, что искусственный интеллект в принципе не сможет превзойти естественный, — это логический вывод из фактов. Его «экспериментальное» подтверждение будет в том, что такой ИИ никогда не будет построен. «Никогда» — это долго, поэтому «эксперимент» стоит в кавычках, а идея — не научная. Но не ложная.

Универсальность реализуется в согласованной работе "узкоспециализированных" людей. Если создать полноценный ряд взаимодействующих узкоспециализированных ИИ, покрывающий весь ряд человеческих функций, и превосходящих в каждой, то вполне можно говорить о тотальном превосходстве ИИ над ЕИ, в то же время, превосходство ИИ в отдельных задачах и видах деятельности уже факт.

Вы демонстрируете полное невежество в вопросе работы мозга и, как следствие, в цитируемом отрывке тоже пишете чушь. Потому что мозг выполняет всего одну функцию, но делает это очень сложным образом, и в чём его никакие искусственные системы превзойти не смогут. Какая это функция, вы можете прочитать в Википедии в статье «Нервная система». Или в части «Мышление» в моей книге Пределы сложности искусственного интеллекта. В книге найдёте ответы на другие вопросы из вашего поста.

« Последнее редактирование: 14 Июн 2021 [04:51:45] от Вайт »

Оффлайн noxx77

  • *****
  • Сообщений: 4 966
  • Благодарностей: 154
  • Мне нравится этот форум! ;))
    • Skype - zerghammer1
    • Сообщения от noxx77
    • ВК
Фактов вы не знаете, поэтому логика вас подводит. Изучите, как работают нейронные сети, как работает мозг.
Знаю и то, и другое, но не понимаю, что вы хотели сказать данным утверждением? С чем спорили? Каков Ваш контраргумент по существу? Чем подтвердите, кроме ссылок на себя самого и общих соображений?
Вы продолжаете отделываться общими фразами) Типичное поведение зазнаек-незнаек. Я спорю с вашими аргументами (доказывая их абсурдность), Вы же отвечаете бессодержательными отмашками. Аргументируйте в ответ, тезисами со ссылками на научные факты, или просто открыто признайтесь в своей интеллектуальной импотенции. Как-то так.


Вся сеть — память.
Вы не понимаете значения этих отличий.
Общие фразы. Аргументируйте по существу. Докажите на научных фактах (за не вашим авторством) с разбором моих тезисов мне и другим собеседникам, что я неправильно понимаю эти отличия, а также работу памяти.

А главное - в контексте темы, докажите, что функции (не структура, а её работа) не могут выполняться машинно. Надеюсь, вы понимаете отличие между устройством/структурой и функцией?
Идея, что искусственный интеллект в принципе не сможет превзойти естественный, — это логический вывод из фактов.
Ага, по принципу "таракан без ног не слышит" - абсурдный вывод из заведомо ложных предпосылок, как я и писал выше.
Или в части «Мышление» в моей книге Пределы сложности искусственного интеллекта. В книге найдёте ответы на другие вопросы из вашего поста.
Замечательный самопиар графоманского бреда. Вы ради этого и пришли на форум? Оценка - моё скромное мнение, но вы же хотите обратную связь от читателя, пусть даже десятка страниц? Впрочем, не думаю, что она поколеблет Ваше самомнение - оно недоступно критике, логике и любой рациональной аргументации, построенной на связи с реальностью. :D
« Последнее редактирование: 14 Июн 2021 [10:03:39] от noxx77 »
В космосе никто не услышит визга той чуши, которую Вы порете

Оффлайн Серый Страж

  • ****
  • Сообщений: 484
  • Благодарностей: 49
  • Мне нравится этот форум!
    • Сообщения от Серый Страж
Значит, если правый, то узнала? А почему именно так считаете? Может, наоборот, это свидетельствует о том, что не узнала? Может, если узнала, никакой вообще нейрон загораться не должен на выходе? Ведь то, что она узнала и именно при загорании правого нейрона - это ваша интерпретация.
Вы ранее утверждали, что знание — это структура сети.
Я ранее утверждал, что знания любой системы определяются структурой этой системы.
Если вы сеть приравниваете к системе, которая самостоятельно распознаёт, запоминает и пр., то пусть будет сеть. Просто, если более строго говорить, то сеть – это всего лишь архитектура системы (система же может иметь и другую архитектуру).

Вот сети показывают кошек и собак, она их различает. Это значит, что у сети есть знание собак и кошек?
Да, если различает, то у неё есть знание – в виде абстрактов «собачесть» и «кошачесть», которые в распределённом виде «вшиты» в структуру сети. Разумеется, «вшивание» знаний происходило в процессе обучения сети (то есть, эти знания уже можно обозвать и опытом).
 
И различает сеть кошек и собак, потому что внутри себя сравнивает входящие сигналы со своими знаниями?
Если различает – значит, сравнивает. Соответственно, у неё есть, что и с чем сравнивать и есть, посредством какого механизма (какой структуры) сравнивать.

Но сейчас, как я понял, вы утверждаете, что процесс сравнения обязательно связан с осознанием и воспоминаниями?
Для чего вы акцентируете внимание на противопоставлении? Я нисколько не изменил сути своих утверждений. Осознание – это и есть процесс сравнения/сопоставления (можно, и согласованием обозначить сей процесс) чего-то осознаваемого с имеющимися знаниями.

А воспоминания – это просто формат имеющихся знаний, удобный, так сказать, для процесса сравнения/сопоставления. На самом деле, конечно, дело не удобстве, а в согласованности форматов.
 
То есть наша сеть различает кошек и собак, потому что у неё есть сознание и она вызывает в себе «образы-воспоминания»?
Если она различает, то у неё уже есть: и необходимый уровень (для такого различения) сознания, и способность вызывать образы-воспоминания. Про сознание (и уровни сознания) я уже свои пояснения предлагал, напомню:
 
Суть сознания – это условие «со знанием».
Суть механизма сознания – это реализация данного условия «со знанием».
Суть реализации – это процесс осознания (то есть, сравнение/сопоставление со знанием).
Суть состояния в сознании – это наличие процесса осознания.

Вообще, с такой точки зрения (которую я предлагаю) мозг – это только «техническое устройство» (при этом, не изолированное, а включённое в состав более крупной системы – в организм), которое, помимо множества других функций, обеспечивает реализацию сознания (и иже с ним). И реализовать функцию сознания можно в разных мозгах по-разному, (и даже в одних мозгах, но на разных уровнях можно по-разному организовать).

Мало того, то, что для одного мозга (какого-нибудь «насекомыша») будет высшим уровнем его механизма сознания, то, для другого (какого-нибудь млекопитающего) окажется, всего лишь, одним из низших уровней его механизма сознания.

Я уже давно предлагал не возводить понятие сознание на пьедестал – нет в нём ничего трансцендентного и мистического…

И без всего этого сравнения не будет, сеть кошек от собак не отличит?
Если сравнения не будет, то не отличит. Здесь «без всего этого» не обязательно вообще – процесс сравнения/сопоставления может быть реализован различными механизмами, я об этом говорил:
Обобщение и сравнение – это разные функции и вполне могут быть реализованы с помощью разных механизмов по отдельности.

Любой датчик реализует функцию сравнения – при совпадении параметров (или, наоборот, при отличии параметров)  входящего сигнала внутренним настройкам/уставкам датчика генерируется сигнал. Можно настроить датчик не на точное соответствие, а на приблизительное.
То есть, к датчику тоже можно применить и функцию осознания, базирующуюся на процессах сравнения/сопоставления. Соответственно, у датчика имеются и врождённые знания, которые в нём преобразуются в необходимый формат для процессов сравнения/сопоставления с входящими сигналами, и т.д. Разумеется, уровень «сознательности» такого устройства минимален. 

Обратите внимание, что сложные системы имеют много уровней, и на каждом уровне осознание идёт немного по-своему, но принципиально ничего не меняется – это всегда сравнение/сопоставление (можно обозвать и согласованием) имеющих на данном уровне знаний и осознаваемого. Понятно, что каждый уровень использует свои знания – знания, доступные данному уровню.

Ответы на мои вопросы не требуют разборок с мат. частью. Просто ответьте на каждый вопрос "да" или "нет".
По-вашему, знание — это структура сети, следовательно любое знание — это вся структура сети, сеть — это же распределённая система. То есть все знания в сети одинаковые.
Странная немного логика: если распределённые, то одинаковые. Если распределение равномерно, гомогенно, изотропно и т.п., то да – все знания в такой сети одинаковы.
Если распределение структуры системы неравномерно, то и знания будут распределены неравномерно.
В мозгу ведь знания также представлены в распределённом виде, но вы ведь не говорите, что они одинаковы.

Распределение знаний неодинаково вследствие неодинаковости распределения структуры – архитектура системы постоянно сочетается то с сетевой, то со строго иерархической, то линейной (последовательности отдельных блоков), то комбинированной и т.д.

Но они же разные?
Разные.

Как это возможно, и что такое знание?
Выше пояснил, как такое возможно. И что такое знание системы, я уже говорил.

Как видите, на ваши вопросы невозможно ответить, потому что пока даже непонятно, о чём они, о какой сущности речь идёт. В связи с чем я вам и говорю, что вначале надо разобраться с мат. частью.
Вы опять решили увести разговор в сторону и перевести его на малозначащие (в данном контексте) детали.

Повторяю, вне зависимости от того, что такое знания, где они конкретно и в какой форме находятся в системе и т.д., на предлагаемые мной вопросы ответить можно. Обзовите знания «сферическим конём в вакууме», форму хранения определите как «шар», место хранения, как «слева за поворотом» и просто ответьте на вопросы.

Снова прошу ответить на вопросы (в шестой раз уже прошу):
1.Можно ли, не имея знаний, узнать или распознать?
2.Можно ли, не используя знания, узнать или распознать?
3.Можно ли узнать или распознать, не сопоставляя/сравнивая, при этом, распознаваемое/узнаваемое с имеющимися знаниями?
Всегда на границе Света и Тьмы...

Онлайн MenFrame

  • *****
  • Сообщений: 7 290
  • Благодарностей: 165
  • Мне нравится этот форум!
    • Сообщения от MenFrame
Идея, что искусственный интеллект в принципе не сможет превзойти естественный, — это логический вывод из фактов.
В вашем случае совершенно неестественный вывод. То есть приводите факты которые не коим образом не свидетельствуют в пользу невозможности превосходства ИИ.
Потому что мозг выполняет всего одну функцию, но делает это очень сложным образом,
Мы помним святые бифуркации творят чудеса неисповедимым образом. Аминь...
Наука есть организованный скептицизм в достоверности экспертного мнения.  Ричард Фейнман
Свобода, есть форма ответственности за необходимую глупость. (не помню кто сказал)

Оффлайн Alexandr911

  • *****
  • Сообщений: 3 256
  • Благодарностей: 125
  • Созвёзднадроснадзор
    • Сообщения от Alexandr911
"Инстинкт - врожденная склонность осуществлять некие действия без предварительного опыта.
Интеллект - способность понять данную ситуацию и адаптироваться к ней.
У робота тоже могут быть "инстинкты"-короткие подпрограммы для самосохранения, но на основе наших выданных  "заповедей".
(кликните для показа/скрытия)

Оффлайн Вайт

  • *****
  • Забанен!
  • Сообщений: 631
  • Благодарностей: 7
  • Мне нравится этот форум!
    • Сообщения от Вайт
Каков Ваш контраргумент по существу?

Полное невежество в отношении, например, математики, это неумение считать до десяти. Подобный уровень знаний вы демонстрируете в отношении работы мозга. Поэтому тот «контраргумент по существу», который вам сейчас подходит, — это начать объяснять вам работу мозга, начиная с самых основ. Но всё это уже сделано в предложенной вам ссылке, работа мозга там объясняется как раз с самых основ от простого к сложному. Или, покороче, в этой статье - Самоорганизация в организме и мозге. Ссылки на АИ находятся в конце статьи, в части «Дополнительно», там разберётесь.

Оценка - моё скромное мнение, но вы же хотите обратную связь от читателя, пусть даже десятка страниц?

Обратная связь важна в разное время разная и в целом она должна быть по существу. Очевидно, что ваше мнение ценности пока не представляет.

Если она различает, то у неё уже есть: и необходимый уровень (для такого различения) сознания, и способность вызывать образы-воспоминания.

Любое знание — тот же образ — это вся сеть. Поэтому чтобы в сети был образ, активизирована должна быть вся сеть. Возможно это минимум только при наличии обратных связей. Но сеть, которая отличает кошек от собак, таких связей не имеет — это сеть прямого распространения сигнала. В такой сети последовательно от входа к выходу вычисляется выходной сигнал каждого нейрона одного слоя сети, потом переходят к расчётам нейронов следующего слоя и так далее. Никаких образов в такой сети не может быть в принципе. Следовательно, по-вашему, она не сравнивает, но собак от кошек отличает. Как так?

Причём искусственные сети, даже с обратными связями, — это всё равно последовательные расчёты, пошаговые цепочки действий программы, которая обсчитывает нейроны в зависимости от того, как они связаны. Сознания в таких сетях не может быть в любом случае, потому что в них нет континуума процессов. Этот континуум есть только в биологических сетях, потому что они — объём веществ и химических реакций нейросетевой архитектуры.

Повторяю, вне зависимости от того, что такое знания, где они конкретно и в какой форме находятся в системе и т.д., на предлагаемые мной вопросы ответить можно.

По-вашему, любое знание — это структура сети. Так? Значит, все знания одинаковы: любой образ — это та же самая структура сети. Почему же тогда образы разные? Понимаете вопрос?

Вы неверно определяете знания, поэтому задаёте вопросы, которые не имеют смысла. Например, у вас получается, что знания в сети существуют заранее, поэтому с ними что-то можно сравнить. Другими словами, не понимая, где в сети знания, что это такое, как они возникают и когда, вам кажется, что ваши вопросы разумны. Поэтому давайте вначале разберёмся с матчастью. Где же всё-таки знания в сети, что это такое.

Онлайн MenFrame

  • *****
  • Сообщений: 7 290
  • Благодарностей: 165
  • Мне нравится этот форум!
    • Сообщения от MenFrame
Сознания в таких сетях не может быть в любом случае, потому что в них нет континуума процессов.
То есть загадочной субстанции которая логически неописуема.
Этот континуум есть только в биологических сетях, потому что они — объём веществ и химических реакций нейросетевой архитектуры.
Этот континуум просто абракадабра из ваших слов...
По-вашему, любое знание — это структура сети. Так? Значит, все знания одинаковы
Нет вообще не значит.... Любая картинка это набор бит, но это не значит что все картинки одинаковы.
любой образ — это та же самая структура сети.
Структура сети везде одинакова(у человека) Образы зашиты в синаптических шаблонах. То есть в массивах весов синапсов.
Наука есть организованный скептицизм в достоверности экспертного мнения.  Ричард Фейнман
Свобода, есть форма ответственности за необходимую глупость. (не помню кто сказал)

Оффлайн Вайт

  • *****
  • Забанен!
  • Сообщений: 631
  • Благодарностей: 7
  • Мне нравится этот форум!
    • Сообщения от Вайт
Структура сети везде одинакова(у человека) Образы зашиты в синаптических шаблонах. То есть в массивах весов синапсов.

MenFrame, будьте внимательнее. У меня в посте речь идёт о разных знаниях одной сети. Если знания сети связывать со структурой сети или, как вы пишете, только с весами связей, то получается, что разные знания в сети — это одно и то же. Любое конкретное знание — это массив весов связей сети. Но знания же разные? Как это возможно? Это возможно так, что надо матчасть учить или мои посты внимательнее читать.

Этот континуум просто абракадабра из ваших слов...

Ну, а вам разве непонятно, что мозг — это упорядоченный континуум веществ и химических реакций? Поэтому чем бы ни было сознание, но оно связано с мозгом, и потому оно тоже упорядоченно и континуально. Плюс другие особенности мозга типа неравновесности и, как следствие, целостности и неравновесных фазовых переходов, которые ещё точнее связывают особенности работы мозга с особенностями сознания. Вы эти последние научные идеи не понимаете и, как показывает обсуждение, объяснять вам их бесполезно. Но, поверьте, они важны. В искусственных сетях ничего из упомянутого нет.

Оффлайн Серый Страж

  • ****
  • Сообщений: 484
  • Благодарностей: 49
  • Мне нравится этот форум!
    • Сообщения от Серый Страж
Вайт.

Прошу, перечитайте мои ответы в этой теме (их немного). Я в них уже пояснял все моменты, которые вы мне подсовываете в виде очередных возражений-оправданий (лишь бы не отвечать на мои вопросы). На большинство ваших возражений, в моих предыдущих сообщениях, уже были пояснения – перечитайте внимательно мои сообщения.

Если она различает, то у неё уже есть: и необходимый уровень (для такого различения) сознания, и способность вызывать образы-воспоминания.
Любое знание — тот же образ — это вся сеть. Поэтому чтобы в сети был образ, активизирована должна быть вся сеть. Возможно это минимум только при наличии обратных связей. Но сеть, которая отличает кошек от собак, таких связей не имеет — это сеть прямого распространения сигнала. В такой сети последовательно от входа к выходу вычисляется выходной сигнал каждого нейрона одного слоя сети, потом переходят к расчётам нейронов следующего слоя и так далее. Никаких образов в такой сети не может быть в принципе. Следовательно, по-вашему, она не сравнивает, но собак от кошек отличает. Как так?
Я вам говорил, что такая сеть (прямого распространения) входит в систему, которая распознаёт. Сама сеть прямого распространения может только абстракт выделять, а для сравнения понадобится ещё некий блок. Можно (гипотетический пример приводил) и на сетевой архитектуре организовать процессы сравнении/сопоставления, но это будет сложно, на мой взгляд.

И ещё. Не стоит подменять понятием сеть понятие система.

Повторяю, вне зависимости от того, что такое знания, где они конкретно и в какой форме находятся в системе и т.д., на предлагаемые мной вопросы ответить можно.
По-вашему, любое знание — это структура сети. Так? Значит, все знания одинаковы: любой образ — это та же самая структура сети. Почему же тогда образы разные? Понимаете вопрос?
Уже объяснял – локально и актуально структура в системе может быть разной, следовательно, и знания в системе локально актуально будут разными.

Вы неверно определяете знания, поэтому задаёте вопросы, которые не имеют смысла.
Определите сами. Вы же можете верно определить понятие знания? А после этого определения ответьте на мои простые вопросы. Эти вопросы имеют смысл и на них можно ответить и вне зависимости определения понятия знания.
 
Например, у вас получается, что знания в сети существуют заранее, поэтому с ними что-то можно сравнить.
Заранее до чего? До момента сравнения/сопоставления? Сначала система обучается (приобретает знания) и к моменту, когда она в состоянии сравнить/сопоставить, она уже имеет знания.

Если система имеет уже с рождения соответствующую структуру, то эти знания следует обзывать врождёнными.
   
Другими словами, не понимая, где в сети знания, что это такое, как они возникают и когда, вам кажется, что ваши вопросы разумны. Поэтому давайте вначале разберёмся с матчастью. Где же всё-таки знания в сети, что это такое.
Вы ставите «телегу впереди лошади». Для ответов на мои вопросы не требуется знать: ни где эти знания в системе находятся, ни что собой представляют эти знания, ни как и когда возникают эти знания, ни… и так далее…

Ответы на вопросы – это первый этап. На втором этапе уже можно рассматривать следствия – в зависимости от ответа (да/нет), приходим к разным выводам. Соответственно, уже можно ставить проверяющие вопросы. Даже на этапе рассмотрения проверяющих вопросов можно прийти к умозаключениям о верности или ложности озвученных ответов на вопросы первого этапа.

Далее, разобравшись с верностью или ложностью ответов (и скорректировав ответы соответствующим образом) можно переходить к вопросам о том, как это устроено, где и в какой форме это находится, как это работает и т.д.

Следом, появляется возможность ответов на вопросы о том, можно ли это дело реализовать в искусственных системах.

Ну, а в заключение, уже можно задаться вопросом, а могут ли искусственные системы превзойти человека. Скажу сразу: в будущем (если развитие цивилизации продолжится), отдельного человека превзойти – возможно, а вот социум в целом (особенно если учесть весь его (социума) «интеллектуальный обвес» – интернет, системы ИИ, автоматизированные производства и т.д. и т.п.) превзойти – невозможно. Объяснение простое – система не может создать систему сложнее себя.   

И ещё. На ваши вопросы я отвечаю, а вы на мои не отвечаете. Всё время от вас какие-то отговорки идут, всё время ссылаетесь, что вам для ответов нужно знать то одно, то другое, то третье…

Опять прошу ответить на вопросы (в седьмой раз уже прошу):
1.Можно ли, не имея знаний, узнать или распознать?
2.Можно ли, не используя знания, узнать или распознать?
3.Можно ли узнать или распознать, не сопоставляя/сравнивая, при этом, распознаваемое/узнаваемое с имеющимися знаниями?
Всегда на границе Света и Тьмы...

Оффлайн noxx77

  • *****
  • Сообщений: 4 966
  • Благодарностей: 154
  • Мне нравится этот форум! ;))
    • Skype - zerghammer1
    • Сообщения от noxx77
    • ВК
мозг — это упорядоченный континуум веществ и химических реакций?
Да-да, псевдонаучная терминология позволяет объяснить что угодно. А теперь давайте посмотрим, чем и как реально упорядочен этот "континуум" в ГМ:
1) На химическом уровне это биохимические реакции и структуры (нуклеиновые кислоты, липидные мембраны и т.д.), обеспечивающие функционирование клеток ГМ и связь между ними (гормоны, нейромедиаторы). Этим занимается биохимия. Биохимия нейронов в общем и целом известна. Нюансов хватает, но как работает понятно.
2) На клеточном/тканевом - это та самая нейросеть, например, шестислойная клеточная структура неокортекса с преобладанием одного вида нейронов, образующих структурные вертикальные единицы - колонки и слои с горизонтальным распространением возбуждения/торможения.
3) А вот дальше начинается самое вкусное: отдельные участки мозга в целом и неокортекса в частности отвечают за разные функции. То есть "континуум" анатомически разграничен функционально и на функциональном уровне вполне можно говорить о разных "органах" внутри одного, хотя и вовлеченных в единую скоординированную работу. Собственно только на уровне этой работы есть смысл говорить о каком-то "континууме" - отделы работают сами по себе, получая информацию от других и принимая каждый своё решение (+ передавая другим по анатомически обусловленной "необходимости"). Любая "самоорганизация" довольно жестко упирается в иерархическую генетически обусловленную анатомию. Кора функционально делится на три зоны: сенсорную, моторную и ассоциативную. Первая отвечает за приём/обработку сигнала от внешних органов, вторая за осмысленные движения, включая ту же механику речи, к примеру, а столь "загадочное" сознание - прерогатива ассоциативной коры. Плюс, как писал раньше, анатомически привязаны функции кратковременной памяти, запоминание/забывание(и вообще операций с памятью, поскольку она при воспроизведении перезаписывается) - гипокамп, эмоциональные реакции - амигдала, она же миндалевидное тело, общая активность сон/бодрствование, а также "режимы" нового и повторного сигнала - ретикулярная формация, и т.д. В функции сенсорной зоны входит составление карты местности для ориентации. Есть также области Брока, Вернике,  sgACC и т.д. с их специфическими функциями, нарушение которых приводит к конкретным заболеваниям.

Но и, если мы сконцентрируемся на ассоциативных областях коры ГМ, то заметим функциональные различия :
(кликните для показа/скрытия)
Как видим, "континуум" можно представить через скоординированную работу локальных функциональных зон. Значит, по мере разбиения на познавательные задачи и успешного их решения, большого и мистического на первый взгляд "слона" можно съесть "маленькой ложечкой", что сейчас и делается в рамках робототехники: решаются задачи распознавания значимых образов, пространственной ориентации, и движения в естественной среде, моделируются эмоции и вообще человеческое поведение в типовых ситуациях, включая коммуникативное и т.д., и т.д. Скоординировать работу разных систем в машине - задача техническая, но при должной иерархии (а не континууме) решается и решается в технике регулярно. любой регулирующий электронный автомат (независимо от устройства) по сути принимает решения. Вопрос в сложности.
 
При этом на функциональном уровне вообще нет смысла копировать биохимический, важно лишь успешно решать те же задачи!
Вы эти последние псевдонаучные идеи не понимаете
Исправил, не благодарите.
« Последнее редактирование: 15 Июн 2021 [07:43:33] от noxx77 »
В космосе никто не услышит визга той чуши, которую Вы порете

Оффлайн noxx77

  • *****
  • Сообщений: 4 966
  • Благодарностей: 154
  • Мне нравится этот форум! ;))
    • Skype - zerghammer1
    • Сообщения от noxx77
    • ВК
Опять прошу ответить на вопросы (в седьмой раз уже прошу):
С высокой степенью вероятности предполагаю, что оппонент опять сошлётся на Вашу тупость и неспособность понять его просветлённый уровень и/или отправит Вас читать свой 200+ страничный опус с фактическими и логическими нарушениями на каждой странице. Аргументов у него нет.
В космосе никто не услышит визга той чуши, которую Вы порете

Оффлайн noxx77

  • *****
  • Сообщений: 4 966
  • Благодарностей: 154
  • Мне нравится этот форум! ;))
    • Skype - zerghammer1
    • Сообщения от noxx77
    • ВК
В соседней теме про роботов абонент Вайт продолжает буйствовать по поводу сознания и его невоспроизводимости на машинном уровне. Хотелось бы поднять этот вопрос здесь, поскольку важный и может понадобиться:
Для начала определение
Здесь в психологии существует определённая разноголосица, как и вообще в описании сложных явлений с размытыми границами, но нам понадобится более-менее чёткое и простое.

Во-первых сразу возникает желание исключить определения вроде "сознание – это высший уровень развития психики, присущий человеку", поскольку оно заведомо идёт от двух предпосылок: относительной - "высший" предполагает сравнение с кем-то низшим и по принадлежности "человеку", а, следовательно, всё, что не человеку сознанием не является. Значит машина (казалось бы) автоматически исключается. При этом определение ничего не даёт в плане содержания. Но, поскольку человек - единственный носитель сознания в полной и безоговорочной мере, ориентироваться на его уровень и как-то описывать его по факту придётся.

А.Н. Леонтьев определяет так: «Сознание, в своей непосредственности есть открывающаяся субъекту картина мира, в которую включен и он сам, его действия и состояния»
 
Или, часто встречающееся, авторство которого я не нашёл, но которое мне видится более интересным и точным:

Сознание — это высший уровень отражения действительности, проявляющийся способностью личности отдавать себе ясный отчет об окружающем, о настоящем и прошлом времени, принимать решения и в соответствии с ситуацией управлять своим поведением.

И вот эти два определения уже дают многое:
1) Сознание как способность субъекта строить картину мира, в которую включен он сам, то есть и картину себя в мире (самосознание), и картину ситуации, в которую включен субъект с прогнозами её развития - без этого невозможно осознанное (целесообразное) поведение.
2) Сознание как способность личности. Крайне важно:
Цитата
личность — феномен общественного развития, конкретный живой человек, обладающий сознанием и самосознанием. Структура личности — целостное системное образование, совокупность социально значимых психических свойств, отношений и действий индивида, сложившихся в процессе онтогенеза и определяющих его поведение как поведение сознательного субъекта деятельности и общения.
Как видим, понятия личности и сознания связаны напрямую. При этом в определение личности включена "совокупность социально значимых психических свойств" и "общественное развитие". Если подумать, каждый человек общественно и исторически конкретен: он дитя своей среды и своей эпохи. Он отражает в сознании - как личность - языком и знаниями своей эпохи, он сформирован (социализирован) её отношениями. Дети-маугли теряют способность к социализации, поскольку уже "социализированы" в стаю, а важные социальные способности у них не сформированы в индивидуальном пути развития (онтогенезе) в нужное время. Они не являются личностями и не обладают сознанием в человеческом смысле, но обладают их зверинным эквивалентом. То есть картина в сознании (и самосознании) - общественная, социальная, обусловливающая аобщественную же деятельность объекта. 

Поэтому, спрашивая, может ли, например, робот иметь сознание = быть вписанным как сознательный субъект в общество, мы встаём перед вопросом - в какое общество?. И ответом: в наше, человеческое. То есть будет ли обладать "совокупностью социально значимых психических свойств" - то есть сознательно вести себя как более-менее хороший человек, при всей неоднозначности и изменчивости общественной нормы в отношении поведения и способностей.

Здесь сразу хочется заметить, что люди обладают как разной степенью развития способностей, знаний, так и своим отношением к норме, но никто не отрицает наличия сознания у преступника, иностранца или интеллектуально негибкого, ограниченного человека, склонного к формализму шаблону и буквальности (но осознающего в целом, что такое хорошо и плохо в его среде, её общественную иерархию и т.д). Соответственно сознание - в том числе и у робота может иметь разные стадии развития, а относительно низкая, но минимально рефлексивная, построенная на оперировании социальным знанием в формировании поведения, уже будет предполагать наличие сознания.

Деятельность человека тесно связана мотивацией, отношением, эмоционально-волевой сферой. То есть неизбежно формирование личного оценочного отношения. Эмоций не так уж и много - счастье, грусть, испуг/удивление и гнев/отвращение. Чувства и отношения могут быть куда более многогранны, поскольку представляют собой комплекс отражающий смысл (значение объекта для процесса жизнедеятельности субъекта) - здесь совершенно конкретная связь чувства с сознанием, внутренними потребностями и целями субъекта. В силу другой материальной основы, робот никогда не сможет чувствовать как человек, но определять значение для своей "жизнедеятельности", а точнее - социальной миссии, способен вполне. Эмоциональный процесс вполне может быть заменён калькуляцией оценочных значений и построению деятельности на этом. К слову, люди тоже нередко так делают: показывая приемлемые/ожидаемые эмоции там, где их нет. При этом отсутсвие глубокой эмоции не означает одновременно отсутсвие соответствующей ей оценки. Испытывать гнев на несправедливость и искренне считать, что что-то неправильно - не равнозначно, но негативная оценка одна, и т.д.

Конец первой части...
В космосе никто не услышит визга той чуши, которую Вы порете

Оффлайн Вайт

  • *****
  • Забанен!
  • Сообщений: 631
  • Благодарностей: 7
  • Мне нравится этот форум!
    • Сообщения от Вайт
Я вам говорил, что такая сеть (прямого распространения) входит в систему, которая распознаёт. Сама сеть прямого распространения может только абстракт выделять, а для сравнения понадобится ещё некий блок.

Давайте-ка сейчас не будем распыляться и на этом вашем утверждении остановимся.

Итак, наша сеть прямого распространения умеет распознавать кошек и собак. Правый нейрон активизируется — кошка, левый — собака. Какие ещё «некие блоки»? Зачем они, если распознавание происходит в сети и сеть уже дала ответ? Нейронная сеть — это алгоритм, вы можете её работу ручкой на бумаге записать. Подставляя сигналы на входе, последовательно рассчитать в столбик каждый нейрон и получить сигналы на выходных нейронах. При этом ничего ни с чем не сравнивается и никаких образов нигде, естественно, не возникает — а результат есть, сеть отличает кошек от собак. Свёрточная нейронная сеть — Википедия.

Есть нейронные сети, где действительно есть «блоки» и даже функция «сравнения». Возможно, вы о них что-то слышали и решили, что фразы типа «нисходящие ожидания принимают форму припоминаемых прототипов или образцов, которые затем сравниваются с реально наблюдаемыми свойствами объекта» — это про сознание и некие реальные образы. Но на самом деле всё проще: превышен определённый порог — один ответ, не превышен — другой. То есть это всё тот же алгоритм, просто у него есть такая часть, которую назвали «сравнением». Никаких образов в этой сети, естественно, тоже нет. Поэтому что сеть выше отличает кошек от собак, что эта отличает — всё тоже самое, просто архитектура у сетей разная. Для каких-то задач одна удобнее, для каких-то другая. Адаптивная резонансная теория — Википедия.

С образами и сравнениями вам всё понятно? Тогда осталось только выяснить вопрос со знаниями. Где они в сети.

хотя и вовлеченных в единую скоординированную работу.

В чём суть этой работы?

Значит, по мере разбиения на познавательные задачи и успешного их решения,

У мозга одна функция, поэтому моделировать надо её.

Собственно только на уровне этой работы есть смысл говорить о каком-то "континууме" ...,

Верно, а теперь читайте о синхронизации и неравновесных фазовых переходах в мозге. Разберитесь, в каких системах неравновесные переходы вообще происходят и чем такие системы характеризуются. И о таких же переходах в морфогенезе тоже нужно будет прочитать - чтобы понять, на каком уровне всё начинается. По уже рекомендованной вам ссылке всё есть.

И для общего развития. Популярных работ на эту тему мне неизвестно, вот только эта (кроме её третьей части). Сейчас всё это уже давно теории, а не гипотезы:

Цитата
Исследования последнего времени показали, что электроэнцифалограммы (ЭЭГ) животных и человека представляют собой детерминированный хаотический процесс с числом степеней свободы не выше 10, в зависимости от функционального состояния мозга (сон, бодрствование, эпилепсия и т.д.) Это сравнительно небольшое число степеней свободы ЭЭГ сигнала указывает на высокую степень самоорганизации в электрической активности нейронов. ...

Когда во время утреннего кофе мы берем чашку со стола и подносим ее к губам, информация об том процессе очень разнообразна и поступает она в разные отделы мозга. Это и зрительная информация о форме и цвете чашки, и осязательные впечатления о шероховатости чашки и ее температуре, а также обонятельная информация о запахе, информация о траектории движения руки и т.д. Все эти данные поступают практически одновременно в разные области мозга, но при этом формируется целостный многомодальный образ, в котором эта разнородная и разномодальная информация связана друг с другом. ...

В 1981 году Мальсбург (C. Von der Malsburg) высказал гипотезу, что механизмом такой интеграции является кратковременная (доля секунды) синхронизация активности нейронных ансамблей соответствующих отделов мозга, благодаря чему и формируется целостный образ. В научной литературе эта гипотеза получила название binding problem (проблема связывания). В последние годы эта гипотеза получает все большее признание, в первую очередь, благодаря работам В.Зингера (Wolf Singer) и Р.Экхорна. Эти исследователи регистрировали синхронизацию осцилляторов активности удаленных друг от друга участков коры на частоте около 40 герц у анестезированных кошек при предъявлении зрительных стимулов в виде ярких ориентированных движущихся отрезков. ...

Синхронизация есть мера степени согласованности между временными структурами сигналов безотносительно к амплитуде этих сигналов. … В нейрофизиологии о синхронизации говорят, когда фаза поддерживается постоянной в течение нескольких сотен миллисекунд. … Высказывается предположение, что в процессах синхронизации отдельные признаки объекта кодируются с помощью фаз групп осциллирующих нейронов, а объединение этой информации в единый образ происходит за счет синхронизации колебаний соответствующих групп осцилляторов.

Синергетика мозга. 2005 год.



Оффлайн Андрей Астрофизический

  • *****
  • Сообщений: 6 710
  • Благодарностей: 434
  • Всё, отлетались. Сушите весла.
    • Сообщения от Андрей Астрофизический
Поэтому, спрашивая, может ли, например, робот иметь сознание = быть вписанным как сознательный субъект в общество, мы встаём перед вопросом - в какое общество?. И ответом: в наше, человеческое.
По началу может быть. Но, вообще-то, это не обязательное условие.
Мне известно достаточно, чтобы утверждать - я почти ничего не знаю.

Оффлайн BlackMokona

  • *****
  • Сообщений: 19 574
  • Благодарностей: 610
  • Мне нравится этот форум!
    • Сообщения от BlackMokona
Итак, наша сеть прямого распространения умеет распознавать кошек и собак. Правый нейрон активизируется — кошка, левый — собака.
Кхе Кхе
Держите визуализацию компьютерной нейронной сети
Это маленькая по современным меркам, и уже значительно устаревшая, но в целом представление даёт.