Телескопы покупают здесь


A A A A Автор Тема: Психика, сознание, разум - определения и возможность моделирования  (Прочитано 155424 раз)

0 Пользователей и 2 Гостей просматривают эту тему.

Оффлайн Вайт

  • *****
  • Забанен!
  • Сообщений: 631
  • Благодарностей: 7
  • Мне нравится этот форум!
    • Сообщения от Вайт
Кхе Кхе

И в чём "Кхе Кхе"? Это визуализация, а не реальность. Или вы думаете у сетей сознание нашли?

Оффлайн BlackMokona

  • *****
  • Сообщений: 19 574
  • Благодарностей: 610
  • Мне нравится этот форум!
    • Сообщения от BlackMokona
Кхе Кхе

И в чём "Кхе Кхе"? Это визуализация, а не реальность. Или вы думаете у сетей сознание нашли?
Визуализация и отражает реальность, превращая огромное число ноликов и единичек во что то видимое и более понятное.  ;D
А сознание у них никто и не ищет, смысл в нём то? Все хотят получать практические результаты, а не заниматься поиском всякой фигни.

Оффлайн Вайт

  • *****
  • Забанен!
  • Сообщений: 631
  • Благодарностей: 7
  • Мне нравится этот форум!
    • Сообщения от Вайт
Визуализация и отражает реальность, превращая огромное число ноликов и единичек во что то видимое и более понятное.

Верно. Тогда против чего вы в моём посте возражали? К чему было ваше "кхе кхе"?

Оффлайн николай теллалов

  • *****
  • Сообщений: 14 813
  • Благодарностей: 798
    • Сообщения от николай теллалов
    • блог
спрашивая, может ли, например, робот иметь сознание = быть вписанным как сознательный субъект в общество, мы встаём перед вопросом - в какое общество?. И ответом: в наше, человеческое. То есть будет ли обладать "совокупностью социально значимых психических свойств" - то есть сознательно вести себя как более-менее хороший человек, при всей неоднозначности и изменчивости общественной нормы в отношении поведения и способностей.
+++

давно об этом говорю

Оффлайн BlackMokona

  • *****
  • Сообщений: 19 574
  • Благодарностей: 610
  • Мне нравится этот форум!
    • Сообщения от BlackMokona
Визуализация и отражает реальность, превращая огромное число ноликов и единичек во что то видимое и более понятное.

Верно. Тогда против чего вы в моём посте возражали? К чему было ваше "кхе кхе"?
К тому, что у вас представление о современных нейронных сетях отсутствует полностью

Оффлайн Вайт

  • *****
  • Забанен!
  • Сообщений: 631
  • Благодарностей: 7
  • Мне нравится этот форум!
    • Сообщения от Вайт
К тому, что у вас представление о современных нейронных сетях отсутствует полностью

Вот оно что. Так вы в моём посте против чего конкретно возражаете? Что вас на эту мысль натолкнуло?

Оффлайн Вайт

  • *****
  • Забанен!
  • Сообщений: 631
  • Благодарностей: 7
  • Мне нравится этот форум!
    • Сообщения от Вайт
В соседней теме про роботов

Вы думаете, если вы в соседней теме про роботов с друзьями шептаться начнёте, то факты исчезнут? Не исчезнут. Но фантазировать, если от фактов спрятаться, действительно удобнее. Дерзайте в общем. Лунные трактора и всё такое, как вы умеете.

Оффлайн MenFrame

  • *****
  • Сообщений: 7 285
  • Благодарностей: 165
  • Мне нравится этот форум!
    • Сообщения от MenFrame
Любое конкретное знание — это массив весов связей сети. Но знания же разные? Как это возможно?
Любой файл на компьютере это просто набор бит. Но все файлы разные? Как же это возможно?

Ну, а вам разве непонятно, что мозг — это упорядоченный континуум веществ и химических реакций?
А разве вам не понятно что печень это тоже упорядоченный континуум химических реакций, так же как и любой другой орган человеческого организма.  Но вот в чем вопрос...
Почему же они все разные?
В искусственных сетях ничего из упомянутого нет.
Тем не менее они прекрасно справляються с задачами распознавания.  Что как бы уже намекает на то что все эти биологические особенности ни какого особоважного функционала не несут.
Плюс другие особенности мозга типа неравновесности и, как следствие, целостности и неравновесных фазовых переходов, которые ещё точнее связывают особенности работы мозга с особенностями сознания.
Вайт у вас глубокий сбой в элементарной логике.  Как из неравновесности может следовать какая та целостность, только ежик в тумане может понять, и то при условии что этот ежик этот туман недавно выкурил.
При этом ничего ни с чем не сравнивается
Любая программа калькулятора это просто алгоритм, последовательность логических операций. При этом там не чего не с чем не сравнивается, ни что не на что не перемежаются и не возводиться в корень. Если любая программа это просто алгоритм....То почему же они все разные?

А вам объясню...Обобщение нескольких объектов в рамках одной абстракции не делает объекты одинаковыми. Все кошки разные, но кошками их зовут потому что у них есть что то что их всех объединяет в одну категорию. При этом не откуда не следует что кошки должны быть одинаковыми, раз уж мы их кошками называем. Так же и синаптические шаблоны разные, и как следствие реагируют на разные наборы входящих сигналов, и все это не смотря на то что все они остаются синаптическими шаблонами.
« Последнее редактирование: 15 Июн 2021 [10:56:58] от MenFrame »
Наука есть организованный скептицизм в достоверности экспертного мнения.  Ричард Фейнман
Свобода, есть форма ответственности за необходимую глупость. (не помню кто сказал)

Оффлайн Вайт

  • *****
  • Забанен!
  • Сообщений: 631
  • Благодарностей: 7
  • Мне нравится этот форум!
    • Сообщения от Вайт
Любой файл на компьютере это просто набор бит. Но все файлы разные? Как же это возможно?

То есть вы и со второго раза не поняли, о чём речь? Ну, третьего раза не будет. Не поняли и не поняли.

А разве вам не понятно что печень это тоже упорядоченный континуум химических реакций, так же как и любой другой орган человеческого организма.  Но вот в чем вопрос... Почему же они все разные?

Да, тоже континуум и они разные. Что вас удивляет?

Тем не менее они прекрасно справляються с задачами распознавания.  Что как бы уже намекает на то что все эти биологические особенности ни какого особоважного функционала не несут.

Намекает, но недостаточно.

Вайт у вас глубокий сбой в элементарной логике.  Как из неравновесности может следовать какая та целостность, только ежик в тумане может понять, и то при условии что этот ежик этот туман недавно выкурил.

Представьте себе, следует. Это факт. Простая модель - песчаная куча. Думайте, почему. Не надумаете - прочитайте. Вы знаете, где.

Оффлайн MenFrame

  • *****
  • Сообщений: 7 285
  • Благодарностей: 165
  • Мне нравится этот форум!
    • Сообщения от MenFrame
Да, тоже континуум и они разные. Что вас удивляет?
Меня  удивляет что вы это считаете аргументом.  Типа мозг в чем то похож на печень, а значит ИИ некогда не будет сильнее человека.
Намекает, но недостаточно.
Не достаточно для чего?
Представьте себе, следует. Это факт.
Факты в студию, желательно со ссылкой на референтный источник.

То есть вы и со второго раза не поняли, о чём речь?
Я то понял, и объяснид в каком месте у вас большие проблемы с логикой.
Любая программа калькулятора это просто алгоритм, последовательность логических операций. При этом там не чего не с чем не сравнивается, ни что не на что не перемежаются и не возводиться в корень. Если любая программа это просто алгоритм....То почему же они все разные?

А вам объясню...Обобщение нескольких объектов в рамках одной абстракции не делает объекты одинаковыми. Все кошки разные, но кошками их зовут потому что у них есть что то что их всех объединяет в одну категорию. При этом не откуда не следует что кошки должны быть одинаковыми, раз уж мы их кошками называем. Так же и синаптические шаблоны разные, и как следствие реагируют на разные наборы входящих сигналов, и все это не смотря на то что все они остаются синаптическими шаблонами.
Наука есть организованный скептицизм в достоверности экспертного мнения.  Ричард Фейнман
Свобода, есть форма ответственности за необходимую глупость. (не помню кто сказал)

Оффлайн Серый Страж

  • ****
  • Сообщений: 484
  • Благодарностей: 49
  • Мне нравится этот форум!
    • Сообщения от Серый Страж
Я вам говорил, что такая сеть (прямого распространения) входит в систему, которая распознаёт. Сама сеть прямого распространения может только абстракт выделять, а для сравнения понадобится ещё некий блок.
Давайте-ка сейчас не будем распыляться и на этом вашем утверждении остановимся.
Теперь вам захотелось вместо ответов на мои вопросы остановиться на моём утверждении?

Как вам будет угодно. Хотя, я по этому поводу уже давал пояснения и теперь надеюсь, что услышу от вас ответы на свои вопросы.

Итак, наша сеть прямого распространения умеет распознавать кошек и собак. Правый нейрон активизируется — кошка, левый — собака. Какие ещё «некие блоки»? Зачем они, если распознавание происходит в сети и сеть уже дала ответ?
Если умеет распознавать, то, значит, умеет и сравнивать. И вы опять смешиваете понятие система и понятие сеть...

Вот как я пояснял эти моменты здесь:
Если утрировать (и навскидку), то:
 
Перенастраиваемая сеть «заточена» на получение знаний в процессе обучения. Результат обучения представлен в виде абстракта, с которым в последующем и будет сравниваться/сопоставляться распознаваемые/узнаваемые объекты.

И сам процесс сравнения/сопоставления может быть реализован как в сети (но это сложно и непродуктивно на данном этапе развития технологий), так и в отдельном блоке. И распознаёт/узнаёт система в целом, в которую входят и сеть (блок абстрагирования), и блок сравнения, и блок памяти и т.д.

Как уже говорил, весь этот функционал (память, сравнение/сопоставление, абстрагирование) можно и совместить в какой-то архитектуре, но это будет очень сложно. Даже в биологических системах функционал частично разделён, хотя в них очень широко представлена сетевая архитектура. А в случае с применением искусственных систем мы просто вынуждены идти по наиболее доступному в настоящее время для нас пути – функцию абстрагирования возложить на сетевую архитектуру, а остальной функционал возложить на архитектуру, исполняющую последовательный алгоритм (зачастую, сразу множеством параллельных потоков).

То, что в сети очень часто встречается словосочетание «сети распознают», возможно, объясняется тем, что под понятием «сети» (ИНС) подразумевают целую систему, а не только лишь саму сеть, как таковую. Систему, состоящую и из самой искусственной нейронной сети, и из множества входящих блоков, выполняющих функции первичного восприятия (и соответствующей обработки входящих воздействий на систему) и выходящих блоков, выполняющих функции накопления информации и сравнивающие/сопоставляющие функции. Разумеется, функционал и составные блоки вычислительной системы я указал условно (только для примера).

Для краткости такую вычислительную систему обзывают просто ИНС (типа, сеть). Но сама сеть, как таковая, в этой системе занимается абстрагированием (обобщением) – выделением того общего, что имеется в представленной обучающей выборке, а не распознаванием/узнаванием.

И, в дополнение, здесь:
Условно говоря: оцениваемое - это текущий сенсорный образ, образец - это образ из памяти (образ-воспоминание), а оценщик - это процесс сравнения/сопоставления/согласования (то бишь, это процесс осознания - он всегда между знанием и осознаваемым). Это если объяснять "на пальцах и верёвках".
Есть сигнал на входе, он последовательно активизирует сеть, проходя от входа к выходу. На выходе загорается правый нейрон — сеть узнала кошку.
Значит, если правый, то узнала? А почему именно так считаете? Может, наоборот, это свидетельствует о том, что не узнала? Может, если узнала, никакой вообще нейрон загораться не должен на выходе? Ведь то, что она узнала и именно при загорании правого нейрона - это ваша интерпретация.

То есть, это вы сами, в данном случае, узнали, а сеть всего лишь выдала сигнал (типа, входной сигнал преобразовала в выходной).

Где здесь «воспоминание» и «осознание»? Откуда всё это взялось?
В данном случае, и «воспоминание» и «осознание» было у вас. Это у вас есть знания о кошечках и вы можете вспомнить об этом, это вы умеете сравнивать/сопоставлять и т.д. А сеть в результате обучения (вы об обучении не говорили, но я предполагаю так, верно или ошибаюсь?) научилась только абстракт "кошачесть" выделять и вот знание "кошачести" у неё есть (это знание "вшито" в саму сеть в распределённом виде).

Тогда осталось только выяснить вопрос со знаниями. Где они в сети.
Не нужно пока ничего выяснять, просто ответьте на мои вопросы(в восьмой раз уже прошу):
1.Можно ли, не имея знаний, узнать или распознать?
2.Можно ли, не используя знания, узнать или распознать?
3.Можно ли узнать или распознать, не сопоставляя/сравнивая, при этом, распознаваемое/узнаваемое с имеющимися знаниями?
Всегда на границе Света и Тьмы...

Оффлайн noxx77

  • *****
  • Сообщений: 4 966
  • Благодарностей: 154
  • Мне нравится этот форум! ;))
    • Skype - zerghammer1
    • Сообщения от noxx77
    • ВК
В чём суть этой работы?
Задайте вопрос корректно, например, расшифруйте, как вы понимаете разговорное слово "суть".

У мозга одна функция, поэтому моделировать надо её.

Выживание человеческого организма в изменчивой среде, полагаю - других функций, кроме обеспечения выживания у систем организма нет.  Так эта функция предполагает множество других, относящихся к решению задач в конкретных ситуациях, на что Вам и было указано.

Верно, а теперь читайте о синхронизации и неравновесных фазовых переходах в мозге.
Мозг и даже его кора является иерархическими структурами с заданным функционалом, а не "средой", в которой можно было бы проводить подобные аналогии. Тем более, аналогии термодинамические, поскольку речь идёт о физически отличном процессе возбуждения/торможения нейронов, лишь немного и отдалённо аналогичном лазерной накачке/испусканию или поведению переохлажденной жидкости. Даже тогда подобный процесс - как многие термодинамические процессы в средах, по своей природе стохастические, часто может быть описан несложными формулами, потому что часто речь о переходе среды в другое определённое состояние в целом. Как бы не испускали отдельные атомы рубина, луч будет когеррентный, определённый свойствами среды, как бы не вели себя молекулы воды и их комплексы в переохлажденном состоянии, вода при ударе/ вводе центра замерзания замёрзнет целиком - и это определено её свойствами. Как бы ни распределялись ячейки Бенара, в среднем размер их будет предсказуем. При этом равновесие нарушается в +- конкретной точке при накоплении факторов. То есть неопределённость на микроуровне всё равно даст ту или иную определённость на макро.  Учитывая вариации самих характеристик НС/психики разных людей, то и с большими приближениями - нам же не надо копировать психику отдельного конкретного человека - это бы потребовало детального описания, нам надо, чтобы робот вёл себя как один из людей, то есть в рамках человеческого поведения, которое само по себе вариативно. Более того, человек действует в социуме и неизбежно наткнётся на корректирующее влияние среды. То есть обратную регулирующую связь, которая при повторении сформирует устойчивое отношение к типичной ситуации и предсказуемое поведение. Большая часть вариативности человеческих путей и сложности личностей сформирована как раз неоднородностью самих людей, от биологической (включая характеристики НС, такие как возбудимость, функционирование отделов мозга), до опыта взаимодействия с такими же неоднородными... При этом большая часть взаимодействий не окажет почти никакого влияния - скажется только субъективно новый опыт. Первичный вывод: доля "неравновесности" в человеческой психике значительно преувеличена. Возможно, она будет играть роль в новых, нетипичных ситуациях, когда требуется принятие решения с большим фактором неопределённости, но и здесь вам любой психолог скажет, что выработанные паттерны поведения окажутся определяющими, даже если развернётся борьба между несколькими, например, при склонении индивида малой группой к аморальному поведению - между конформизмом к малой группе и большой и так далее. Здесь любой фактор может стать определяющим, но исключительно потому, что они рождают приблизительно равные по силе стимулы, между которыми идёт борьба. Поэтому вопрос сводится к тому, как правильно сопоставить несколько факторов при принятии сложного решения при недостатке информации.

Сами бифуркации (при выботе из 2х) на программном уровне реализуются крайне примитивно:
Если А > B то вариант 1
Если В > A то вариант 2
Иначе система остается в равновесии
Всё.

Вопрос возникнет, что с чем сравнивать, то есть развесовку "добра" и "зла" при разных решениях.

Добавляю сюда статью, почему синергетика - лженаука
Цитата
Когда во время утреннего кофе мы берем чашку со стола и подносим ее к губам, информация об том процессе очень разнообразна и поступает она в разные отделы мозга. Это и зрительная информация о форме и цвете чашки, и осязательные впечатления о шероховатости чашки и ее температуре, а также обонятельная информация о запахе, информация о траектории движения руки и т.д. Все эти данные поступают практически одновременно в разные области мозга, но при этом формируется целостный многомодальный образ, в котором эта разнородная и разномодальная информация связана друг с другом. ...
Вас не смущает сам пример? Когда во время утреннего кофе мы берём кружку со стола, то речь идёт о заведомо привычной ситуации в знакомой среде, на которую мозг сокращает собственные энергозатраты и решает по уже выработанному шаблону. Без вмешательства внешнего фактора ситуация является полностью детерминированной и с высокой долей вероятности даже движения при этом ритуале стереотипны из утра в утро. Ни о какой неопределённости речи вообще не идёт.
Далее, процесс опознания чашки кофе как чашки кофе по данным анализаторов, моделирования пространственной среды синтезом сигналов от разных анализаторов и производства движений, достаточных для поднесения чашки ко рту и питья в технике реализованы.
Исследования последнего времени показали, что электроэнцифалограммы (ЭЭГ) животных и человека представляют собой детерминированный хаотический процесс с числом степеней свободы не выше 10, в зависимости от функционального состояния мозга (сон, бодрствование, эпилепсия и т.д.) Это сравнительно небольшое число степеней свободы ЭЭГ сигнала указывает на высокую степень самоорганизации в электрической активности нейронов. ...

В 1981 году Мальсбург (C. Von der Malsburg) высказал гипотезу, что механизмом такой интеграции является кратковременная (доля секунды) синхронизация активности нейронных ансамблей соответствующих отделов мозга, благодаря чему и формируется целостный образ. В научной литературе эта гипотеза получила название binding problem (проблема связывания). В последние годы эта гипотеза получает все большее признание, в первую очередь, благодаря работам В.Зингера (Wolf Singer) и Р.Экхорна. Эти исследователи регистрировали синхронизацию осцилляторов активности удаленных друг от друга участков коры на частоте около 40 герц у анестезированных кошек при предъявлении зрительных стимулов в виде ярких ориентированных движущихся отрезков. ...

Синхронизация есть мера степени согласованности между временными структурами сигналов безотносительно к амплитуде этих сигналов. … В нейрофизиологии о синхронизации говорят, когда фаза поддерживается постоянной в течение нескольких сотен миллисекунд. … Высказывается предположение, что в процессах синхронизации отдельные признаки объекта кодируются с помощью фаз групп осциллирующих нейронов, а объединение этой информации в единый образ происходит за счет синхронизации колебаний соответствующих групп осцилляторов.
Вайт, Ваша основная ошибка в том, что из механизма работы биологических структур вы делаете слишком прямой вывод о процессе и функции. Моделирование структуры, моделирование процесса и моделирование функции - три разных. Для получения сходного результата, например, копирования мелодии, не обязательно воспроизводить обученного певца, хватит и магнитофона. Для перемещения в пространстве не обязательно создавать аналог ног и системы их сложной координации, хватит и повозки с мотором, распознавание образов успешно происходит в нейросетях, куда меньших, чем биологические. С логикой и математикой работают с 1960х.  Автор пишет о структуре и процессе, функции и их координация могут реализовываться и по-другому. Особенно на другой материальной базе.
« Последнее редактирование: 15 Июн 2021 [12:44:29] от noxx77 »
В космосе никто не услышит визга той чуши, которую Вы порете

Оффлайн MenFrame

  • *****
  • Сообщений: 7 285
  • Благодарностей: 165
  • Мне нравится этот форум!
    • Сообщения от MenFrame
если от фактов спрятаться, действительно удобнее.
Вас регулярно просят давать ссылку для подтверждения факта существования этих фактов, и вы регулярно сливаетесь.
Наука есть организованный скептицизм в достоверности экспертного мнения.  Ричард Фейнман
Свобода, есть форма ответственности за необходимую глупость. (не помню кто сказал)

Оффлайн noxx77

  • *****
  • Сообщений: 4 966
  • Благодарностей: 154
  • Мне нравится этот форум! ;))
    • Skype - zerghammer1
    • Сообщения от noxx77
    • ВК
По началу может быть. Но, вообще-то, это не обязательное условие.
Проблема в том, что в "робовейнике" сознание в нашем смысле вообще не обязательно: бОльшую его часть будут составлять функциональные роботы, вроде современных, сознание же - с оценкой общей стратегии, "добра" и "зла" для сообщества окажется уделом "мозгов", которые будут не только соотноситься с общим благом, но и соотносить всех функционалов. Сложные стратегии и потенциальная универсальность человеческой личности построены на происхождении - бытии в малой группе, в сложной меняющейся среде и необходимости орудийной деятельности/разделения труда/кооперации для выживания. Для роя в десятки тысяч функциональных единиц это не нужно.
В космосе никто не услышит визга той чуши, которую Вы порете

Оффлайн николай теллалов

  • *****
  • Сообщений: 14 813
  • Благодарностей: 798
    • Сообщения от николай теллалов
    • блог
сознание же - с оценкой общей стратегии, "добра" и "зла" для сообщества окажется уделом "мозгов", которые будут не только соотноситься с общим благом, но и соотносить всех функционалов.
роевой интеллект (?)

Оффлайн noxx77

  • *****
  • Сообщений: 4 966
  • Благодарностей: 154
  • Мне нравится этот форум! ;))
    • Skype - zerghammer1
    • Сообщения от noxx77
    • ВК
Лунные трактора и всё такое, как вы умеете.
Ха, вы застали мои поиски по лунным тракторам для "Лин Индастриал"? Славное было время.
Вы думаете, если вы в соседней теме про роботов с друзьями шептаться начнёте, то факты исчезнут? Не исчезнут. Но фантазировать, если от фактов спрятаться, действительно удобнее.
Нисколько. Во-первых знал, что Вы и здесь читаете, как большинство в разделе поэтому как-то подозревать меня в скрытности было абсурдно. :D :D :D Ответил в той теме по конкретным вопросам, но вопросы сознания напрямую относятся к этой, потому стараюсь перенести дискуссию сюда (оттуда, где ей не совсем место). Если позже наши прения в "роботизации" там перенесут в эту - тем лучше.
В космосе никто не услышит визга той чуши, которую Вы порете

Оффлайн noxx77

  • *****
  • Сообщений: 4 966
  • Благодарностей: 154
  • Мне нравится этот форум! ;))
    • Skype - zerghammer1
    • Сообщения от noxx77
    • ВК
роевой интеллект (?)
И да и нет. "Функционалы" в такой системе должны обладать мозгами ровно для решения своих задач (могу копать-могу не копать), а сложные вопросы отсылаются "наверх", если не могут там - ещё выше. Поэтому нельзя сказать, что это распределённый роевой интеллект, хотя такую возможность тоже нельзя исключать, например, для усиления вычислительной мощности, когда это необходимо, но это "один интеллект на рой" и в этом смысле роевой. Без "социального взаимодействия" и общественной субъектности "особей". Поэтому личность и её сознание (в т.ч. и робота) можно рассматривать исключительно как человеческий общественный феномен. Ну или схожий с человеческим альенский, если до того когда-нибудь дойдёт. :)
В космосе никто не услышит визга той чуши, которую Вы порете

Оффлайн Серый Страж

  • ****
  • Сообщений: 484
  • Благодарностей: 49
  • Мне нравится этот форум!
    • Сообщения от Серый Страж
Сознание — это высший уровень отражения действительности, проявляющийся способностью личности отдавать себе ясный отчет об окружающем, о настоящем и прошлом времени, принимать решения и в соответствии с ситуацией управлять своим поведением.
.....
Как видим, понятия личности и сознания связаны напрямую. При этом в определение личности включена "совокупность социально значимых психических свойств" и "общественное развитие". Если подумать, каждый человек общественно и исторически конкретен: он дитя своей среды и своей эпохи. Он отражает в сознании - как личность - языком и знаниями своей эпохи, он сформирован (социализирован) её отношениями. Дети-маугли теряют способность к социализации, поскольку уже "социализированы" в стаю, а важные социальные способности у них не сформированы в индивидуальном пути развития (онтогенезе) в нужное время. Они не являются личностями и не обладают сознанием в человеческом смысле, но обладают их зверинным эквивалентом. То есть картина в сознании (и самосознании) - общественная, социальная, обусловливающая аобщественную же деятельность объекта.
Я предлагал несколько иной подход (отчасти этот подход немного стыкуется с вашим) – сделать упор на базовые вещи: знания, процесс осознания, иерархичность структуры (наличие уровней, наличие раздельной связанности).

Насколько я понимаю, большинство людей ненамеренно увязывают (ассоциируют) высший уровень сознания с сознанием вообще. Из-за этого возникает множество непоняток.

Повторю часть сообщения:
Цитата

В вопросе сознания вижу две основных проблемы, с которыми следует определиться в первую очередь. Остальные проблемы будут разрешаться в зависимости от того, как мы определимся с этими двумя первыми проблемами.

1.Определение понятия сознание у нас жёстко и однозначно увязывается с человеком. Даже когда мы «разрешаем» сознание у некоторых представителей продвинутых видов животных, то мы всё равно опосредованно увязываем их сознание с человеческим – сравнивая и оценивая с человеческим. То есть, никакого независимого от человека определения сознания у нас нет.

Свои предложения по этому пункту я озвучивал:

Суть сознания – это условие «со знанием».
Суть механизма сознания – это реализация данного условия «со знанием».
Суть реализации – это процесс осознания (то есть, сравнение/сопоставление со знанием).
Суть состояния в сознании – это наличие процесса осознания.

Разумеется, мои предложения – это не истина в последней инстанции, но надо ведь с чего-то начинать. Мои предложения, по крайней мере, позволяют сформировать понятие сознание без привязки к человеку. И, как следствие, такое определение сознания (и иже с ним) допускает постановку вопроса о технической реализации данного феномена.
   
2.Наличие или отсутствие сознания мы определяем по каким-то внешним проявлениям. То есть, наличие/отсутствие сознания – это наша интерпретация наблюдаемых проявлений с позиции имеющихся у нас знаний/опыта.

Наблюдаемые проявления не остаются неизменными – они всё время дополняются (тут и технический прогресс вносит свою лепту – фМРТ, ЭЭГ и пр.). Имеющиеся у нас знания/опыт также постоянно пополняются и изменяются (в некоторых частностях изменяются вообще на противоположные). Отсюда следует, что интерпретации у нас также претерпевают изменения.

Кстати, первый пункт в неявной форме присутствует во втором – определение сознания (и иже с ним) входит в категорию знаний/опыта. Соответственно, судить о том, находится ли система в сознании (или, в потенции может таковым обладать) или не находится (не может им обладать), необходимо не только с позиции имеющегося определения сего феномена, но и с учётом имеющихся актуальных возможностей по фиксации/регистрации проявлений.

Если определимся с этими двумя проблемами, то с остальными будет полегче (хотя технически, может оказаться наоборот – существенно сложнее) – можно будет подумать о том, как реализовать эти вещи технически (в неких искусственных системах).
Вообще, с такой точки зрения (которую я предлагаю) мозг – это только «техническое устройство» (при этом, не изолированное, а включённое в состав более крупной системы – в организм), которое, помимо множества других функций, обеспечивает реализацию сознания (и иже с ним). И реализовать функцию сознания можно в разных мозгах по-разному, (и даже в одних мозгах, но на разных уровнях можно по-разному организовать).

Мало того, то, что для одного мозга (какого-нибудь «насекомыша») будет высшим уровнем его механизма сознания, то, для другого (какого-нибудь млекопитающего) окажется, всего лишь, одним из низших уровней его механизма сознания.
Разумеется, каждый уровень может использовать только знания доступные данному уровню. Например, высший уровень (возможно, этот уровень включает в себя несколько подуровней) сознания человека, как социального существа (члена социума, так сказать), может использовать знания социума (отформатированные в знаках внутрисоциальных систем коммуникации – членораздельной речи и эмоционального языка). Но этот же уровень не может использовать знания средних (а тем более, нижних) уровней. Кстати, отсюда частично и "затык" с многими иллюзиями (например, зрительными) – высшим уровнем осознаём, что этого нет, но продолжаем видеть. Понятно, что эти социальные знания в разных социумах будут разными.

Исходя из вышесказанного, элементарным уровнем сознания можно обеспечить даже простенький ИИ. А если, поднапрячься, то можно и уровни посложнее организовать – вроде простых самоотчётов, ограниченных самоощущений, ограниченных самонаблюдений за своими реакциями и т.д. и т.п. Разумеется, до генерации целого субъективного мира отсюда ещё далеко, но отдельные "ракурсы", "детали" простенькие "сегменты" и т.д. такого мира (ещё не увязанные в единое целое) у ИИ сформировать можно. 
 
P.S. Рассмотрите предлагаемый мною подход (на мой взгляд, определённые перспективы в нём имеются).
« Последнее редактирование: 15 Июн 2021 [13:28:29] от Серый Страж »
Всегда на границе Света и Тьмы...

Оффлайн николай теллалов

  • *****
  • Сообщений: 14 813
  • Благодарностей: 798
    • Сообщения от николай теллалов
    • блог
И да и нет
судя по описанию далее - таки да

Оффлайн Вайт

  • *****
  • Забанен!
  • Сообщений: 631
  • Благодарностей: 7
  • Мне нравится этот форум!
    • Сообщения от Вайт
Так же и синаптические шаблоны разные, и как следствие реагируют на разные наборы входящих сигналов, и все это не смотря на то что все они остаются синаптическими шаблонами.

Опыт в сети вызывается по содержанию, а не по адресу. Поэтому в сети никаких адресов у образов/знаний нет, их нельзя отделить друг от друга. Ни по «шаблонам», ни по «массивам». Каждый конкретный образ вызываются конкретными входящими сигналами. Поэтому каждый конкретный образ — о чём и шла речь — это конкретная динамика возбуждения/торможения всей сети, а не просто структура сети или массивы весов.

Факты в студию, желательно со ссылкой на референтный источник.

Вот они:

Цитата
Эффект возникновения спонтанных биоэлектрических разрядов в нейронных системах мозга, как показывают нейробиологические эксперименты, подчиняется статистике самоорганизованной критичности. Теоретические исследования свидетельствуют о том, что критическое поведение является своего рода оптимальным режимом для хранения и обработки информации в мозге.

...Наличие нелинейности и слабых весов не позволяют рассматривать части нейронной сети по отдельности, поскольку динамика группы нейронов любого размера зависит также и от остальных частей целой сети. В случае генерации импульса на одном нейроне невозможно предсказать его распространение без учёта предшествующих импульсов других нейронов, способных довести возбуждение до порогового уровня. Данное свойство целостности и масштабная инвариантность следуют также из нелокальности межэлементных связей, поскольку на любом пространственном масштабе равновероятны связи как между ближайшими, так и между наиболее удалёнными нейронами.

Модель возникновения лавинообразных биоэлектрических разрядов в нейронных сетях мозга. Институт прикладной физики РАН. 2011 год

Далее ищите по выделенному жирным статью в Википедии, а когда найдёте, смотрите на модель. В том числе о целостности неравновесных систем говорит их способность к неравновесным фазовым переходам и гомеостазу, так как переход совершает сразу вся система и гомеостаз поддерживает вся система как целое.

Остальное в вашем посте не по существу.

И сам процесс сравнения/сопоставления может быть реализован как в сети (но это сложно и непродуктивно на данном этапе развития технологий), так и в отдельном блоке. И распознаёт/узнаёт система в целом, в которую входят и сеть (блок абстрагирования), и блок сравнения, и блок памяти и т.д.

Серый Страж, в сети нет никаких «блоков» — абстрагирования, сравнения, памяти и т. д., ни входящих, ни исходящих — есть только аппаратной или программной реализации сеть нейронов и она отличает кошек от собак. Такой вот алгоритм. Есть алгоритм счёта в столбик, а есть распознавания. Если вы не понимаете, как это происходит, за счёт чего сети выполняют свои функции, то о чём говорить? Вы же всё равно аргументов не понимаете.

И насчёт знаний. Есть алгоритм счёта в столбик, используя его, вы на совокупность данных получаете некоторый результат. Точно так же искусственные нейронные сети — на совокупность данных вы получаете результат. Нет никаких знаний, сравнений, есть только вычисления по некоторому алгоритму.

В то же время можно сказать, что алгоритм счёта в столбик — это некоторое знание, опыт, заключённый в структуре алгоритма. Точно так же можно сказать, что нейронная сеть — это тоже некоторый опыт, заключённый в структуре алгоритма. В результате определённые данные на входе сети, по-своему активизируя этот алгоритм, вызывают некоторый конкретный опыт, который и выражается, например, в активности правого или левого нейрона — сеть «узнала» собаку или кошку. Или можно сказать, что сеть обобщила опыт на новые условия — потому что сети обучаются, то есть алгоритм сети меняется в процессе обучения — и как будто действительно «вбирает» в себя опыт, накапливает его, чтобы потом «обобщать». Но на самом деле сеть — это просто алгоритм, инструкция. В искусственной сети нет никаких образов, ничего не сравнивается, не обобщается и не вызывается, просто идут вычисления.

Задайте вопрос корректно, например, расшифруйте, как вы понимаете разговорное слово "суть".

Я вам уже недавно написал — какую функцию выполняет нервная система? И даже подсказал, где читать.

Выживание человеческого организма в изменчивой среде, полагаю - других функций, кроме обеспечения выживания у систем организма нет.

Речь о нервной системе, об интеллекте. Вы же интеллект моделировать собрались. Вот и узнайте, какова его задача в организме, чем конкретно он выживанию способствует.

Мозг и даже его кора является иерархическими структурами с заданным функционалом, а не "средой", в которой можно было бы проводить подобные аналогии.

Тем не менее это не аналогии, а факты, общеизвестные научные теории. См. АИ.

Первичный вывод: доля "неравновесности" в человеческой психике значительно преувеличена.

Каждое переключение внимания — неравновесный фазовый переход. И вообще любое изменение ритмической активности. Вы читать наконец что-нибудь начнёте?

Добавляю сюда статью, почему синергетика - лженаука

Синергетика не лженаука и статья не об этом, естественно.

Сами бифуркации (при выботе из 2х) на программном уровне реализуются крайне примитивно:

Бифуркации программно не реализуются. Узнайте, что такое бифуркации вначале.

Далее, процесс опознания чашки кофе как чашки кофе по данным анализаторов, моделирования пространственной среды синтезом сигналов от разных анализаторов и производства движений, достаточных для поднесения чашки ко рту и питья в технике реализованы.

Верно. И посложнее процессы реализованы. Но вы о том, что скорость света нельзя превысить, слышали? Так же и здесь.

Вайт, Ваша основная ошибка в том

У меня нет ошибок. Но если вы настаиваете, то берёте мои аргументы и опровергаете. Замечу, что все ваши идеи у меня рассмотрены. Вкратце суть моих аргументов такова — изучить мозг во всей реальной сложности мыслительных процессов невозможно. Создавать ИИ, исходя из того, что в мозге понять всё-таки удалось и собственных изобретений, тоже не выйдет, ввиду стремительного роста неопределённости. И у этого всего куча аргументов, поэтому вы с твёрдой уверенностью можете считать невозможность создания ИИ совершенно доказанным делом.