A A A A Автор Тема: Психика, сознание, разум - определения и возможность моделирования  (Прочитано 213920 раз)

0 Пользователей и 1 Гость просматривают эту тему.

Оффлайн Yuri

  • *****
  • Сообщений: 1 087
  • Благодарностей: 31
  • Per aspera ad terra..
    • Сообщения от Yuri
В том смысле, что действующие лица тут человеки, и игра протекает в действие-противодействие в достаточно сложном социальном контексте, до сих пор в котором могут выступать только люди. Крокодилы не могут заменить никого в такой игре - значит крокодилы недостаточно разумны.
Кстати, не все люди могут одинаково успешно играть в такую игру - значит и не все люди одинаково разумны.
Как только машина сможет заменить человека в любой роли в этой игре - будет означать, что она как минимум достаточно разумна, чтобы моделировать социальные функции человека (с проявлениями которых мы связываем и сознание).

Кстати вполне осмысленно попробовать машину и в роли игрока (И), который угадывает, и в роли машины, которая будет пытаться убедить игрока, что она на самом деле машина - в то время как другой актор человек будет имитировать машинное поведение.

Если машина успешно справится со всеми тремя ролями, в то время как человек не сможет выдать себя за машину, можно будет сделать уже и более сильное утверждение. Что машина более разумна, чем человек, так как может имитировать большее разнообразие поведения.

Vegetarians eat vegetables - so beware of humanitarians.

Оффлайн Yuri

  • *****
  • Сообщений: 1 087
  • Благодарностей: 31
  • Per aspera ad terra..
    • Сообщения от Yuri
решили провести тест Тьюринга, где он имитирует поведение крокодила. Человек имитирует поведение крокодила.
Чтобы провести такой тест, надо чтобы два крокодила сознательно участвовали в нем, причем один из них точно знал, что ему противодействует человек, а другой деятельно старался вывести человека на чистую воду. Где вы найдете таких крокодилов?

Понимаете, при всей простоте формулировки игры, она достаточно непроста. В ней есть кооперация и двух (по определению) обладающих сознанием существ, и блеф и неопределенность, и третья тестируемая сущность, задача которой нетривиальна и не формализуется. Если она справляется с такой задачей не хуже обладающих сознанием, то что? Да, мы не можем со всей определенностью сказать, что то, чем она обладает - это человеческое сознание. Но если она в состоянии имитировать проявления этого сознания не хуже, чем это делает сам оригинальный носитель, то у нас есть основания предполагать - что  то, чем она обладает, как минимум не хуже годится для проявления внешней деятельности нашего сознания.
Vegetarians eat vegetables - so beware of humanitarians.

Оффлайн stuuvi

  • *****
  • Сообщений: 5 278
  • Благодарностей: 38
  • Мне нравится этот форум!
    • Сообщения от stuuvi
Это дополнительная сложность. Достаточно чтобы вела себя как человек(как разумное существо) , не пытаясь имитировать человека. Поскольку что такая имитация в принципе даст то? Я имею ввиду - к чему этот тест, если можно общаться с машиной и смотреть как она себя ведёт в процессе общения, не пытаясь изображать человека, за исключением того, что общаться будет словами.

Оффлайн stuuvi

  • *****
  • Сообщений: 5 278
  • Благодарностей: 38
  • Мне нравится этот форум!
    • Сообщения от stuuvi
Да, мы не можем со всей определенностью сказать, что то, чем она обладает - это человеческое сознание.
Человек ОСОЗНАЁТ то, что он человек. А если машина будет имитировать человека - осознание её себя самой тем чем она является выяснить будет нереально в ходе теста. В таком случае опять же - зачем он в такой форме нужен, этот тест?

В этой теме вопрос ставится о возможности искустенного сознания а не о том, возможен иск4уственный интеллект или нет.

Оффлайн Yuri

  • *****
  • Сообщений: 1 087
  • Благодарностей: 31
  • Per aspera ad terra..
    • Сообщения от Yuri
В таком случае в этой теме я напишу программу вида puts("я осознаю себя") и мы вопрос закроем.
Ну вот такое искусственное сознание  :D, проще чем у человека, ну так в ТЗ же не было конкретики.  ::)

Смысл теста Тьюринга показать, что вот то искусственно-машинное, чем там она себя осознаёт или нет, как минимум не проще человеческого.
Vegetarians eat vegetables - so beware of humanitarians.

Оффлайн stuuvi

  • *****
  • Сообщений: 5 278
  • Благодарностей: 38
  • Мне нравится этот форум!
    • Сообщения от stuuvi
В таком случае в этой теме я напишу программу вида puts("я осознаю себя") и мы вопрос закроем.
Вот смотрите. Пример. Я с вами общаюсь, вы имитируете поведение другого человека. Но я знаю что вы не другой человек. Не важно притворяетесь вы или нет, но если вы не понимаете кем являетесь во время общения, мне придётся придти к выводу рано или поздно, что вы сумасшедший.

А для того, чтобы убедиться в том, что вы в здравом уме и трезвой памяти - необходимо чтобы вы отвечали на вопросы адекватно тому, чем вы являетесь.

Это понятно? Если нет, разговор окончен.

Оффлайн Yuri

  • *****
  • Сообщений: 1 087
  • Благодарностей: 31
  • Per aspera ad terra..
    • Сообщения от Yuri
Нет, не понятно, пока вы мне тут адекватно не расскажете, чем я являюсь, и на основании чего вы пришли к такому заключению.
Vegetarians eat vegetables - so beware of humanitarians.

Оффлайн stuuvi

  • *****
  • Сообщений: 5 278
  • Благодарностей: 38
  • Мне нравится этот форум!
    • Сообщения от stuuvi
Нет, не понятно, пока вы мне тут адекватно не расскажете, чем я являюсь, и на основании чего вы пришли к такому заключению.
Пример, дурья ты бошка.

Оффлайн Yuri

  • *****
  • Сообщений: 1 087
  • Благодарностей: 31
  • Per aspera ad terra..
    • Сообщения от Yuri
А что пример?

У вас сложилось адекватное представление, кем я являюсь во время общения?  ;D
А за сколько времени оно сложилось, за пять минут, час, день?
Если мы продолжим общение ещё месяц, год, десятилетие, оно изменится?

Понимаете ли вы, дурья башка, что машина, способная имитировать человеческое поведение так, чтобы обмануть судей на протяжении нескольких лет, способна как минимум заменить собой человека во всех его видах деятельности на эти несколько лет?
« Последнее редактирование: 30 Авг 2016 [16:44:16] от Yuri »
Vegetarians eat vegetables - so beware of humanitarians.

Оффлайн stuuvi

  • *****
  • Сообщений: 5 278
  • Благодарностей: 38
  • Мне нравится этот форум!
    • Сообщения от stuuvi
А что пример?
Объясню подробно. Не вижу смысла далее развивать с вами конкретно эту тему. Поскольку не вижу базового понимания некоторых вещей. В частности - хотя бы понимания того, что в этой теме речь идёт о сознании у машины, которая уже обладает искусственным интеллектом, а насчёт искусственного интеллекта и возможен он или нет, есть другая тема(причём не одна - через поиск штуки 3 как минимум находятся).

Оффлайн Yuri

  • *****
  • Сообщений: 1 087
  • Благодарностей: 31
  • Per aspera ad terra..
    • Сообщения от Yuri
Не вижу никакой причины, которая мешала бы мне указать вам и другим читателям именно в этой теме свое базовое понимание некоторых вещей, а именно как формулировался тест Тьюринга самим Тьюрингом и какие из этого можно сделать выводы. Тем более если последние несколько страниц тут несколько раз использовалась негодная формулировка как схемы теста, так и того, для чего он пригоден.

Не думаю, что сам Тьюринг предложил бы использовать тест для выяснения такой мутного вопроса, как то обладает некий незнакомый субъект сознанием или нет. Его интересовала более прозаичная цель, можно ли сформулировать вопрос, обладает ли машина способностью мыслить, без формальной формулировки столь неопределенного понятия, как что такое мышление. И он нашел (свой) ответ, переформулировав  вопрос как "может ли машина вести себя так же, как человек, когда он мыслит". Именно на этот вопрос отвечает тест Тьюринга, даже менее - это ответ на вопрос, "может ли машина вести себя так же, как человек, играющий в имитационную игру". Сознание здесь никоим образом не отсвечивает.

Более того, сознание такой же мутный неопределенный термин, как и мышление. Если бы вы могли переформулировать тему не используя это слово, возможно у нас бы получился некий прорыв в понимании темы.

Мне лично, ближе всего определение сознания в формулировке Лема: что это такое свойство системы, которое узнаешь, только когда сам являешься этой системой. Другими словами, если вам требуется точно знать, а не догадываться с большей или меньшей степенью достоверности, есть ли сознание у машины, вам недостаточно об этом спросить у неё, недостаточно следить за её поведением в тех или иных ситуациях (той же игре Тьюринга). Вам надо самим быть этой машиной. Вот тогда у вас появится точный ответ на этот вопрос, и ни в каком другом случае.  ;D
Vegetarians eat vegetables - so beware of humanitarians.

Оффлайн stuuvi

  • *****
  • Сообщений: 5 278
  • Благодарностей: 38
  • Мне нравится этот форум!
    • Сообщения от stuuvi
Мне лично, ближе всего определение сознания в формулировке Лема
Оно так и есть.
Именно на этот вопрос отвечает тест Тьюринга, даже менее - это ответ на вопрос, "может ли машина вести себя так же, как человек, играющий в имитационную игру". Сознание здесь никоим образом не отсвечивает.
Этот тест - завуалированная попытка пропагандировать гомосексуализм со стороны Тьюринга, как я понял по большей части. Поскольку там же речь идёт о том, чтобы мужчине изображать женщину. Причём почему не женщине мужчину? А то то и оно - Тьюринга больше интересовали мужчины которые как женщины.

Я пример привёл. Если вам человек будет изображать из себя другого человека - вам придётся придти к выводу, что он сумасшедший. Поскольку он ничем не будет указывать на то, что он понимает кем является.

То есть насчёт определения сознания нужен другой тест - в виде диалога, но один на один, конкретно с машиной.

А далее для различного рода развлекушек потипу чат ботов можно и тест тьюринга проводить.

Сознание здесь никоим образом не отсвечивает.
Но в этой теме вопрос о сознании у машины. Поэтому тест Тьюринга тут лесом, я о чём и говорю.
« Последнее редактирование: 30 Авг 2016 [17:47:23] от stuuvi »

Оффлайн stuuvi

  • *****
  • Сообщений: 5 278
  • Благодарностей: 38
  • Мне нравится этот форум!
    • Сообщения от stuuvi
Более того, сознание такой же мутный неопределенный термин, как и мышление.
Сознание это практика. Это единственное, как указывали выше уже, что вы на практике имеете. А прочие взаимодействия, которые описывает наука - уже попытки описать взаимодействия, которые наблюдаются посредством сознания, при помощи моделей.

Оффлайн Yuri

  • *****
  • Сообщений: 1 087
  • Благодарностей: 31
  • Per aspera ad terra..
    • Сообщения от Yuri
Сознание это практика. Это единственное, как указывали выше уже, что вы на практике имеете.
Давайте посмотрим на практике, что мы имеем в реальном мире.
От вирусов и бактерий, до крокодилов и человека.
От болтов и гаек до сложных систем типа самолёта и компьютеров с программным обеспечением.
Каким из этих объектов вы припишете обладание сознанием? Почему?
Vegetarians eat vegetables - so beware of humanitarians.

Оффлайн stuuvi

  • *****
  • Сообщений: 5 278
  • Благодарностей: 38
  • Мне нравится этот форум!
    • Сообщения от stuuvi
Каким из этих объектов вы припишете обладание сознанием?
Себе. А остальное недоказуемо.

Но из взаимодействия с другими людьми, можно придти к выводу, что они подобны мне и следовательно скорее всего тоже обладают подобным сознанием.

Так вот, но в случае когда человек ведёт себя как Наполеон, говорит что он Наполеон и говорит как Наполеон, то я не уверен в том, обладает ли он сознанием. Вполне возможно что нет, поскольку подобие уже не соблюдается. То есть он не в состоянии оценивать окружающую среду, посредством сознания.

Соответственно и с машиной, если машина говорит что она - человек, ведёт себя как человек, на вопрос о том нравится ли ей мороженое даёт ответы не в духе - никогда не пробовал, то возникает вопрос - а она вообще осознаёт ли что она машина?

Если машина отвечает и из ответов ясно, что она понимает что машина, то я соглашусь что сознание подобное человеческому у неё есть. Но имитации человека, живого человека - к чему? Это только всё запутает.

В таком случае в этой теме я напишу программу вида puts("я осознаю себя") и мы вопрос закроем.
А это только нарушит чистоту эксперимента - важно чтобы она сама поняла это.
« Последнее редактирование: 30 Авг 2016 [18:28:14] от stuuvi »

Оффлайн Yuri

  • *****
  • Сообщений: 1 087
  • Благодарностей: 31
  • Per aspera ad terra..
    • Сообщения от Yuri
Вот. Станислав Лем собственно придерживался примерно таких же взглядов.
Но вы понимаете, что такое определение свойства, о наличии или отсутствии которого можешь судить ты сам, неконструктивно?

Чтобы не прослыть сумасшедшим, в социальном поведении вы ориентируетесь совсем другим, а именно наделяете таким же свойством других людей из вашего круга общения.

Давайте построим некую иерархию имитационных программ уровня несколько выше возможных сейчас чат-ботов.

Первый это чат-бот, способный имитировать рядового участника астрофорума.

Второй может имитировать топикстартеров горячих тем раздела "Вселенная, жизнь", другими словами на протяжении лет вести дискуссии высокого уровня не будучи уличенным в своей бот-сущности.

Третий... хотелось бы имитировать важную социальную роль для группы людей.
Пусть это будет мультиюзер чат-бот, который будет имитировать роль родителя для детдомовских детей, при общении с которым у этих детей будет проявляться нормальная социализация и общий уровень развития.

Четвертый может имитировать руководителя научной группы неизвестной пока области знаний. Например активно участвовать в исследовании управляемого термояда и добиться успеха.

Пятый, чего мелочиться, пусть имитирует для человечества контакт с другой цивилизацией.

Собственно, вопрос - (успешная) имитация какого вида деятельности (единственно) известных вам сознательных существ сподвигнет вас признать обладающим сознанием принципиально искусственный объект?
Vegetarians eat vegetables - so beware of humanitarians.

Оффлайн stuuvi

  • *****
  • Сообщений: 5 278
  • Благодарностей: 38
  • Мне нравится этот форум!
    • Сообщения от stuuvi
Чтобы не прослыть сумасшедшим, в социальном поведении вы ориентируетесь совсем другим, а именно наделяете таким же свойством других людей из вашего круга общения.
Я ничего не делаю чтобы не прослыть сумасшедшим. Как есть так и веду себя :)

Оффлайн stuuvi

  • *****
  • Сообщений: 5 278
  • Благодарностей: 38
  • Мне нравится этот форум!
    • Сообщения от stuuvi
Собственно, вопрос - (успешная) имитация какого вида деятельности (единственно) известных вам сознательных существ сподвигнет вас признать обладающим сознанием принципиально искусственный объект?
Как бы не в имитации дело. А скорее в том, что если объект понимает кем он является, то он обладает самосознанием подобным человеческому. И становится субъектом. В случае с животными, можно предположить что у них тоже есть сознание, но более узкое, чем у человека, поскольку они принципиально устроены подобно человеку, а человек в состоянии осознавать себя.

Так вот - в случае с машиной если машина покажет что у неё есть самосознание, можно будет уже делать выводы о наличии сознания у более простых машин.

А то - понимает ли объект кем является выясняется посредством общения и наблюдения за его поведением.


То есть ни один из предложенных вариантов вами меня не удовлетворит. Меня удовлетворит если программа будет понимать кем она является и адекватно этому вести общение, то есть в разговоре учитывать особенности своего строения. При условии что в неё не будет заложено изначально понимания того, кем она является.

То есть она должна совершить открытие насчёт себя.
« Последнее редактирование: 30 Авг 2016 [18:42:27] от stuuvi »

Оффлайн незлой

  • *****
  • Сообщений: 20 499
  • Благодарностей: 568
  • философ-экспериментатор
    • Сообщения от незлой
из старых записных книжек:

"Я" по фройду
система восприятия W*, кэш потока представлений Vbw (предсознание), индексированный представлениями слов**, плюс небуферируемый интерфэйс ощущений (системные вызовы, прерывания).

* видимо, от англицкого whatever (шутка)
** термин фройдовский, имхо более удачный - "представления символов".

собственно, "Я" не строит модель мира, эта модель строится помимо "Я", хоть и при участии.. "Я" по бехтереву обеспечивает "эмоциональный выбор", по сути обеспечивая более адекватное (но не обязательно полное) соответствие этой модели реальности, т.е., вообщем, является очередной петлёй обратной связи.
и всего-то.
у меня нет ответов.
но есть интересные, порой, вопросы.

Оффлайн Olweg

  • *****
  • Сообщений: 16 858
  • Благодарностей: 447
    • Сообщения от Olweg
Причём тут стол? Речь про устройства ввода: клавиатуру, микрофон и т.п.
Я там привёл два примера: про клавиатуру и про стол. Понял так, что вы на оба ответили. Но, так или иначе. Чем стол хуже? Там же есть электроны, нуклоны, которые как-то реагируют на постукивание. Ощущения при этом не возникают?
Планеты других звёзд. История открытий
http://allplanets.ru/history_Olweg.htm