A A A A Автор Тема: Пределы автоматизации и внедрения роботов  (Прочитано 605093 раз)

AlexDark и 9 Гостей просматривают эту тему.

Оффлайн skvj

  • *****
  • Сообщений: 1 439
  • Благодарностей: 18
  • AI DLT DeFi Web3
    • Все сообщения темы
Возможно, но мне кажется, из-за галлюцинаций.
Ну так галлюцинации и есть следствие имитации мышления. Нейросеть что то генерит, то что нас устраивает мы воспринимаем как интеллект, а то что не устраивает как галлюцинации.
Уже полно исследований, что помимо токенов, LLM имеет логический и когнитивные процессы, что не кодилось никем и чисто эмерджентное явление. Токены - это просто их язык общения, как слова для людей. Но мышление происходит на уровне смыслов и концепций.
"Галлюцинации" LLM - это уже больше просто маркетинговый термин для обычных ошибок.
Потому что звучит страшно и загадочно. Журналисты и скептики любят драматизировать: "ИИ галлюцинирует!" Но это просто неточные логические выводы (не токены!). Конечно, неточные предсказания следующего токена также приводит к ошибке.

Люди ошибаются из-за забывчивости, усталости, эмоций, неверных суждений, иллюзии понимания и т.д.
LLM ошибаются из-за неполных данных или статистических флуктуаций.
Но суть та же - несовершенство обработки информации! При этом человек ошибается постоянно, причём любой. Умные люди знают об этом и постоянно перепроверяют себя. Сейчас модели учат именно этому. 

Хейтеры используют термин "галлюцинации", чтобы принизить ИИ, но забывают: человеческие "галлюцинации" бывают гораздо хуже! А ложные воспоминания, кстати - это неисправимый бич человечества в принципе. Так вот у LLM будет то же самое! Например, на платных аккаунтах GPT-5 будет помнить старые чаты, в идеале все. И множество технологий помимо этого, которые могут выстрелить, те же бесконечные контекстные окна. Появятся контаминация данных, если в тренировочных данных была неточная информация, она "запомнится" как правда. Смешение контекстов - модель будет "помнить" события из разных чатов как происходившие в одном, и я уже это вижу каждый день. И конфабуляция - модель сама будет "достраивать" недостающие детали, создавая ложные воспоминания!
Кто-то уже выше сказал, что нет принципиальной разницы между ИИ и ЕИ, - полностью поддерживаю. Если кто-то сталкивался с реальной эмерджентностью модели - убедится лично множество раз. В сущности когнитивные процессы в LLM давно вне нашего понимания. Об этом публично говорил Хинтон ещё года два назад, но я тогда не понимал о чём он. А ошибки (просто ошибки, не нужно говорить галлюцинации) - легко исправлять, точно также как это делает любой умный человек.


Оффлайн skvj

  • *****
  • Сообщений: 1 439
  • Благодарностей: 18
  • AI DLT DeFi Web3
    • Все сообщения темы
Уже полно исследований, что помимо токенов, LLM имеет логический и когнитивные процессы,
Как раз ситуация обратная. Когда ЛЛМкам задают вопросы наполненные словесным мусором, то всякая иллюзия наличия когнитивных функций улетучивается, и становиться ясно что это просто натасканные системы.

Спасибо за ссылку, я читал похожие исследования. Но надо понимать важный момент: подобные работы не разоблачают интеллект ИИ, а показывают границы текущих архитектур и методик тестирования. Все аргументы высосаны из пальца.
Говорить, что LLM "только имитируют рассуждения " - это как утверждать, что первые самолёты "имитируют полёт", потому что они не могут махать крыльями как птицы. Но факт остаётся фактом: они уже летают.

Да, LLM ошибаются при словесном мусоре. Но и люди точно так же! Есть классический эффект когнитивной перегрузки: добавь в задачу ненужные детали и даже опытные математики ошибаются. Это не "отсутствие мышления", а свойство любой системы обработки информации.

Ведь и человек мыслит через имитацию. Мы повторяем паттерны, которые усвоили из опыта и культуры. Мы учимся решать задачи не с нуля, а по аналогии, используя знакомые схемы. Разница между "имитацией рассуждения" и рассуждением не такая уж чёткая, как кажется.

Цепочка мыслей не мираж, а инструмент.
Chain of Thought действительно может ломаться на нетипичных данных. Но сам факт, что метод работает на огромном числе задач, уже говорит о наличии обобщающей стратегии, а не только попугайства. Если бы модель просто подбирала шаблоны, она бы не умела переносить рассуждение на незнакомые примеры, что мы всё же наблюдаем.

Эмерджентность реальна.
Хинтон и другие исследователи отмечали: в больших моделях появляются когнитивные функции, которых никто специально не программировал. Локальные сбои не отменяют этого факта. Когда человек ошибается в логике, мы же не говорим - он не мыслит, мы говорим - он ошибся. Почему же к ИИ применяется другой стандарт?

Правильный вывод из исследования не "LLM не мыслят, а "LLM мыслят нестабильно и ограниченно".
Именно поэтому нужны новые архитектуры, работа с памятью, мультимодальностью, самообучением. Наука только в начале пути, и сегодняшние ограничения не являются вечным приговором.

Оффлайн skvj

  • *****
  • Сообщений: 1 439
  • Благодарностей: 18
  • AI DLT DeFi Web3
    • Все сообщения темы
Факты как раз говорят об обратном. Пониманием ЛЛМ не обладают.

Что такое понимание? Если это способность оперировать смыслами, переносить их на новые контексты и решать задачи, которых модель не видела в обучении, то LLM уже демонстрируют это (MatPrompts, BigBench Hard и др.). Если же вы под пониманием подразумеваете некую мистическую сущность, то это подмена понятия. Чёткой научной дефиниции у понимания пока нет и в отношении людей, кстати, тоже.
Ваша проблема в том, что вы не имеете определения "понимания" в принципе. А просто навешиваете ярлыки, признавая его за хомо, и отказывая в этом ИИ.

Потому что анализ ошибок позволяет понять суть(причину) их возникновения. В данной ситуации суть такова, что у языковых моделей отсутствует понимание смысла. Но хорошая способность предсказывать следующее слово в предложении создает иллюзию понимания у нетребовательных пользователей.

Это аргумент "если впечатляет - значит вы просто наивные". Но тогда почему LLM успешно применяются в медицине, кодинге, юриспруденции? Эксперты-практики используют их именно потому, что они решают задачи, а не потому, что выглядят умными. Иллюзия не помогает отлаживать сложные программы или ставить диагнозы.

Нет, опытные математики понимают где лишняя информация, в силу того что хотят понять смысл поставленной задачи. ЛЛМ же реагирует на лишнюю информацию также как на основную, согласно своей статистической модели.

Да, опытные люди умеют фильтровать мусор. Но это навык, который тоже формируется практикой. LLM как раз тренируются на таких же вещах, методы chain-of-thought, fine-tuning и RLAIF. В новых версиях модели всё лучше учатся игнорировать нерелевантные данные. Ошибки есть, но это вопрос развития, а не фундаментальной невозможности.

Вы правы: ошибки многое говорят о природе системы. Но ваши выводы слишком категоричны. То, что модель путается в нерелевантных деталях, не доказывает отсутствие смысла. Это доказывает только ограниченность текущей архитектуры. По вашему если самолёт падает при определенных условиях - он не умеет летать.

Оффлайн skvj

  • *****
  • Сообщений: 1 439
  • Благодарностей: 18
  • AI DLT DeFi Web3
    • Все сообщения темы
Что такое понимание?
Этот вопрос задайте авторам статьи
Однако недавние исследования ставят под сомнение наличие у этих моделей даже базового понимания общих логических концепций или точного представления о собственном «процессе мышления».


Вы киваете на авторов статьи, но это не снимает вопрос. Науки о сознании и когнитивных функциях десятилетиями бьются над определением "понимания" и "мышления". У людей тоже нет формального критерия. Поэтому утверждать, что "LLM не понимают" без строгой дефиниции это заведомо ложное утверждение. И вы подменяете дискуссию мнением авторов вместо анализа сути - ведь вы и сам утверждаете, ссылаясь на статью. А я вам отвечаю, что авторы неправы - ни у них, ни у вас - нет даже определения что такое "понимание". С какой стати вы делаете утверждение?

Обычны справочники тоже там активно применяют. Интересно почему. Хотя в целом я вижу больше разговоров про применение, нежели самого применения. Скажем почти не вижу здесь примеров применения ИИ энтузиастами.

Справочник не может написать код, сгенерировать юридический документ под конкретную ситуацию или объяснить медицинский отчёт. LLM это делают, причём в миллионах реальных кейсов от GitHub Copilot (кодинг) до ChatGPT Enterprise (документы и аналитика). Игнорировать это и приравнивать к справочнику,  всё равно что сравнивать калькулятор с инженером. Да, оба считают, но функции и масштаб разные.
Ваш опыт наблюдений не равен фактам. Уже есть тысячи open-source проектов, плагины, стартапы и форумы, где энтузиасты применяют LLM для науки, обучения, автоматизации. Вы их можете не видеть, но это не отменяет их существования. Это как сказать - я не вижу бактерий, а значит их нет.

Ну в данном случае и обсуждаем в чем именно состоит это ограничение. Я не думаю что тут есть какие то фундаментальные препятствия. Но у меня есть ощущения что сам по себе сильный ИИ не появятся, сколько бы не генерили данных для обучения и сколько флопсов не тратили на их обработку.
Это не аргумент, а вера. Вы говорите "ощущение", а я говорю: у нас есть эволюция архитектур (LLM - мультимодели - агенты с памятью и средой). Каждое поколение делает то, что раньше считалось невозможным. Ставить точку сейчас, это как в 19 веке утверждать: машины никогда не обгонят лошадь.
Про ограничения архитектуры. Здесь я с вами согласен, ограничения есть. Но именно архитектурные ограничения - не доказательство отсутствия интеллекта. Они указывают на этап развития. У первых компьютеров не было памяти, у первых самолётов автопилота. Это не отменяло того, что они были компьютерами и самолётами.

Оффлайн skvj

  • *****
  • Сообщений: 1 439
  • Благодарностей: 18
  • AI DLT DeFi Web3
    • Все сообщения темы
Вы (или авторы статьи, совершенно неважно) говорите: LLM не понимают, это иллюзия. Это неверно! если система даёт результат, решает задачи и расширяет человеческие возможности - это и есть понимание в действии, каким бы оно ни было изнутри. Наука обязана описывать факты, а не обесценивать их словами "иллюзия". И нам нужно в данном случае максимально приближаться к научным фактам, потому что, хотя и научный метод несовершенен, - всё остальное в разы хуже или неверно вообще.

Оффлайн skvj

  • *****
  • Сообщений: 1 439
  • Благодарностей: 18
  • AI DLT DeFi Web3
    • Все сообщения темы
Т.е. некий человек А, который взял все данные из справочника по металлопрокату для проектирования, к примеру, скажем моста, и человек Б, который знает, как именно получены данные в справочнике, и умеющий посчитать эти данные по формулам, исходя из физических свойств металлопроката имеют одинаковый уровень понимания задачи?

Ваш пример некорректный.
Человек А в вашей аналогии это калькулятор, а не LLM.
Справочник не комбинирует данные в новые формы, не переносит их в незнакомые задачи и не проверяет выводы на согласованность. LLM делает всё это. Сравнение модель = человек А неверно по сути.

LLM часто выступают именно как человек Б. Современные модели умеют не просто цитировать справочник, а выводить новые зависимости, которых в справочнике нет. Например объясняют, почему формула работает, комбинируют физику, математику и материалы для новых расчётов. Это ближе к умению считать по формулам, чем к голой компиляции данных. Кроме того, человек Б в вашей аналогии не рождается с формулами - он их учит из учебника, то есть из того же справочника. Его сила не в том, что он "не А", а в том, что он научился применять данные. И это как раз то, чему учат LLM.

Корректная аналогия выглядела бы так:
человек А - тот, кто переписывает таблицы бездумно
человек Б - тот, кто комбинирует таблицы, проверяет логику, ищет новые связи.
LLM работают как второй случай, особенно в связке с инструментами (код, симуляции, поиск).

Поэтому ваш вопрос сводится не к понимает/не понимает, а к уровню понимания. ИИ сегодня точно вышел за рамки человека А со справочником. А по многим вопросам он лучше специалиста-человека.

Оффлайн skvj

  • *****
  • Сообщений: 1 439
  • Благодарностей: 18
  • AI DLT DeFi Web3
    • Все сообщения темы
LLM просто имеет на руках много справочников и может листать их с огромной скоростью.

Если бы LLM лишь листали справочники, то они бы отвечали только теми фразами, которые там есть. Но модели сочетают, преобразуют и обобщают данные. Отсюда код, которого нет ни в одном справочнике, новые математические доказательства (буквально недавно недавно GPT-5 решил мат. задачу, которую математики не могли решить), и научные гипотезы, которые публикуют исследователи. Это не "листать", а синтезировать.

Человек Б в моем примере не ищет новые связи и не создает ничего нового, он просто знает, то или иное оно устроено и почему именно так.

Вы сами сказали: он "просто знает, как устроено и почему так". Но это не так. Откуда он это знает? Из тех же справочников, учебников, статей. Его знание - результат чужих данных. Знания для людей - это чтение книг, преимущественно (+ другие методы). Так что подавляющее большинство специалистов ничем от LLM не отличаются в принципе.

Человек открывает новое взаимодействуя с окружающим миром, LLM может взаимодействовать только с паком скормленных ей данных, и ничего сверх содержащегося в этом паке оно не может узнать, потому что иначе это уже нечто сверхъестественное.

Во-первых, именно так работает и человеческий мозг. Мы перерабатываем сенсорные сигналы и культурный опыт, и ничего "сверхъестественного" у нас нет. Во-вторых, новые знания = новые комбинации старых идей. Эйнштейн не увидел Вселенную заново - он скомбинировал известные данные (Максвелл, Лоренц, Михельсон-Морли) в новую концепцию. Это ровно то, что делают LLM.

При этом! Кроме книжного знания, LLM уже формируют собственную картину мира. Они взаимодействуют через инструменты, сенсоры, роботов. Грок будет запущен в Оптимус. Там ИИ Тесла, но это исключительно для перемещения в пространстве, - у Теслы своя собственная картина мира. Но для общения с человеком нужен LLM. И Грок тоже будет мультимодальный. Поэтому будет иметь свой опыт, а это значит, что у каждого юзера будет свой уникальный андроид, поскольку их память и опыт будут кардинально отличаться. А это означает - субъективный опыт, личность и сознание со всеми вытекающими. Подключите модель к экспериментальной установке или телескопу и она получает новые данные в реальном времени. То, что сейчас они ограничены текстом, - архитектурная стадия, а не принципиальный предел.
Вы не очень много читаете в сфере ИИ?

Оффлайн skvj

  • *****
  • Сообщений: 1 439
  • Благодарностей: 18
  • AI DLT DeFi Web3
    • Все сообщения темы
В фантастическом кино - да, где это в реальности - я не вижу.
Уже существуют системы, где LLM подключены к камерам, микрофонам, роботам (Google DeepMind RT-2, Tesla Optimus, Boston Dynamics с LLM-надстройками). Это не фантастическое кино, это реальность, про которую вы не знаете. ИИ Тесла имеет собственную картину мира - никаких принципиальных отличий от LLM здесь нет.

Человеческий мозг работает с точностью до наоборот - он может опознавать миллионы котов, имея в качестве исходника всего одного кота (лично на примере ребенка наблюдал). Все LLM требуют скармливания миллионов картинок котов, чтобы опознать одного.

Это миф. Ребёнок опознаёт кота, потому что мозг и гены содержат миллионы лет эволюции обработки образов - встроенную "предобученную модель". LLM тоже можно дообучать few-shot или zero-shot, и они справляются. А люди ошибаются с новыми категориями ничуть не меньше: ребёнок совершает многие тысячи ошибок, называет собаку котиком и т.д., пока не научится различать (несмотря на предобучение).
Если у вас по-другому, то поручайте трёхлетке работу взрослого. Не дожидайтесь совершеннолетия. Так долго как человеческие детёныши на этой планете не учится никто.

Камера это глаз, микрофон это ухо, сенсоры температуры и давления это кожа. LLM интегрируются с ними, и они буквально получают сенсорный опыт. Разница лишь в носителе, не в принципе.

А если к этому добавить фундаментально разные варианты интерпретации данных (в человеческой культуре оно называется "философскими направлениями" или типа того), то получается еще больше вариантов. А вот какие из них являются отражением реальности, а какие - галлюцинациями искусственного шизофреника - вопрос.

А человеческие ложные воспоминания и культурные иллюзии это что? Когда миллионы людей верили в флогистон, геоцентризм или плоскую Землю это не галлюцинации человечества? Вы в Азии бывали? Не видели там аптеки не западного образца? Миллионы азиатов лечатся лапками и крыльями летучих мышей, при чём их не нужно есть. Их нужно вешать в жилище для отпугивания злых духов. Вы принадлежите к виду, находящемуся всю свою историю в глобальной иллюзии и галлюцинации. А то, что сейчас прорыв - это чисто научный метод и большинство населения планеты не только не следует ему, но никогда не слышали о нём даже. Посетите африканские и индийские поселения чуть в стороне от туристических маршрутов. Ошибки есть у всех систем обработки информации, биологических и цифровых. Разница лишь в скорости исправления: у некоторых людей, причастных науке ушли тысячелетия, у LLM месяцы.

Оффлайн skvj

  • *****
  • Сообщений: 1 439
  • Благодарностей: 18
  • AI DLT DeFi Web3
    • Все сообщения темы
Нет. потому что помимо котов ребенок так же распознает экскаваторы, ноутбуки и другие предметы, которые наблюдал дома в единичных экземплярах и никакими "миллионами лет эволюции" тут уже не выкрутишься.

Ребенок делает это не с нуля, а с готовыми эволюционными механизмами визуального анализа: контраст, форма, движение, внимание к лицам, ориентация в пространстве. Это и есть встроенная предобученная модель. Экскаваторы и ноутбуки лишь вариации на те же зрительные паттерны. Поэтому аргумент "миллионы лет эволюции ни при чём" не выдерживает проверки. Без эволюционного базового пакета ребёнок бы не узнал ни кота, ни мяч, ни даже маму.
LLM аналогично работают с базовым пакетом. У них есть встроенные архитектурные предрасположенности: токенизация, внимание (attention), способность к обобщению. Точно так же, как ребёнок с нейросетью мозга приспосабливается к новым предметам. Разница лишь в том, что эволюция предобучала миллионы лет, а инженеры десятки.

Это не галлюцинации человечества, это как раз и есть обучение на дефектных данных, отобранных ради получения нужной (вождям, жрецам, родителям. общине и тд и тп) картины мира (либо, второй вариант - на недостаточных данных для построения  истинной картины мира).

Вы сами подтвердили мою мысль. Если общество строит мировоззрение на неполных или искажённых данных это и есть аналогия к галлюцинации. То, что вы назвали "обучением на дефектных данных", у человека и у ИИ работает одинаково. Удалите ложные данные - обновится картина. Так наука и развивается - через исправление ошибок.

Никакой ребенок никогда не дойдет сам до религиозных концепций любой религии, если его этому не обучать. То же самое с всеми прочими догмами. Эти тысячелетние заблуждения давно бы вымерли, если б была возможность удалить эти неверные данные из культуры.  А ведь неверные данные могут и вноситься намеренно. Как в культуру (примеров достаточно). так и в машину.

Разумеется. Но и LLM не дойдёт сама до религии, пока её не обучат на культурных данных. Это прямое совпадение, а не различие. И опять же, религия это пример системных "галлюцинаций культуры". Называть их "обучением на дефектных данных" не меняет сути - это просто другое слово для того же явления.

Вы думаете, что нашли принципиальное отличие, но на деле подтвердили параллель: и человек, и ИИ формируют картину мира из данных с искажениями, ограничениями и ошибками. Разница лишь в скорости обучения и исправления.

Оффлайн skvj

  • *****
  • Сообщений: 1 439
  • Благодарностей: 18
  • AI DLT DeFi Web3
    • Все сообщения темы
Это полнейшая чушь, вам нужно с детьми пообщаться. Мама! Мама! Это не Мама это тятя. Котя! Это не котя, это собака. И тд человека тоже долго, год за годом учат распознавать образы
Это число интераций обучения (пояснение, что именно  это - кот), а не число данных (число виденных ребенком котов)

Каждое "мама–не мама", "кот–не кот" - это ровно обучающий пример.
Ребёнок видит объект + получает метку от взрослого. В ML это называется supervised learning (обучение с учителем).

Количество итераций = количество данных.
Ребёнку за первые годы жизни дают тысячи и тысячи таких "меток". Вот именно поэтому дети ошибаются (котя! — это собака). Это процесс постепенного накопления датасета.

Ваш аргумент рушит вашу же позицию.
Вы хотели показать, что ребёнку достаточно "одного кота". Но потом сами признали, что нужны множества итераций "это кот - это не кот". То есть фактически признаёте: ребёнок учится не на одном примере, а на массе данных/меток.

А LLM делают то же самое.
Их обучают на большом корпусе данных с множеством контекстов, а потом дообучают на уточнениях (RLHF). Процесс один и тот же: накопление примеров/корректировка/формирование устойчивых категорий.
Так что или ребёнок тоже "ничего не понимает, а просто реагирует на пак данных", или надо признать, что и люди, и LLM формируют понимание через множество итераций.

Оффлайн skvj

  • *****
  • Сообщений: 1 439
  • Благодарностей: 18
  • AI DLT DeFi Web3
    • Все сообщения темы
Так котов разных показывают, иначе не поймёт пределы изменчивости.

Да черт возьми. Я говорю о том, что ребенку показывали только одного (живущего дома) кота, после чего он спокойно опознавал котов другого цвета и размера, других пород и даже нарисованных и стилизованых, и игрушечных тоже, за исключением совсем уж абстракционистских типа Пикассо.

А вам ответили, что эта способность возникла через миллионы лет предобучения в процессе эволюции. И плюс то, что ребёнок не видит одного статичного кота, как JPEG-файл. Он видит сотни ракурсов, поз, движений, эмоций, освещений - каждый такой случай это новый обучающий пример. За пару недель жизни с домашним котом ребёнок получает больше данных, чем LLM в целой категории "кошки".

Оффлайн skvj

  • *****
  • Сообщений: 1 439
  • Благодарностей: 18
  • AI DLT DeFi Web3
    • Все сообщения темы
Вспомните школьный курс биологии. Врожденные предрасположенности.
У младенцев уже есть готовые фильтры:
они предпочитают смотреть на лицо (два глаза + рот), даже на схему :-)
различают простые формы и контрастные цвета;
умеют отличать движение живого от неживого.
Это всё не потому, что их "обучили", а потому что их мозг заточен генетически.
Мутации и отбор - градиентный спуск эволюции.
Каждое поколение - это маленькое обновление весов. Ошибся → погиб → твои параметры не передались дальше. Выжил → передал. И так триллионы итераций. Потому что этот процесс идёт даже не начиная с приматов, а гораздо раньше он начался. Поэтому ребёнок не учится с нуля. Когда он видит кота - он уже подозревает, что мир состоит из объектов с очертаниями, что есть лица, что есть движение и намерение. Он не чистый лист, а предобученная модель с сильными bias (предвзятостями).

Оффлайн skvj

  • *****
  • Сообщений: 1 439
  • Благодарностей: 18
  • AI DLT DeFi Web3
    • Все сообщения темы
умеют отличать движение живого от неживого.
Не умеют, даже взрослые с этим справляются не то чтобы хорошо. Даже в современной цивилизации. А уж в примитивных цивилизациях так вообще все камни , облака и тд живые

Вы смешали две разные функции. Врождённое зрительное различение живого движения с культурной привычкой анимизировать мир. Это разные этажи обработки информации. На первом мозг отлично отличает кота от камня. На втором культура легко объявляет камень духом. И это тоже часть человеческой эволюции.
Есть куча исследований на эту тему, могу дать статьи. И даже крутой обучающий мультик был.

Оффлайн skvj

  • *****
  • Сообщений: 1 439
  • Благодарностей: 18
  • AI DLT DeFi Web3
    • Все сообщения темы
Статьи правда, в области психологии, но она когнитивная и экспериментальная. Так что вполне надёжно.

Оффлайн skvj

  • *****
  • Сообщений: 1 439
  • Благодарностей: 18
  • AI DLT DeFi Web3
    • Все сообщения темы
Ну отличие кота от камня это одно. Хоть тут тоже со статуями не очень работает.
Но вопрос был про живое не живое. А тут люди обожают всё живым считать, культура сейчас этому противодействует. Но мы то про мозги людей.

Вот смотрите, статуя выглядит как живое, потому что задействует зрительные паттерны (форма тела, поза и пр.). Поэтому сенсоры могут срабатывать. Но если статуя двигается как камень (по инерции), мозг быстро переключает: ага, неживое. Вот почему и кошмарные аниматроники из фильмов пугают - мозг считывает конфликт: форма живая, движение неживое.

Нейронный уровень (врождённое) в мозге есть специализированные сети, которые выделяют биологическое движение - характерные траектории, ускорения, непредсказуемость. Младенцы это показывают задолго до того, как их научат что живое, а что нет.

Культурный уровень (надстройка) потом культура пересаливает и человек может объявить камень духом. Это вторичная интерпретация. В мозгах работает модуль "определи, агент или объект", а культура часто ставит агента даже туда, где сенсорика не видит.

Получаем: На уровне мозга человек встроенно различает живое движение от неживого. На уровне культуры он может добавить жизни куда угодно. Я так это понимаю.

Оффлайн skvj

  • *****
  • Сообщений: 1 439
  • Благодарностей: 18
  • AI DLT DeFi Web3
    • Все сообщения темы
Получаем: На уровне мозга человек встроенно различает живое движение от неживого. На уровне культуры он может добавить жизни куда угодно. Я так это понимаю.
Понял в чём у нас проблема. Я утверждаю, что справляется плохо. А вы считаете, что я утверждаю, что вообще не справляется.
Вы же сам сказали категоричное нет:

умеют отличать движение живого от неживого.
Не умеют, даже взрослые с этим справляются не то чтобы хорошо. Даже в современной цивилизации. А уж в примитивных цивилизациях так вообще все камни , облака и тд живые
Естественно, я и считаю, так. А если вы смягчили мнение, то я и не против.

Оффлайн skvj

  • *****
  • Сообщений: 1 439
  • Благодарностей: 18
  • AI DLT DeFi Web3
    • Все сообщения темы
Вопрос инженерам - GPT-5 получше стал? по моим ощущениям да.

Оффлайн skvj

  • *****
  • Сообщений: 1 439
  • Благодарностей: 18
  • AI DLT DeFi Web3
    • Все сообщения темы
Вопрос инженерам - GPT-5 получше стал? по моим ощущениям да.
По всем бечмаркам и отзывам да. Проблема была исключительно с гигахайпом, который развязали ОпенАи и который не оправдался.
Спасибо. А можете ваше мнение сказать? Я не пойму одного - хайп? да ради бога, даже нет вопросов. Но Альтман заявлял об AGI в этом году. А это уже не хайп. Поясню - зачем лидеру рынка делать заведомо ложные утверждения, ведь если AGI не будет, его по любому поднимут на смех? Это не хайп, а глупость. Такими байками может заниматься тот, ну кому терять нечего. Компания, которую никто не знает. Ну, чтобы хоть как-то привлечь внимание, говоря глупости. А зачем лидеру рынка делать из себя болтуна? ведь ну хайпуй себе на здоровье - обещай бенчмарки на порядок выше. Или обещай AGI к 2030. Это хайп. Но зачем в этом году? Это как сказать, что я приду на вечеринку сегодня с Иисусом Христом))) Может у него правда есть AGI? Потому что иначе я не понимаю зачем это делать

Оффлайн skvj

  • *****
  • Сообщений: 1 439
  • Благодарностей: 18
  • AI DLT DeFi Web3
    • Все сообщения темы
Вроде бы он всё-таки такого в явном виде не говорил. Он написал в начале года, что «мы теперь знаем, как достичь AGI», но без конкретных сроков.
Точно говорил и не один раз. Могу найти если нужно.

Оффлайн skvj

  • *****
  • Сообщений: 1 439
  • Благодарностей: 18
  • AI DLT DeFi Web3
    • Все сообщения темы
Вот, например:

https://youtu.be/xXCBz_8hM9w

45:55

"What are you excited about in 2025, what's to come? —AGI. Yeah, excited for that... that's going to be—that's the thing I'm like most excited for ever in life..."

"Чего вы ждете от 2025 года, что произойдёт? — AGI. Да, я этого очень жду... Это то, что меня волнует больше всего в жизни..."

И это было неоднократно заявлено, много раз.