ВНИМАНИЕ! На форуме начался конкурс - астрофотография месяца МАРТ!
AlexDark и 9 Гостей просматривают эту тему.
Цитата: Polnoch Ксю от 14 Авг 2025 [20:29:29]Возможно, но мне кажется, из-за галлюцинаций. Ну так галлюцинации и есть следствие имитации мышления. Нейросеть что то генерит, то что нас устраивает мы воспринимаем как интеллект, а то что не устраивает как галлюцинации.
Возможно, но мне кажется, из-за галлюцинаций.
Цитата: skvj от 24 Авг 2025 [03:09:47]Уже полно исследований, что помимо токенов, LLM имеет логический и когнитивные процессы,Как раз ситуация обратная. Когда ЛЛМкам задают вопросы наполненные словесным мусором, то всякая иллюзия наличия когнитивных функций улетучивается, и становиться ясно что это просто натасканные системы.
Уже полно исследований, что помимо токенов, LLM имеет логический и когнитивные процессы,
Факты как раз говорят об обратном. Пониманием ЛЛМ не обладают.
Потому что анализ ошибок позволяет понять суть(причину) их возникновения. В данной ситуации суть такова, что у языковых моделей отсутствует понимание смысла. Но хорошая способность предсказывать следующее слово в предложении создает иллюзию понимания у нетребовательных пользователей.
Нет, опытные математики понимают где лишняя информация, в силу того что хотят понять смысл поставленной задачи. ЛЛМ же реагирует на лишнюю информацию также как на основную, согласно своей статистической модели.
Что такое понимание?
Этот вопрос задайте авторам статьи Однако недавние исследования ставят под сомнение наличие у этих моделей даже базового понимания общих логических концепций или точного представления о собственном «процессе мышления».
Обычны справочники тоже там активно применяют. Интересно почему. Хотя в целом я вижу больше разговоров про применение, нежели самого применения. Скажем почти не вижу здесь примеров применения ИИ энтузиастами.
Ну в данном случае и обсуждаем в чем именно состоит это ограничение. Я не думаю что тут есть какие то фундаментальные препятствия. Но у меня есть ощущения что сам по себе сильный ИИ не появятся, сколько бы не генерили данных для обучения и сколько флопсов не тратили на их обработку.
Т.е. некий человек А, который взял все данные из справочника по металлопрокату для проектирования, к примеру, скажем моста, и человек Б, который знает, как именно получены данные в справочнике, и умеющий посчитать эти данные по формулам, исходя из физических свойств металлопроката имеют одинаковый уровень понимания задачи?
LLM просто имеет на руках много справочников и может листать их с огромной скоростью.
Человек Б в моем примере не ищет новые связи и не создает ничего нового, он просто знает, то или иное оно устроено и почему именно так.
Человек открывает новое взаимодействуя с окружающим миром, LLM может взаимодействовать только с паком скормленных ей данных, и ничего сверх содержащегося в этом паке оно не может узнать, потому что иначе это уже нечто сверхъестественное.
В фантастическом кино - да, где это в реальности - я не вижу.
Человеческий мозг работает с точностью до наоборот - он может опознавать миллионы котов, имея в качестве исходника всего одного кота (лично на примере ребенка наблюдал). Все LLM требуют скармливания миллионов картинок котов, чтобы опознать одного.
А если к этому добавить фундаментально разные варианты интерпретации данных (в человеческой культуре оно называется "философскими направлениями" или типа того), то получается еще больше вариантов. А вот какие из них являются отражением реальности, а какие - галлюцинациями искусственного шизофреника - вопрос.
Нет. потому что помимо котов ребенок так же распознает экскаваторы, ноутбуки и другие предметы, которые наблюдал дома в единичных экземплярах и никакими "миллионами лет эволюции" тут уже не выкрутишься.
Это не галлюцинации человечества, это как раз и есть обучение на дефектных данных, отобранных ради получения нужной (вождям, жрецам, родителям. общине и тд и тп) картины мира (либо, второй вариант - на недостаточных данных для построения истинной картины мира).
Никакой ребенок никогда не дойдет сам до религиозных концепций любой религии, если его этому не обучать. То же самое с всеми прочими догмами. Эти тысячелетние заблуждения давно бы вымерли, если б была возможность удалить эти неверные данные из культуры. А ведь неверные данные могут и вноситься намеренно. Как в культуру (примеров достаточно). так и в машину.
Цитата: BlackMokona от 24 Авг 2025 [19:13:20]Это полнейшая чушь, вам нужно с детьми пообщаться. Мама! Мама! Это не Мама это тятя. Котя! Это не котя, это собака. И тд человека тоже долго, год за годом учат распознавать образыЭто число интераций обучения (пояснение, что именно это - кот), а не число данных (число виденных ребенком котов)
Это полнейшая чушь, вам нужно с детьми пообщаться. Мама! Мама! Это не Мама это тятя. Котя! Это не котя, это собака. И тд человека тоже долго, год за годом учат распознавать образы
Цитата: BlackMokona от 24 Авг 2025 [22:45:03]Так котов разных показывают, иначе не поймёт пределы изменчивости.Да черт возьми. Я говорю о том, что ребенку показывали только одного (живущего дома) кота, после чего он спокойно опознавал котов другого цвета и размера, других пород и даже нарисованных и стилизованых, и игрушечных тоже, за исключением совсем уж абстракционистских типа Пикассо.
Так котов разных показывают, иначе не поймёт пределы изменчивости.
Цитата: skvj от 25 Авг 2025 [00:11:57]умеют отличать движение живого от неживого.Не умеют, даже взрослые с этим справляются не то чтобы хорошо. Даже в современной цивилизации. А уж в примитивных цивилизациях так вообще все камни , облака и тд живые
умеют отличать движение живого от неживого.
Ну отличие кота от камня это одно. Хоть тут тоже со статуями не очень работает.Но вопрос был про живое не живое. А тут люди обожают всё живым считать, культура сейчас этому противодействует. Но мы то про мозги людей.
Цитата: skvj от 25 Авг 2025 [15:16:03]Получаем: На уровне мозга человек встроенно различает живое движение от неживого. На уровне культуры он может добавить жизни куда угодно. Я так это понимаю.Понял в чём у нас проблема. Я утверждаю, что справляется плохо. А вы считаете, что я утверждаю, что вообще не справляется.
Получаем: На уровне мозга человек встроенно различает живое движение от неживого. На уровне культуры он может добавить жизни куда угодно. Я так это понимаю.
Цитата: skvj от 27 Авг 2025 [07:16:39]Вопрос инженерам - GPT-5 получше стал? по моим ощущениям да.По всем бечмаркам и отзывам да. Проблема была исключительно с гигахайпом, который развязали ОпенАи и который не оправдался.
Вопрос инженерам - GPT-5 получше стал? по моим ощущениям да.
Вроде бы он всё-таки такого в явном виде не говорил. Он написал в начале года, что «мы теперь знаем, как достичь AGI», но без конкретных сроков.