ВНИМАНИЕ! На форуме начался конкурс - астрофотография месяца МАРТ!
0 Пользователей и 2 Гостей просматривают эту тему.
Уже полно исследований, что помимо токенов, LLM имеет логический и когнитивные процессы,
А ложные воспоминания, кстати - это неисправимый бич человечества в принципе.
Как раз ситуация обратная. Когда ЛЛМкам задают вопросы наполненные словесным мусором, то всякая иллюзия наличия когнитивных функций улетучивается, и становиться ясно что это просто натасканные системы.
Внезапно у людей так же работают.
Умение не шаблоно работать это особый талант.
То что люди часто не пользуются своим интеллектом в силу лени, предвзятости нам известно. Но это совершенно иная ситуация в сравнении с ЛЛМ где интеллект просто не наблюдается.
Умение выходить за рамки шаблонов еще и опасно для человека который заботиться о своем выживании. Надумаешь покреститься не тем количеством перстов и тебе хана. Но это заморочки людей и их эволюционного прошлого.Хотя в целом мышление даже очень умного человека то же есть набор шаблонов.
Цитата: skvj от 24 Авг 2025 [03:09:47]Уже полно исследований, что помимо токенов, LLM имеет логический и когнитивные процессы,Как раз ситуация обратная. Когда ЛЛМкам задают вопросы наполненные словесным мусором, то всякая иллюзия наличия когнитивных функций улетучивается, и становиться ясно что это просто натасканные системы.
Но факт остаётся фактом: они уже летают.
Почему же к ИИ применяется другой стандарт?
добавь в задачу ненужные детали и даже опытные математики ошибаются.
В данной ситуации суть такова, что у языковых моделей отсутствует понимание смысла.
Кроме того, ещё и поразительно быстрое привыкание людей к новому. Никто уже не помнит, что было каких-то полгода назад, возникает иллюзия, что в прошлом было примерно то же, что и сейчас, хотя темпы прогресса в этой сфере на самом деле невероятные.
Факты как раз говорят об обратном. Пониманием ЛЛМ не обладают.
Потому что анализ ошибок позволяет понять суть(причину) их возникновения. В данной ситуации суть такова, что у языковых моделей отсутствует понимание смысла. Но хорошая способность предсказывать следующее слово в предложении создает иллюзию понимания у нетребовательных пользователей.
Нет, опытные математики понимают где лишняя информация, в силу того что хотят понять смысл поставленной задачи. ЛЛМ же реагирует на лишнюю информацию также как на основную, согласно своей статистической модели.
Понимание текста на людях тестируется так - дают прочитать - а потом просят кратко изложить суть.
никакого понимания того, кто или что такое снусмумрики, сепульки и заркидон - нет и не будет.
Что такое понимание?
Однако недавние исследования ставят под сомнение наличие у этих моделей даже базового понимания общих логических концепций или точного представления о собственном «процессе мышления».
Но тогда почему LLM успешно применяются в медицине, кодинге, юриспруденции?
Это доказывает только ограниченность текущей архитектуры.
Этот вопрос задайте авторам статьи Однако недавние исследования ставят под сомнение наличие у этих моделей даже базового понимания общих логических концепций или точного представления о собственном «процессе мышления».
Обычны справочники тоже там активно применяют. Интересно почему. Хотя в целом я вижу больше разговоров про применение, нежели самого применения. Скажем почти не вижу здесь примеров применения ИИ энтузиастами.
Ну в данном случае и обсуждаем в чем именно состоит это ограничение. Я не думаю что тут есть какие то фундаментальные препятствия. Но у меня есть ощущения что сам по себе сильный ИИ не появятся, сколько бы не генерили данных для обучения и сколько флопсов не тратили на их обработку.