Какая неожиданность. ИИ как "имитатор интеллекта", что было понятно с самого начала, но так всем хотелось верить в чудеса.
Не знаю о ком Вы. LLM не AGI, а pre-AGI технология. Некоторые совсем безудержные оптимисты ожидают настоящий AGI в течение года-двух, но я бы скорее поставила на 2030й и техсингулярность в 2035м.
LLM переполнены галлюцинациями. В GPT-5 их стало меньше, но всё равно слишком много. На таком гнилом фундаменте общий интеллект не построишь, тем более сверхинтеллект
Не всем.
что было понятно с самого начала, но так всем хотелось верить в чудеса.
Мне кажется, вы, ребят, занимаетесь вишфул финкингом. Вы путаете ограничения текущей технологии и возможных будущих архитектур. Мне кажется, мало кто утверждает, что мы сейчас уже имеем AGI.
Теперь по сути работы, вы ведь её не читали, я права? Я дала её почитать GPT-5 thinking и Opus 4.1, и рассказать её суть (такой и был промт: "прочитай работу и перескажи её суть").
Так же я немного полистала работу сама (гуглу не скармливала от лени, грок как обычно лежал и был недоступен).
Я думаю, у этой работы есть два больших недостатка:
1) авторы говорят об экспериментальной среде, дают ссылку на гитхаб, но там пусто - ни моделей ни весов, ни кода чтобы повторить их измерения. Где скачать их среду DataAlchemy?
2) они говорят, что CoT имитирует мышление, и перестаёт работать, если внутри CoT пошаманить - поменять длину цепочек рассуждения, например. Но я думаю, что это очень странный аргумент: а что, если поменять нейромедиаторы в мозге человека, будет ли он в такой ситуации работать, и строить цепочки рассуждения?
Так же авторы указывают на то, что за пределами распределения производительность LLM с CoT падает до нуля. Но тут вопрос: а если человека выдрать из привычной среды, и погрузить в ситуацию где вообще всё не знакомо, какова будет производительность его мозга?
В целом, работа основана на старой посылке: она опять борется с китайской комнатой, говоря о том, что есть имитация мышления, а есть настоящее мышление. Тогда как не даёт ответ на вопрос, а что такое настоящее мышление по версии авторов. Что, если имитация и китайская комната, как система, всё же являются мышлением? Что, если разница только в том, что человеческий мозг пока галлюционирует реже LLM, и это всё, что нас отделяет от общего ИИ?
Так же меня смущает, что авторы работы не проверяли