ВНИМАНИЕ! На форуме начался конкурс - астрофотография месяца МАРТ!
0 Пользователей и 3 Гостей просматривают эту тему.
У людей тоже есть ограничение контекстного окна и галлюцинаций более чем достаточно.
Дарио Амадей сказал, что технически может включить окно объёмом 100 млн слов
Цитата: skvj от 21 Ноя 2025 [20:51:43]Вы говорите приоритет авторства часто не проблема? Но весь ваш длинный список судебных тяжб как раз и показывает, что это гигантская проблема.Знаете, у меня в творческой биографии был эпизод, когда первым оказался как раз не я. Правда мы с "конкурирующим" автором очень быстро и беспроблемно решили, что произведения все-таки разные, хоть и на удивление похожие. Но спорить о датах, подозревая мухлёж, нам с нею даже в голову не приходило.И в вышеприведенных мною примерах ТОЖЕ не оспаривались даты/приоритеты первопубликаций (чего Вы почему-то упорно отказываетесь замечать): и Емец признавал вторичность своей Тани по отношению к Гарри, и студия (скажем, ХХ Cent. Fox от Расходникова) не отрицала получение чернового сценария РАНЬШЕ, чем другой, но подозрительно похожий, был ею взят в работу. Уж не знаю, насколько этот список можно назвать длинным, только проблема, иллюстрируемая мной с его помощью, всяко не в сложности выяснения, кто был первым, а кто вторым. Она именно в трактовке: позволительно ли обошелся второй с произведением первого. Или, может, не обходился никак, а креативил самостоятельно, независимо, но... так совпало.
Вы говорите приоритет авторства часто не проблема? Но весь ваш длинный список судебных тяжб как раз и показывает, что это гигантская проблема.
Знаете, у меня в творческой биографии был эпизод, когда первым оказался как раз не я.
Цитата: skvj от 21 Ноя 2025 [10:00:11]Дарио Амадей сказал, что технически может включить окно объёмом 100 млн словТакие высказывания снижают уровень доверия Антропику. Я много раз хвалила claude за то, что они не пытаются вот так делать - обманывать людей контекстом в миллионы токенов. В chain-of-thoughts у claude прекрасно видно, что модель не сама смотрит в загруженные в неё файлы с кодом (или текстом художественным и нет), а использует внешнюю утилиту для поиска в проекте. Внутри утилиты, видимо, сверхоптимизированная LLM с большим контекстом - например, 150к и скрипты, бьющие текст на чанки. А настоящая умная модель как была с контекстом, скажем, 32к токенов, так и остаётся.Другие модели скрывают этот процесс от пользователя(я думаю, он так же примерно сделан везде), и это снижает к ним доверие.
Ксю, не только Антропик говорит о 100М контекстаhttps://www.communeify.com/en/blog/magic-100m-token-context-windowshttps://lablab.ai/tech/ltm-2-minihttps://magic.dev/blog/100m-token-context-windows
https://generative-engine.org/llama-s-90-cost-advantage-and-10m-token-windows-why-october--1760828634841
Есть, но пока на порядки меньшие ограничения, чем у LLM, которые можно запустить на своём железе дома или использовать по подписке
Кроме того уже сегодня существуют модели Hyena, Mamba, RWKV и т.п., которые математически и алгоритмически способны поддержать хоть 100 млн токенов, потому что их вычисление растёт линейно, а не квадратично.
Повторюсь, я говорю не о хитрых хаках, когда маленькая тупая модель, оптимизированная под большое окно роется в токенизированном тексте, пилит его на чанки и размечает для большой модели - а более честный подход, где бы основная модель видела текст целиком
Цитата: Polnoch Ксю от 22 Ноя 2025 [08:19:30]Повторюсь, я говорю не о хитрых хаках, когда маленькая тупая модель, оптимизированная под большое окно роется в токенизированном тексте, пилит его на чанки и размечает для большой модели - а более честный подход, где бы основная модель видела текст целикомТам не хаки,там архитектуры другие. Им нормально жрать сколько угодно контекста. Но архитектуры ещё не развитые, поэтому по интелекту не дотягивают до топовых моделей
Но архитектуры ещё не развитые, поэтому по интелекту не дотягивают до топовых моделей
Цитата: BlackMokona от 22 Ноя 2025 [08:21:21]Но архитектуры ещё не развитые, поэтому по интелекту не дотягивают до топовых моделейо чём я и говорила. Я согласна, что много интересных архитектурных идей. Но мы пока ещё не тут. Нет пока никакого AGI. Уже почти, да. Но пока ещё нет...А все эти рассказы о контекстном окне в 10млн токенов у Маска, Антропика итд вызывают только раздражение и недоумение
Так он и говорит - мощности не хватает для новых архитектур. Дата-центры на 500 МВт для чего строят по вашему))
Т.е. когда инженер рассказывает про новые технологии, которые нас ждут в будущем - его корректно прервать, обвинить во лжи и указать - нет, вы сначала покажите! А уж потом будете вот это всё рассказывать! Вынь, да положъ!
Цитата: skvj от 22 Ноя 2025 [08:37:20]Т.е. когда инженер рассказывает про новые технологии, которые нас ждут в будущем - его корректно прервать, обвинить во лжи и указать - нет, вы сначала покажите! А уж потом будете вот это всё рассказывать! Вынь, да положъ!это не инженер рассказывает в пир ревьювд пейпере, а какие-то пресс-службы в пресс-релизах. Мой поинт в том, что меня раздражают очень упоминания о миллионах токенов контекста - и тем сильнее, чем больше миллионов там указано. Если речь о новой технологии, так дали бы её потестить или хотя бы почитать подробности в пейпере как сделали.
Мой поинт в том, что меня раздражают очень упоминания о миллионах токенов контекста - и тем сильнее, чем больше миллионов там указано. Если речь о новой технологии, так дали бы её потестить или хотя бы почитать подробности в пейпере как сделали.