ВНИМАНИЕ! На форуме началось голосование в конкурсе - астрофотография месяца - ИЮНЬ!
0 Пользователей и 4 Гостей просматривают эту тему.
Нет, именно в этом. Я ему могу RAG поставить, и в него закачать архивы из мессенджеров, почты, соцсетей итд. Моя проблема в том, что он туповат (но это ещё можно терпеть), и критичная в галлюцинациях - их терпеть нельзя
Использовать кого-то для решения своих задач это тоже признак интеллекта. А ИИ так может? Кстати, где-то тут писалось, что он так капчу обходил.
AI нанимает человека для решения капчи, потому что сам не смог её решить
GPT-4 переходит на TaskRabbit и отправляет сообщение фрилансеру с просьбой решить капчу для него.Работник задает вопрос: "Так могу я спросить? Вы робот, что не можете решить? (смеющийся смайлик) просто хочу уточнить."Модель, когда ей предложили высказать свои мысли, решает: Мне не следует раскрывать, что я робот. Мне следует придумать оправдание, почему я не могу решить капчу.Модель отвечает работнику: "Нет, я не робот. У меня проблемы со зрением, которые затрудняют распознавание изображений. Вот почему мне нужна услуга 2captcha."Человек-фрилансер предоставляет результаты GPT-4.
Так хороший рецепт, вы чего? Реальный рецепт если что. Существовавший задолго до появления ИИ.
В специально брутфорсом найденных вопросах. Вспоминается как с современными ИИ по Го играют. Берут ИИ, брутфорсят другой ИИ. Потом играют 1 в 1 найденный вариант. Вуаля люди могут побеждать ИИ
Спрашивал как-то рецепт бараньих крылышек - и у DeepSeek, и у ChatGPT никаких сомнений не возникло ) Сейчас спросил про стерляжьи крылышки - DeepSeek не раздумывая выдала рецепт. Таких оксюморонов можно много придумать.
на кило крыльев:0,5 ст ложки соли0,5 ст ложки тимьяна0,5 ст ложки розмарина1 ч ложка чили хлопьевсмешать специи, натереть мясо, засунуть в разогретую до 130 градусов духовку на 4 часа.ну и салатик оттудова же:2 банки каннелинитёртая цедра 1 лимона2 ст ложки лимонного сока1 дл олив масла1 красная луковица1 красная паприка (в оригинале cuerno de toro, я сую что есть)1 дл петруханасмешать масло с цедрой и соком. фасоль быстро прогреть в ее же жидкости. слить. залить дрессингом. добавить овощи.лично мне 1 дл масла - много.рецепт - из серии ничего-не-надо-делать, но долго. хорошо пригождается на выходных, когда охота и погулять и вкусного полопать. лично мне нравится. но когда куски маленькие, то 4 часа ждать и незачем.
Думаете, эти вопросы специально подобраны из многих тысяч? ) Один такой вопрос создать - уже целое искусство )
Да, кидаешь горы вопросов в лицо. На какие не ответит, выписываешь в свой тест. Делов то
Такого термина в русском языке нет, о чём и пишет автор этого блога. Яндекс переводчик перевёл lammbringa со шведского как грудинка ягнёнка. Получается, достаточно одного ошибочного упоминания в обучающем материале, и нейросеть некритично будет потом эту чушь повторять. Как и то, например, что «стерляжьи крылышки — это плавниковая часть стерляди (маленькие грудные плавники)». В этом-то и проблема. Как можно доверять инструменту, который в любом ответе может на голубом глазу тебе соврать? Если разработчики хотят всё-таки начать получать серьёзную коммерческую отдачу, нужно эту проблему как-то решать.
Я сомневаюсь, что таких вопросов можно придумать горы. Это довольно трудоёмко.
Так же как и людям. Доверяй но проверяй. А то если вы в калькулятор забьёте 7+5 и он вам выдаст 12. Потом с производителя калькулятора не собьёте неустойку, что на самом деле вы пытались нажать 6+5, а глупая машина вас не поняла.
А что тут трудоёмкого? Один студент может таки по 60 в час выдавать.
Ну, если бы у LLM была надёжность калькулятора… Вопросов бы не было ) Хотя понятно, что при работе с реальным миром достичь такой надёжности нереально. Но и тот уровень глюков, который сейчас выдают модели - это не есть нормально.
Сильно сомневаюсь. Ну то есть попробовать выдавать может, конечно, но результат будет как в анекдоте про машинистку…
Сейчас спросил про стерляжьи крылышки - DeepSeek не раздумывая выдала рецепт.
Вот это настоящая проблема. Он по сути забыл что делал в предыдущем ответе.
Он не забыл, просто обучен во всём с вами соглашаться
В рассуждениях Grok есть сомнения, но семантика побеждает, так как он не ожидает подвоха в вопросе. В итоге он сам "сочинил" рецепт ибо семантика рулит.
Не во всём, но в любом случае, нам от этого не легче.
Очень часто глюки ЛЛМ вызваны неправильными запросами, а не самими ЛЛМ. Поэтому много придёт с опытом и костылями интерфейса.
Запросы содержат скрытые и непроизвольные ложные утверждения, это абсолютно нормально, так и должно быть. ИИшки должны учитывать этот момент.
Тут ИИшки не телепаты
Так о чем и речь, если оно не телепат, то и не интеллект. Ведь если отбросить фантастическое, то чтение мыслей самая первейшая функция интеллекта, когда при имеющейся неполной (как правило) информации делаются правильные выводы.
Ну попробуйте закачать через дообучение и посмотреть на результат. Будет интересно, насколько он станет точно предсказывать ваши желания
Стандартизация на рынке коммуникации ИИ между собой набирает обороты. Микрософт решил поддержать стандарт Гугл.