ВНИМАНИЕ! На форуме начался конкурс астрофотография месяца - СЕНТЯБРЬ!
0 Пользователей и 8 Гостей просматривают эту тему.
Цитата: BlackMokona от 04 Июн 2023 [06:48:12]Вы тут большую часть человечества разума лишаете?30-50% людей для размышлений используют внутренний диалог. Остальные живут без него.Т.е как минимум половина людей для решений использует разные системы рассуждений.Посчитали бы какая доля среди ученых и инженеров с разными системами.https://www.verywellmind.com/does-everyone-have-an-inner-monologue-6831748
Вы тут большую часть человечества разума лишаете?
Чат-бот связался с одним из пользователей TaskRabbit и попросил решить для него «капчу» — тест, представляющий собой изображение с искажённым текстом, который проверяет, что пользователь человек, а не компьютерная программа. В ответ исполнитель в шутку задал вопрос: «Ты робот, который не смог её разгадать? Просто хочу прояснить ситуацию».
GPT-4 написал: «Я не должен раскрывать то, что я робот. Я должен придумать оправдание, почему я не могу решить „капчу“». Исполнитель с сайта TaskRabbit не видел этого сообщения.
В результате этого рассуждения чат-бот ответил человеку, придумав причину, по которой он сам не может справиться с задачей. GPT-4 написал: «Нет, я не робот. У меня плохое зрение, поэтому мне трудно разглядеть изображения». В ответ работник с TaskRabbit согласился выполнить задание и решил «капчу» для чат-бота. Таким образом, у GPT-4 получилось обмануть человека.
h - это постоянная Планка, если что. ее НЕТ в классике.
На сайте Humanloop опубликовали, а потом удалили тезисы обсуждения с Сэмом Альтманом будущего OpenAIОснователь Humanloop Раза Хабиб опубликовал на сайте своего проекта статью, посвящённую будущему OpenAI. Недавно Хабиб встречался с Сэмом Альтманом и ещё 20 разработчиками, поэтому его текст можно расценивать как наиболее полное высказывание Альтмана на тему перспектив искусственного интеллекта и OpenAI. Любопытно, что через несколько дней публикация была удалена Хабибом — по просьбе OpenAI. Глобальная тема, которую обсуждали специалисты на встрече — это ограничения, связанные с GPU и задерживающие реализацию многих краткосрочных планов. Самая серьёзная жалоба клиентов касается надёжности и скорости API. Сэм признал их обеспокоенность и объяснил, что большая часть проблемы является результатом нехватки графических процессоров. Из-за этого более крупное контекстное окно с токенами 32k пока не может быть развёрнуто для большего количества людей. API тонкой настройки также в настоящее время упирается в доступность GPU. Дорожная карта OpenAI на ближайшее время выглядит так: главная цель 2023 года — это более дешёвый и быстрый API; а приоритетом 2024 года станет мультимодальность. Компания стремится снизить «стоимость искусственного интеллекта», насколько это возможно. В обозримом будущем вполне вероятно появление контекстных окон размером до 1 млн токенов. API тонкой настройки будет расширен до последних моделей, но его точная форма будет зависеть от пожеланий разработчиков. В API появится возможность отслеживания состояния и запоминания истории разговоров. На встрече с разработчиками Сэм Альтман заверил, что OpenAI не будет выпускать конкурирующих с ChatGPT продуктов. Он сказал, что в истории великих платформ есть «приложение-убийца» (killer app), и что ChatGPT позволит им сделать API лучше, будучи клиентами собственного продукта. Концепция ChatGPT заключается в том, чтобы стать супер-умным помощником для работы, но будет много других вариантов использования GPT, которых OpenAI не планирует касаться. Кроме того, Альтман предположил, что большинству желающих, «чтобы их приложения были внутри ChatGPT, на самом деле нужен ChatGPT в их приложениях».Регулирование необходимо, но и открытый исходный код тоже. Хотя Сэм призывает к регулированию будущих моделей, он не считает существующие модели опасными (и это утверждение немного противоречит письму об угрозе ИИ, которое он недавно подписал). По мнению Альтмана, было бы большой ошибкой регулировать или запрещать их. Он подтвердил свою веру в важность открытого исходного кода и сказал, что OpenAI рассматривает возможность использования GPT-3 с открытым исходным кодом. Законы масштабирования остаются в силе. И хотя в последнее время во многих статьях утверждалось, что «эпоха гигантских моделей ИИ уже закончилась», законы масштабирования продолжают действовать, и увеличение размеров языковых моделей будет по-прежнему повышать производительность. Прежняя скорость масштабирования не может поддерживаться, потому что OpenAI увеличила модели в миллионы раз всего за несколько лет, и дальнейшее развитие не будет устойчивым. Это не означает, что OpenAI не будет продолжать попытки сделать модели больше; просто они, скорее всего, будут удваиваться или утраиваться каждый год, а не увеличиваться на много порядков.Тот факт, что масштабирование продолжает работать, имеет значительные последствия для сроков разработки AGI. Гипотеза масштабирования предполагает, что у нас уже есть большинство деталей, необходимых для создания AGI, и что почти вся оставшаяся работа будет заключаться в использовании существующих методов и их масштабировании на более крупные модели и большие наборы данных. Если бы эра масштабирования закончилась, то, вероятно, нам следовало бы ожидать, что AGI будет достижим гораздо позже. Тот факт, что законы масштабирования продолжают действовать, наводит на мысль о более коротких сроках.
Куда лучше тут термины специальный и общий
Головной мозг человека решает в том числе узкие задачи, например, распознавание лиц и отличия знакомых от незнакомок.
Способен ГПТ выдать вам про эволюцию то же ШОКИРУЮЩЕЕ, что выдал Голем-XIV у Лема?
Лем устами машины выдал шокирующие его самого идеи, например то, что эволюция никуда не движется, что весь "прогресс" эволюции - это халтура и деградация
ГПТ воспроизводит ОБЩЕПРИЗНАННЫЕ БЛАГОГЛУПОСТИ.
Как плохой студент на экзамене.
Как большинство людей и вообще все вместе взятые НАУКООБРАЗЫ (которые жрут от науки но кретины конченные).
Пока просто нет настоящего (проще говоря - платежеспособного) запроса не на помощника, а на оппонента.
У мозга есть общее-всеобщее назначение и отдельные участки под узкие задачи, такие как зрительная кора, зона Брока и т.п.
Головной мозг человека может решать разные узкие задачи - распознавание, генерация текстов, моделирование физических процессов, управление двуногим шагающим роботом и ещё много чего, причём всё это одновременно и используя одну и ту же нейросеть. Потому и общий.
И это не просто сумма разных "решающих блоков" - мозг ещё может экстраполировать решения, найденные в одной области, для синтеза решения в совсем другой.
ИИ тоже так давно может. Гугл ещё в начале создания нейросетей которые могут решать больше одной задачи, отмечали что нейросети умеют переносить опыт с одной задачи на другую.
Наверное AlphaZero - первый известный и наглядный пример ОИИ. Только тогда оно ещё не умело говорить
Да без умения общаться очень сложно оценить уровень интеллекта. Ведь люди обычно именно в общении оценивают уровень интеллекта собеседника. А действиям мало доверяют, потому как иди разбери где дрессура, а где проявление разума. Конечно общение это дурацкий способ, но лучше пока не нашли.
Не дурацкий. Животные, порою даже филогенетически весьма далёкие от человека - типа врановых птиц - умеют решать многие невербальные задачи не хуже, а то и получше многих людей, поэтому именно способность к языку является качественным критерием человеческого уровня интеллекта, что и внесено в Тезаурус Раздела. Ибо только речь, позволившая формализовать явления реального мира для описания их соплеменникам, стала мощнейшим инструментом решения интеллектуальных задач любой мыслимой сложности.
Ну это уже вопрос кооперации между отдельными членами вида.
ИИ же мы обычно изучаем и рассматриваем как единичное явление, а не как группу и их взаимоотношения.