A A A A Автор Тема: Пределы автоматизации и внедрения роботов  (Прочитано 401490 раз)

0 Пользователей и 3 Гостей просматривают эту тему.

Оффлайн Eddy_Em

  • *****
  • Сообщений: 1 597
  • Благодарностей: 50
  • САО РАН. Буково forever!
    • Сообщения от Eddy_Em
    • Я на гитхабе
обладают всеведением по всему интернету?
Тогда какой от них вообще смысл? Это как трехлетнего ребенка просить уравнение Шрëдингера решить для электрона в поле атома водорода…

Оффлайн Инопланетянин

  • *****
  • Сообщений: 11 795
  • Благодарностей: 651
    • Сообщения от Инопланетянин
Тогда какой от них вообще смысл?
Какой был смысл от паровоза Черепанова? Или вам сразу электровоз подавай?

Оффлайн BlackMokona

  • *****
  • Сообщений: 21 088
  • Благодарностей: 637
  • Мне нравится этот форум!
    • Сообщения от BlackMokona
Я уж его наводил-наводил на редконаходимые мануалы, а он, оказывается, даже об их существовании не знает (не то, что имел бы скачанными).
ИИ ничего не имеет скаченого. Всё что запомнил при обучении, тем и пользуется.
Для того чтобы ИИ о чём то знал, это должно повсеместно встречаться в интернете. Иначе у него объёма мозгов не хватит вместить в себе всякие редкости

Оффлайн Rattus

  • Модератор
  • *****
  • Сообщений: 15 472
  • Благодарностей: 593
  • Души прекрасные порывы! Убеждённый Ωптимистъ
    • Сообщения от Rattus
Тогда какой от них вообще смысл?
Какой смысл от тупой тачки без двигателя, если глину/песок можно вёдрами и ногами перетаскать?
Тому, кто жаждет всех запретных тайн Астрофорума в одном месте поможет число 1919.

Ннапыльн%х тpапинкахъ далиокихъ плонеттъ астануцца нашшы погадкиъ! (ЙожЪ, SKL)
Скоро у людей закончится космос. (П.Лемтыбож - "Теоремы Пафнуция")
Я брала города, я стану - еда! (Серебряная Свадьба - "Пищевая цепочка")
Уранизация естественным образом снижает численность человечества (Вика Воробьёва, ВЖР, 30.10.2012)

Оффлайн Olweg

  • *****
  • Сообщений: 16 842
  • Благодарностей: 447
    • Сообщения от Olweg
И вот, когда он скачает себе весь интернет, прохеширует его и займется анализом, что займет на современных мощностях лет 10, тогда и поговорим…
Зачем нужно скачивать интернет? У DeepSeek же поиск есть, вы через него пробовали?

Цитата
Пока что ИИ очень уж тупой. У меня такие надежды на "дипсик" (не путать с "дикпиком" ☺) были, а оказалось фуфло-фуфлом!
Когда начинаешь ему задавать наводящие вопросы и сводишь к очень узкой теме, он садится в лужу. Я уж его наводил-наводил на редконаходимые мануалы, а он, оказывается, даже об их существовании не знает (не то, что имел бы скачанными)
Ум и память - вещи разные.
« Последнее редактирование: 06 Фев 2025 [11:24:48] от Olweg »
Планеты других звёзд. История открытий
http://allplanets.ru/history_Olweg.htm

Оффлайн Eddy_Em

  • *****
  • Сообщений: 1 597
  • Благодарностей: 50
  • САО РАН. Буково forever!
    • Сообщения от Eddy_Em
    • Я на гитхабе
Какой смысл от тупой тачки без двигателя, если глину/песок можно вёдрами и ногами перетаскать?
Ну вообще сравнение совсем мимо!
ИИ - это тупейший алгоритм, который может сформулировать ответ на вопрос, лишь проанализировав заранее большой объем данных, то есть "обучившись".
Ну и как ему "обучаться", если он не имеет возможности скачать весь интернет? ОК, можно его "обучить" отличать кружок от квадратика и т.п. элементарщине, но это максимум ему позволит "рассуждать" на уровне двухлетнего ребенка. А давать вменяемые ответы в стиле пользователей stackoverflow он никак не сможет.
Да и просто исходный код выдать - ему для этого нужно весь гитхаб прошерстить, как-то классифицировать и потом нужные алгоритмы по запросу выдавать. Он же не имеет глубокой нейронной сети, чтобы что-то новое выдать!

Оффлайн BlackMokona

  • *****
  • Сообщений: 21 088
  • Благодарностей: 637
  • Мне нравится этот форум!
    • Сообщения от BlackMokona
ИИ - это тупейший алгоритм, который может сформулировать ответ на вопрос, лишь проанализировав заранее большой объем данных, то есть "обучившись".
Fix
Цитата
Человеческий разум- это тупейший алгоритм, который может сформулировать ответ на вопрос, лишь проанализировав заранее большой объем данных, то есть "обучившись".
Если не верите, идите в роддом и начинайте опрашивать младенцев по поводу квантовой физики, математики или любым другим вопросам  ;D

Оффлайн Rattus

  • Модератор
  • *****
  • Сообщений: 15 472
  • Благодарностей: 593
  • Души прекрасные порывы! Убеждённый Ωптимистъ
    • Сообщения от Rattus
Ну вообще сравнение совсем мимо!
Вы спрашивали о смысле (практическом) - вы получили аналогию как раз на тему практического смысла.
ИИ - это тупейший алгоритм, который может сформулировать ответ на вопрос, лишь проанализировав заранее большой объем данных, то есть "обучившись".
Как и ЕИ, как ВАм выше уже ответили. И? Какое это отношение имеет к практическому применению?
Отвёртка или молоток устроены ещё проще. И? Они лишены смысла?
Тому, кто жаждет всех запретных тайн Астрофорума в одном месте поможет число 1919.

Ннапыльн%х тpапинкахъ далиокихъ плонеттъ астануцца нашшы погадкиъ! (ЙожЪ, SKL)
Скоро у людей закончится космос. (П.Лемтыбож - "Теоремы Пафнуция")
Я брала города, я стану - еда! (Серебряная Свадьба - "Пищевая цепочка")
Уранизация естественным образом снижает численность человечества (Вика Воробьёва, ВЖР, 30.10.2012)

Оффлайн mo

  • *****
  • Сообщений: 17 948
  • Благодарностей: 1094
  • Олег Милантьев - L71 Vedrus Observatory
  • Награды Призер конкурса астрофото
    • Сообщения от mo
Твоя истерика упёртого ретрограда при виде нового логична и понятна. Надеюсь, тебе стало легче, когда ты в столь категоричной манере высказался, что этот новый развивающийся инструмент не подошёл для решения твоей частной задачи.

ИИ - это тупейший алгоритм, который может сформулировать ответ на вопрос, лишь проанализировав заранее большой объем данных, то есть "обучившись".
Ну и как ему "обучаться", если он не имеет возможности скачать весь интернет?

С GPT как с людьми. Чтобы задать вопрос (и получить на него ответ), надо знать половину ответа.

Я уж его наводил-наводил на редконаходимые мануалы, а он, оказывается, даже об их существовании не знает (не то, что имел бы скачанными).
Реши для себя. Тебе шашечки или ехать. Ты или ищешь методы решения и решаешь задачу, или перечисляешь причины и отмазываешься от её решения.
Добавь в контекст вопроса этот мануал и обсуди его предметно.

Описанный тобой случай напомнил мне плохого преподавателя. Который хочет завалить студента, доказав свою крутизну, а не научить его чему-то или вместе решить поставленную задачу.

Да и просто исходный код выдать - ему для этого нужно весь гитхаб прошерстить, как-то классифицировать и потом нужные алгоритмы по запросу выдавать. Он же не имеет глубокой нейронной сети, чтобы что-то новое выдать!
О! Если найдёшь время поискать информацию о количестве слоёв нейросети трансформера, тебя ждёт серия приятных открытий!
モ - mo


Оффлайн Olweg

  • *****
  • Сообщений: 16 842
  • Благодарностей: 447
    • Сообщения от Olweg
Ну и как ему "обучаться", если он не имеет возможности скачать весь интернет? ОК, можно его "обучить" отличать кружок от квадратика и т.п. элементарщине, но это максимум ему позволит "рассуждать" на уровне двухлетнего ребенка. А давать вменяемые ответы в стиле пользователей stackoverflow он никак не сможет.
Вообще-то современные модели и обучаются на всех доступных данных из интернета (и это уже приводит к проблеме - данные заканчиваются).

Цитата
Да и просто исходный код выдать - ему для этого нужно весь гитхаб прошерстить, как-то классифицировать и потом нужные алгоритмы по запросу выдавать. Он же не имеет глубокой нейронной сети, чтобы что-то новое выдать!
Почему не имеет? Вы знаете, как устроен трансформер?

Модель может помнить те данные, на которых обучалась, но эта память не абсолютна (как и у человека), обучение направлено не на точное запоминание, а скорее на классификацию и поиск взаимосвязей между объектами, понятиями, категориями и т.п. Объём же текущей задачи ограничен контекстным окном, если в нём умещаются все необходимые исходные данные, проблем не должно быть, если нет, то увы.
Планеты других звёзд. История открытий
http://allplanets.ru/history_Olweg.htm

Оффлайн BlackMokona

  • *****
  • Сообщений: 21 088
  • Благодарностей: 637
  • Мне нравится этот форум!
    • Сообщения от BlackMokona
Модель может помнить те данные, на которых обучалась, но эта память не абсолютна (как и у человека), обучение направлено не на точное запоминание, а скорее на классификацию и поиск взаимосвязей между объектами, понятиями, категориями и т.п. Объём же текущей задачи ограничен контекстным окном, если в нём умещаются все необходимые исходные данные, проблем не должно быть, если нет, то увы.
Так же у неё недостаточно параметров чтобы произвести корреляции между всеми явлениями, предметами, событиями и тд что были в мире. Поэтому всякие маловажные вещи она упускает. Сделать побольше можно, но тут упираемся в экономическую оправданность. Кто тут готов платить миллион долларов за запрос, чтобы система знала этот редкий маунал? Который всегда можно просто загрузить контекстом для радикально более дешевой нейросети?

Оффлайн MenFrame

  • *****
  • Сообщений: 8 473
  • Благодарностей: 199
  • Мне нравится этот форум!
    • Сообщения от MenFrame
Я уж его наводил-наводил на редконаходимые мануалы, а он, оказывается, даже об их существовании не знает
Просто заточены такие системы под массовый запрос.
Наука есть организованный скептицизм в достоверности экспертного мнения.  Ричард Фейнман
Свобода, есть форма ответственности за необходимую глупость. (не помню кто сказал)

Оффлайн mo

  • *****
  • Сообщений: 17 948
  • Благодарностей: 1094
  • Олег Милантьев - L71 Vedrus Observatory
  • Награды Призер конкурса астрофото
    • Сообщения от mo
Кто тут готов платить миллион долларов за запрос
Кстати, насчёт размера сети и необходимого к ней железа.
Модный сейчас DeepSeek-R1 с 671B параметров https://huggingface.co/deepseek-ai/DeepSeek-R1 запускается в Q4 на относительно небольшом компе, доступным любой средней организации.
Собственно, именно это вызвало недавнюю панику и падение NVidia акций.

Хоть я, как раз наоборот, с выходом этой "домашней" модели вижу перспективы для роста спроса на GPU / NPU именно из-за того, что gpt4 и не думали на своих мощностях разворачивать. А deepseek этот кто-то, да захочет себе поставить. Я вот тоже не удержался и на свою nvidia tesla m40 (24 гиг) поставил mannix/deepseek-coder-v2-lite-instruct с контекстным окном в 64к. Всё больше помогает мне в разработке.
モ - mo

Оффлайн Eddy_Em

  • *****
  • Сообщений: 1 597
  • Благодарностей: 50
  • САО РАН. Буково forever!
    • Сообщения от Eddy_Em
    • Я на гитхабе
Надеюсь, тебе стало легче,
Да. Но еще легче было бы, если б здесь было разрешено материться ☺
А так - фигня получается: компьютеры все круче и круче, но при этом найти людей, которые умели бы правильно ставить задачи и решать их, все сложней и сложней. И если в корне нереально найти себе замену, было бы неплохо ею хотя бы компьютер сделать. А вона как выходит. Вот у нас БТА, Ц-1000 и РАТАН фактически держатся на двух-трех человеках. Как помрут или просто уйдут на покой, кирдык всей обсерватории, т.к. специалистов должного уровня мы даже на 200тыр в месяц не найдем, что уж говорить от реальных деньгах, которые эти люди получают… Тут уж выходит, что не в деньгах вопрос, а в отсутствии специалистов: кругом одни вантузоиды да змееводы безмозглые…

Оффлайн mo

  • *****
  • Сообщений: 17 948
  • Благодарностей: 1094
  • Олег Милантьев - L71 Vedrus Observatory
  • Награды Призер конкурса астрофото
    • Сообщения от mo
Да. Но еще легче было бы, если б здесь было разрешено материться ☺

А мне казалось ты и так справляешься :)

кругом одни вантузоиды да змееводы безмозглые…
モ - mo

Оффлайн BlackMokona

  • *****
  • Сообщений: 21 088
  • Благодарностей: 637
  • Мне нравится этот форум!
    • Сообщения от BlackMokona
Модный сейчас DeepSeek-R1 с 671B параметров https://huggingface.co/deepseek-ai/DeepSeek-R1 запускается в Q4 на относительно небольшом компе, доступным любой средней организации.
Собственно, именно это вызвало недавнюю панику и падение NVidia акций.
671Б требует 671 гигабайта быстрой видео памяти или хотя бы не такой быстрой ОЗУ, что не доступно самому топовому оборудованию пользовательскому.
А что можно лоботомировать сеть до уровня платки за 40 баксов. Так это уже давно все используют.
А упала цена и была паника. Потому как подумали что ДипСик потратил 5.7 миллиона долларов на всю разработку, а они говорили только про последний час вычислений без учёта прочих затрат.

Оффлайн mo

  • *****
  • Сообщений: 17 948
  • Благодарностей: 1094
  • Олег Милантьев - L71 Vedrus Observatory
  • Награды Призер конкурса астрофото
    • Сообщения от mo
671Б требует 671 гигабайта быстрой видео памяти или хотя бы не такой быстрой ОЗУ, что не доступно самому топовому оборудованию пользовательскому.
Поэтому я и написал о доступности любой средней организации.
Нужна машина от 3..5k$. Будет генерация около 5 токенов в секунду. За деньги эту скорость можно увеличить.
Чес-слово, я знаю как минимум трёх гиков, домашняя сетевая инфрастуктура которых занимает примерно столько же килобаксов.
モ - mo

Оффлайн Wert

  • *****
  • Сообщений: 614
  • Благодарностей: 26
  • Мне нравится этот форум!
    • Сообщения от Wert
Еще недавно писали про модель Tulu3-405b, которая вроде бы лучше DeepSeek и GPT. Что о ней можно сказать?

Оффлайн mo

  • *****
  • Сообщений: 17 948
  • Благодарностей: 1094
  • Олег Милантьев - L71 Vedrus Observatory
  • Награды Призер конкурса астрофото
    • Сообщения от mo
671Б требует 671 гигабайта
ollama запускает Q4 модели, то есть требования к памяти для загрузки параметров вдвое меньше. Но ещё контекст и остальная сеть. Так что да, порядка 750 гиг нужно. Что не так сложно набрать при желании.
モ - mo