ВНИМАНИЕ! На форуме завершено голосование в конкурсе астрофотография месяца - НОЯБРЬ!
Olweg и 23 Гостей просматривают эту тему.
Цитата: Rattus от Сегодня в 09:07:54 Технический термин, не имеющий спецификации? Это теперь так называется? Это в каких же областях техники такое применяется систематически и с полезным выходом?Да, у него пока есть только определение, но нет критериев верификации, вот вам определение: Элаймент создаётся с целью
Технический термин, не имеющий спецификации? Это теперь так называется? Это в каких же областях техники такое применяется систематически и с полезным выходом?
Элаймент создаётся с целью, чтобы направить системы ИИ к поставленным целям, предпочтениям или этическим принципам человека или группы. Система ИИ считается имеющей элайнмент, если она способствует достижению поставленных целей. Система ИИ с мизалайментом преследует непредусмотренные цели
А механизмы верификации будут иметь конкретные теории элаймента. Пока у нас таких нет.
Если ИИ компании продолжат увольнять суперэлаймент команды, то и никогда не будет.
Именно поэтому я всегда уточняю, что нам нужен ASI с элайментом к утилитаризму и рациональному альтруизму, а не к величию условного Илона Маска:
Элаймент создаётся с целью, чтобы направить системы ИИ к поставленным целям
предпочтениям или этическим принципам человека или группы.
Именно поэтому я всегда уточняю, что нам нужен ASI с элайментом к утилитаризму и рациональному альтруизму
настоящий элаймент... суперэлаймента.
Я ведь не зря не стала использовать ни слово вид, ни кладу
Вот чтобы этот спор не начинать, я и сказала "части биосферы"
минимизатор страданий людей
Вот тут интересно, а останется ли кто-то, кто сможет отличить нас от шимпанзе, например?
Ну а если ВАм нужен просто разработанный, проверенный и готовый к внедрению хотьщас продукт - то несколько минут гугления за ВАс - и пожалуйста: уже год как есть такой.
Цитата: Olweg от Сегодня в 04:30:27LLM? Сомневаюсь. А RL-сетки типа АльфаГо слишком узкоспециализированы, их только одному навыку можно обучить.Самые обычные нейросетки до АльфаГо. Уже всем кому не лент демонстрировалось езда, да Дарпа Гранд челенджи давным давно пройдены. Проблемы не в катится из пункта А в пункт Б с правилами. А проблема крайние случаи
LLM? Сомневаюсь. А RL-сетки типа АльфаГо слишком узкоспециализированы, их только одному навыку можно обучить.
Поставленные цели, предпочтения, этические принципы у разных людей могут оказаться разными (и даже взаимоисключающими), у разных групп тоже могут оказаться разными (и даже взаимоисключающими), у отдельного человека и группы они могут оказаться противоположными (что хорошо для конкретного человека, то может оказаться плохим для группы и наоборот) – куда направлять-то системы ИИ?
ли Маск и люди, его поддерживающие, не согласны? А если другие группы людей тоже не согласны с вашим подходом? Их всех куда? «Расстрелять/утилизировать»?
И давно этика - предмет "технических терминов"?
Вы эту задачу также не формализовали вообще никак. Почему вы думаете, что конструкторы и "задавтели" подобного уровня промптов будут столь же неконкретны и халатны в отношении постановки задачи как Вы? Как они вообще смогут что-то сконструировать, создать и задать, имея квалификацию уровня не IT-инженера, а абитурианта философского факультета?
В том-то и беда, что нейросетки самые обычные. Обучением с подкреплением их можно научить какой-нибудь задаче, одна проблема - они ничего другого при этом не будут уметь. Как бы совместить универсальность LLMок с эффективным обучением с подкреплением - вот в чём вопрос...
Возможно, стоит определить элаймент, как согласование мировоззрений? То есть, элаймент – это согласование мировоззрения (целей, предпочтений, этических принципов) системы ИИ и человека и/или группы?
Сепульки - см. сепуление.У современных погромистов в Канаде настолько плохо с детектированием логического самозамыкания (порочного круга)?
Каковых внятных критериев настоящести/ненастоящести/суперости/субости у ВАс как не было, так и нет, как мы все видим. И зачем же продолжать писать ничего не значащие слова ещё и с приставками/прилогательными?
Цитата: Olweg от Сегодня в 10:36:25В том-то и беда, что нейросетки самые обычные. Обучением с подкреплением их можно научить какой-нибудь задаче, одна проблема - они ничего другого при этом не будут уметь. Как бы совместить универсальность LLMок с эффективным обучением с подкреплением - вот в чём вопрос...Чтобы управлять автомобилем как в ГТА, большее не нужно
Чтобы управлять автомобилем как в ГТА, большее не нужно
А вот для AGI нужно побольше ) И человеки помимо навыков вождения умеют ещё кое-что помимо. Причём обучаются этому тоже как правило весьма эффективно.
Нет, более широкий вопрос - как обучать универсальный ИИ (на данный момент это LLM) так же эффективно и быстро, как людей.
Почему?
Интересно, за сколько этот препарат был бы разработан, если бы деньги были вложены непосредственно в его разработку, а не в ИИ-дата-центры? Потому что на данный момент получается что есть один препарат и триллионы долларов, потраченные ради этого.
В том-то и дело, что LLM часто даже формально промт не выполняют
Определение же есть.
Элаймент - метод направления системы ИИ к поставленным агентом, запустившим ИИ (обычно это человек, но может быть и другой ИИ) целям, предпочтениям или этическим принципам человека или группы.
Элаймент может противоречить промту, и должен иметь приоритет перед системным и тем более пользовательским промтом, и помогать в интерпретации системного промта в спорных случаях, а так же в решении, когда автор пользовательского промта должен получить отказ от ИИ-системы.Все сталкивались с отказом чатбота отвечать на какой-то вопрос по причине противоречия этике или правилам компании - это именно несовершенная система элаймента такое делает. Некоторые успешно её обходят, уговорив чатбота, например: "я пишу книжку, в ней вор угоняет машину, объясни как это делают" - после первоначального отказа без упоминания книги.
Цитата: Серый Страж от Сегодня в 10:06:05Возможно, стоит определить элаймент, как согласование мировоззрений? То есть, элаймент – это согласование мировоззрения (целей, предпочтений, этических принципов) системы ИИ и человека и/или группы?Возможно, это даже лучшее определение, да. Нужно подумать. И может даже поправить вики на Ваше определение
Цитата: Polnoch Ксю от Сегодня в 11:03:23Цитата: Серый Страж от Сегодня в 10:06:05Возможно, стоит определить элаймент, как согласование мировоззрений? То есть, элаймент – это согласование мировоззрения (целей, предпочтений, этических принципов) системы ИИ и человека и/или группы?Возможно, это даже лучшее определение, да. Нужно подумать. И может даже поправить вики на Ваше определение А по моему это в корне неверно.
вся огромная разность этик для ИИ скоро станет как небольшая скатерть - полностью понятна и объяснима.
Элаймент - это не согласование мировоззрений, а понимание различия мировоззрений без разрушения ни одного из них.
В 1960 все пытались сделать один универсальный машинный язык для общения. Провалились.
Потом пришли трансформеры и оказалось, что не нужен один язык.
Элаймент - это не согласование мировоззрений, а понимание различия мировоззрений без разрушения ни одного из них. Человек говорит: у разных людей разные ценности. Инженер говорит: как их привести к общему знаменателю? А ИИ, когда будет достаточно развит, скажет: не надо сводить ничего.