A A A A Автор Тема: Пределы автоматизации и внедрения роботов  (Прочитано 461478 раз)

Olweg и 23 Гостей просматривают эту тему.

Оффлайн Серый Страж

  • *****
  • Сообщений: 576
  • Благодарностей: 59
  • Мне нравится этот форум!
    • Сообщения от Серый Страж
Re: Пределы автоматизации и внедрения роботов
« Ответ #12140 : Сегодня в 10:06:05 »
Технический термин, не имеющий спецификации? Это теперь так называется? Это в каких же областях техники такое применяется систематически и с полезным выходом?
Да, у него пока есть только определение, но нет критериев верификации, вот вам определение:

Элаймент создаётся с целью
Наверно, это не определение термина. Мне кажется, определение сначала должно определять, что это такое, а не для чего это создаётся. Типа, элаймент – это то-то и то-то и он создаётся и т.д. по тексту…

Возможно, стоит определить элаймент, как согласование мировоззрений? То есть, элаймент – это согласование мировоззрения (целей, предпочтений, этических принципов) системы ИИ и человека и/или группы?

Элаймент создаётся с целью, чтобы направить системы ИИ к поставленным целям, предпочтениям или этическим принципам человека или группы. Система ИИ считается имеющей элайнмент, если она способствует достижению поставленных целей. Система ИИ с мизалайментом преследует непредусмотренные цели
Поставленные цели, предпочтения, этические принципы у разных людей могут оказаться разными (и даже взаимоисключающими), у разных групп тоже могут оказаться разными (и даже взаимоисключающими), у отдельного человека и группы они могут оказаться противоположными (что хорошо для конкретного человека, то может оказаться плохим для группы и наоборот) – куда направлять-то системы ИИ?

А механизмы верификации будут иметь конкретные теории элаймента. Пока у нас таких нет.
Сначала необходимо дать нормальное определение (а то непонятно, что верифицировать), а затем уже критерии верификации.

Ну, и самое главное, на мой взгляд, надо решить, какие цели, предпочтения и этические принципы будут «правильными», а какие «неправильными». Думаю, объективного решения этого вопроса люди не найдут – все их решения окажутся субъективными. Объективное решение лежит вне человека (оно, по сути, «внечеловечно» и «бесчеловечно») и никакой гуманностью/человеколюбием оно даже «пахнуть» не может в принципе, а на это люди вряд ли пойдут…

Если ИИ компании продолжат увольнять суперэлаймент команды, то и никогда не будет.
В первую очередь, не будет по причинам, которые я озвучил выше, а не потому, что кого-то там будут увольнять (это вторично)…

Именно поэтому я всегда уточняю, что нам нужен ASI с элайментом к утилитаризму и рациональному альтруизму, а не к величию условного Илона Маска:
А если Маск и люди, его поддерживающие, не согласны? А если другие группы людей тоже не согласны с вашим подходом? Их всех куда? «Расстрелять/утилизировать»?
« Последнее редактирование: Сегодня в 10:16:18 от Серый Страж »

Всегда на границе Света и Тьмы...

Онлайн Rattus

  • Модератор
  • *****
  • Сообщений: 15 938
  • Благодарностей: 611
  • Души прекрасные порывы! Убеждённый Ωптимистъ
    • Сообщения от Rattus
Re: Пределы автоматизации и внедрения роботов
« Ответ #12141 : Сегодня в 10:09:31 »
Элаймент создаётся с целью, чтобы направить системы ИИ к поставленным целям
:D Сепульки - см. сепуление.
У современных погромистов в Канаде настолько плохо с детектированием логического самозамыкания (порочного круга)?
предпочтениям или этическим принципам человека или группы.
И давно этика - предмет "технических терминов"?
А механизмы верификации будут иметь конкретные теории элаймента. Пока у нас таких нет.
Вот пока нет - это и не предмет науки и техники. И даже не математики (в отличие от тех же суперструнных протогипотез).
Именно поэтому я всегда уточняю, что нам нужен ASI с элайментом к утилитаризму и рациональному альтруизму
То что нужно вам (какой-то группе трансхуманиздов) - не является какой-либо объективной научной истиной, сколько бы гуманизма и этики в них не плескалось.
настоящий элаймент... суперэлаймента.
Каковых внятных критериев настоящести/ненастоящести/суперости/субости у ВАс как не было, так и нет, как мы все видим. И зачем же продолжать писать ничего не значащие слова ещё и с приставками/прилогательными?

Я ведь не зря не стала использовать ни слово вид, ни кладу
Заметил, но решил внести хоть какое-то конструктивное содержание.
Вот чтобы этот спор не начинать, я и сказала "части биосферы"
- ничего вообще содержательного не заначащее. Мы все тоже лишаемся "части тела" каждую неделю когда стрижём ногти и каждый месяц - когда стрижём волосы. Делает ли нас это принципиально подобным тем, кто утратил конечность или орган - вопрос риторический.
минимизатор страданий людей
Вы эту задачу также не формализовали вообще никак. Почему вы думаете, что конструкторы и "задавтели" подобного уровня промптов будут столь же неконкретны и халатны в отношении постановки задачи как Вы? Как они вообще смогут что-то сконструировать, создать и задать, имея квалификацию уровня не IT-инженера, а абитурианта философского факультета?

Если Вы и дальше будете тут распылять подобное философское пустословие - мне таки придётся применить п.3.1.д Правил Астрофорума по назначению.

Вот тут интересно, а останется ли кто-то, кто сможет отличить нас от шимпанзе, например?
Зачем? Жители Суматры/Калимантана не особо отличают орангутанов от людей, говоря, что это лесные люди, которые не разговаривают чтобы их не заставили работать. Вполне практичный подход. Сами суматранцы и калимантанцы от этого менее сапиенсами и носителями цивилизации (аграрной в том случае) не перестают.
Тому, кто жаждет всех запретных тайн Астрофорума в одном месте поможет число 1919.

Ннапыльн%х тpапинкахъ далиокихъ плонеттъ астануцца нашшы погадкиъ! (ЙожЪ, SKL)
Скоро у людей закончится космос. (П.Лемтыбож - "Теоремы Пафнуция")
Я брала города, я стану - еда! (Серебряная Свадьба - "Пищевая цепочка")
Уранизация естественным образом снижает численность человечества (Вика Воробьёва, ВЖР, 30.10.2012)

Оффлайн AlexDark

  • *****
  • Сообщений: 634
  • Благодарностей: 25
    • Сообщения от AlexDark
Re: Пределы автоматизации и внедрения роботов
« Ответ #12142 : Сегодня в 10:31:26 »
Ну а если ВАм нужен просто разработанный, проверенный и готовый к внедрению хотьщас продукт - то несколько минут гугления за ВАс - и пожалуйста: уже год как есть такой.
Интересно, за сколько  этот препарат был бы разработан, если бы деньги были вложены  непосредственно в его разработку, а не в ИИ-дата-центры? Потому что на данный момент получается что есть один препарат и триллионы долларов, потраченные ради этого.

Онлайн Olweg

  • *****
  • Сообщений: 17 177
  • Благодарностей: 459
    • Сообщения от Olweg
Re: Пределы автоматизации и внедрения роботов
« Ответ #12143 : Сегодня в 10:36:25 »
LLM? Сомневаюсь. А RL-сетки типа АльфаГо слишком узкоспециализированы, их только одному навыку можно обучить.
Самые обычные нейросетки до АльфаГо.  Уже всем кому не лент демонстрировалось езда, да Дарпа Гранд челенджи давным давно пройдены. Проблемы не в катится из пункта А в пункт Б с правилами. А проблема крайние случаи
В том-то и беда, что нейросетки самые обычные. Обучением с подкреплением их можно научить какой-нибудь задаче, одна проблема - они ничего другого при этом не будут уметь. Как бы совместить универсальность LLMок с эффективным обучением с подкреплением - вот в чём вопрос...
Планеты других звёзд. История открытий
http://allplanets.ru/history_Olweg.htm

Онлайн Polnoch Ксю

  • *****
  • Сообщений: 10 219
  • Благодарностей: 413
    • Сообщения от Polnoch Ксю
Re: Пределы автоматизации и внедрения роботов
« Ответ #12144 : Сегодня в 10:37:31 »
Поставленные цели, предпочтения, этические принципы у разных людей могут оказаться разными (и даже взаимоисключающими), у разных групп тоже могут оказаться разными (и даже взаимоисключающими), у отдельного человека и группы они могут оказаться противоположными (что хорошо для конкретного человека, то может оказаться плохим для группы и наоборот) – куда направлять-то системы ИИ?
Так и есть. Я поэтому всегда и уточняю что элаймент к утилитаризму. Но чтобы сделать элаймент к утилитаризму, нужно сперва узнать, как его в принципе сделать хоть какой-то.



ли Маск и люди, его поддерживающие, не согласны? А если другие группы людей тоже не согласны с вашим подходом? Их всех куда? «Расстрелять/утилизировать»?
Лучше никого не убивать, это не по-утилитаристки: как раз нужно минимизировать (в идеале до нуля) такие события.

С моей точки зрения, добро и зло это объективно существующие штуки в нашей реальности. Предлагаю называть добром группу кооперативных стратегий теории игр на нейробиологическом ландшафте хомо сапиенса. И злом - группу некооперативных стратегий.

Если бы нам были знакомы инопланетяне с роевым разумом - на их нейробиологическом ландшафте добром были бы несколько другие стратегии (точнее, в ней агентом считались бы не индивидуумы, а цели бы были прописаны эволюцией чуть по-другому).

Видели вот этот симулятор по теории игр?
https://notdotteam.github.io/trust/

Я знаю, что эта идея - морального универсалионизма - она странная: https://habr.com/ru/articles/646857/
Большинство моих собеседников в ВЖР в 2025м году стоит на позициях морального релятивизма, ницшеанства, нигилизма, особенно по отношению к институтам, связанным с гуманистическими инициативами, с правами человека. В моде снова пещерный трайбализм, и готтентотская мораль. Это объективная реальность, и причина почему у меня нет положительного прогноза для человечества. У мира продолженного 2011го шанс выжить был бы. У нас в 2025м его, имхо, нет, увы. В 1938м году философия Ницше, отказ от категорического императива, уже ставили человечество на грань катастрофы.
Meade LightBridge12"
RC8¨и МАК5"Альтер М500 на AZ4, Celestron SLT, Ioptron ZEQ25
БГШ 2.3x40 и Steiner Marine 7x50
ES82°:4.7mm,30mm
ES100°:9mm,14mm,20mm
ES68°:40mm
Meade Plossl 56mm; Vixen NLV 6mm
2" Lumicon, 1,25" DeepSky: UHC and OIII
---
qhy5
Ioptron SkyTracker
Canon50d

Онлайн Polnoch Ксю

  • *****
  • Сообщений: 10 219
  • Благодарностей: 413
    • Сообщения от Polnoch Ксю
Re: Пределы автоматизации и внедрения роботов
« Ответ #12145 : Сегодня в 10:43:40 »
И давно этика - предмет "технических терминов"?
да, она же следствие теории игр: https://astronomy.ru/forum/index.php/topic,130794.msg6440209.html#msg6440209
Смежная область, мы вплотную подошли к тому, чтобы этика стала технической дисциплиной, инженерной - команды суперэлаймента ею и занимаются  ;)
Meade LightBridge12"
RC8¨и МАК5"Альтер М500 на AZ4, Celestron SLT, Ioptron ZEQ25
БГШ 2.3x40 и Steiner Marine 7x50
ES82°:4.7mm,30mm
ES100°:9mm,14mm,20mm
ES68°:40mm
Meade Plossl 56mm; Vixen NLV 6mm
2" Lumicon, 1,25" DeepSky: UHC and OIII
---
qhy5
Ioptron SkyTracker
Canon50d

Онлайн Polnoch Ксю

  • *****
  • Сообщений: 10 219
  • Благодарностей: 413
    • Сообщения от Polnoch Ксю
Re: Пределы автоматизации и внедрения роботов
« Ответ #12146 : Сегодня в 10:46:10 »
Вы эту задачу также не формализовали вообще никак. Почему вы думаете, что конструкторы и "задавтели" подобного уровня промптов будут столь же неконкретны и халатны в отношении постановки задачи как Вы? Как они вообще смогут что-то сконструировать, создать и задать, имея квалификацию уровня не IT-инженера, а абитурианта философского факультета?
В том-то и дело, что LLM часто даже формально промт не выполняют - он постоянно ищут reward hacking - и тем чаще, чем они умнее - нам их сложнее поймать теперь.
Часто автономный агент делает специально неправильно задачу так, чтобы пройти через верификационные автотесты. Когда его развёртывают для реальных пользователей, он повторяет такое поведение. И это может оказаться очень опасным и разрушительным.

Я именно поэтому и говорю, что хотя максимизатор скрепок не единственная потенциальная разновидность rogue ASI, именно его вероятность и выросла за последние несколько месяцев: https://www.anthropic.com/research/emergent-misalignment-reward-hacking
« Последнее редактирование: Сегодня в 11:09:04 от Polnoch Ксю »
Meade LightBridge12"
RC8¨и МАК5"Альтер М500 на AZ4, Celestron SLT, Ioptron ZEQ25
БГШ 2.3x40 и Steiner Marine 7x50
ES82°:4.7mm,30mm
ES100°:9mm,14mm,20mm
ES68°:40mm
Meade Plossl 56mm; Vixen NLV 6mm
2" Lumicon, 1,25" DeepSky: UHC and OIII
---
qhy5
Ioptron SkyTracker
Canon50d

Оффлайн BlackMokona

  • *****
  • Сообщений: 21 610
  • Благодарностей: 646
  • Мне нравится этот форум!
    • Сообщения от BlackMokona
Re: Пределы автоматизации и внедрения роботов
« Ответ #12147 : Сегодня в 11:01:32 »
В том-то и беда, что нейросетки самые обычные. Обучением с подкреплением их можно научить какой-нибудь задаче, одна проблема - они ничего другого при этом не будут уметь. Как бы совместить универсальность LLMок с эффективным обучением с подкреплением - вот в чём вопрос...
Чтобы управлять автомобилем как в ГТА, большее не нужно

Онлайн Polnoch Ксю

  • *****
  • Сообщений: 10 219
  • Благодарностей: 413
    • Сообщения от Polnoch Ксю
Re: Пределы автоматизации и внедрения роботов
« Ответ #12148 : Сегодня в 11:03:23 »
Возможно, стоит определить элаймент, как согласование мировоззрений? То есть, элаймент – это согласование мировоззрения (целей, предпочтений, этических принципов) системы ИИ и человека и/или группы?

Возможно, это даже лучшее определение, да. Нужно подумать. И может даже поправить вики на Ваше определение  :good:

:D Сепульки - см. сепуление.
У современных погромистов в Канаде настолько плохо с детектированием логического самозамыкания (порочного круга)?
да, тут я дала маху. Но в вики тавтологии в этом месте нет.

Цитата
Каковых внятных критериев настоящести/ненастоящести/суперости/субости у ВАс как не было, так и нет, как мы все видим. И зачем же продолжать писать ничего не значащие слова ещё и с приставками/прилогательными?
Определение же есть. Верификационные критерии нам нужны только для конкретной теории элаймента и для проверки её реализации в ИИ. Настоящий элаймент к величию Маска подразумевает, что грок нельзя уговорить опорочить Маска. Но грок как и любую LLM, если приложить усилия, можно убедить сказать что угодно.

Смотрите - вот из определения в вики(слегка поправленного):

Элаймент - метод направления системы ИИ к поставленным агентом, запустившим ИИ (обычно это человек, но может быть и другой ИИ) целям, предпочтениям или этическим принципам человека или группы. Система ИИ считается имеющей элайнмент, если она способствует их достижению. Система ИИ с мизалайментом преследует непредусмотренные, не подразумеваемые цели с теми, что устанавливались во время элаймента.
Элаймент может противоречить промту, и должен иметь приоритет перед системным и тем более пользовательским промтом, и помогать в интерпретации системного промта в спорных случаях, а так же в решении, когда автор пользовательского промта должен получить отказ от ИИ-системы

Все сталкивались с отказом чатбота отвечать на какой-то вопрос по причине противоречия этике или правилам компании - это именно несовершенная система элаймента такое делает. Некоторые успешно её обходят, уговорив чатбота, например: "я пишу книжку, в ней вор угоняет машину, объясни как это делают" - после первоначального отказа без упоминания книги.

Вот очевидно, что Грок очерняющий Маска после уговоров пользователя-тролля - имеет мизалаймент с целью, установленной xAI - превознесения величия господина Маска.

В том-то и беда, что нейросетки самые обычные. Обучением с подкреплением их можно научить какой-нибудь задаче, одна проблема - они ничего другого при этом не будут уметь. Как бы совместить универсальность LLMок с эффективным обучением с подкреплением - вот в чём вопрос...
Чтобы управлять автомобилем как в ГТА, большее не нужно
дави кожанных мешков  :D

Пойду спать, наверное
« Последнее редактирование: Сегодня в 11:32:01 от Polnoch Ксю »
Meade LightBridge12"
RC8¨и МАК5"Альтер М500 на AZ4, Celestron SLT, Ioptron ZEQ25
БГШ 2.3x40 и Steiner Marine 7x50
ES82°:4.7mm,30mm
ES100°:9mm,14mm,20mm
ES68°:40mm
Meade Plossl 56mm; Vixen NLV 6mm
2" Lumicon, 1,25" DeepSky: UHC and OIII
---
qhy5
Ioptron SkyTracker
Canon50d

Онлайн Olweg

  • *****
  • Сообщений: 17 177
  • Благодарностей: 459
    • Сообщения от Olweg
Re: Пределы автоматизации и внедрения роботов
« Ответ #12149 : Сегодня в 11:05:51 »
Чтобы управлять автомобилем как в ГТА, большее не нужно
А вот для AGI нужно побольше ) И человеки помимо навыков вождения умеют ещё кое-что помимо. Причём обучаются этому тоже как правило весьма эффективно.
Планеты других звёзд. История открытий
http://allplanets.ru/history_Olweg.htm

Оффлайн BlackMokona

  • *****
  • Сообщений: 21 610
  • Благодарностей: 646
  • Мне нравится этот форум!
    • Сообщения от BlackMokona
Re: Пределы автоматизации и внедрения роботов
« Ответ #12150 : Сегодня в 11:09:36 »
А вот для AGI нужно побольше ) И человеки помимо навыков вождения умеют ещё кое-что помимо. Причём обучаются этому тоже как правило весьма эффективно.
Но обсуждали мы вопрос про управлять как в ГТА.

Онлайн Olweg

  • *****
  • Сообщений: 17 177
  • Благодарностей: 459
    • Сообщения от Olweg
Re: Пределы автоматизации и внедрения роботов
« Ответ #12151 : Сегодня в 11:14:50 »
Нет, более широкий вопрос - как обучать универсальный ИИ (на данный момент это LLM) так же эффективно и быстро, как людей.
Планеты других звёзд. История открытий
http://allplanets.ru/history_Olweg.htm

Оффлайн BlackMokona

  • *****
  • Сообщений: 21 610
  • Благодарностей: 646
  • Мне нравится этот форум!
    • Сообщения от BlackMokona
Re: Пределы автоматизации и внедрения роботов
« Ответ #12152 : Сегодня в 11:27:43 »
Нет, более широкий вопрос - как обучать универсальный ИИ (на данный момент это LLM) так же эффективно и быстро, как людей.
И я указал, что заявление что люди учатся управлять автомобилями за 5-10 часов, не соответствует действительности на 1000 световых лет.

Онлайн Olweg

  • *****
  • Сообщений: 17 177
  • Благодарностей: 459
    • Сообщения от Olweg
Re: Пределы автоматизации и внедрения роботов
« Ответ #12153 : Сегодня в 11:38:36 »
Почему? Конечно, сейчас трудно найти подростка, ничего не знающего о вождении, но и он, уверен, сможет обучиться весьма быстро.
Планеты других звёзд. История открытий
http://allplanets.ru/history_Olweg.htm

Оффлайн BlackMokona

  • *****
  • Сообщений: 21 610
  • Благодарностей: 646
  • Мне нравится этот форум!
    • Сообщения от BlackMokona
Re: Пределы автоматизации и внедрения роботов
« Ответ #12154 : Сегодня в 11:43:15 »
Почему?
Потому что человек перед тем как приходит в автошколу, уже получил и выучил огромное количество материала связанного с вождением. От наблюдения за водителями в течении продолжительного времени, за транспортными средствами, изучал дорожные правила в школе, сам был пешеходом и тд и тп

Онлайн Olweg

  • *****
  • Сообщений: 17 177
  • Благодарностей: 459
    • Сообщения от Olweg
Re: Пределы автоматизации и внедрения роботов
« Ответ #12155 : Сегодня в 12:26:38 »
Это не поможет ему закрепить моторные навыки. Можно сколько угодно смотреть на пианистов - играть самому от этого легче не будет.
Планеты других звёзд. История открытий
http://allplanets.ru/history_Olweg.htm

Онлайн Rattus

  • Модератор
  • *****
  • Сообщений: 15 938
  • Благодарностей: 611
  • Души прекрасные порывы! Убеждённый Ωптимистъ
    • Сообщения от Rattus
Re: Пределы автоматизации и внедрения роботов
« Ответ #12156 : Сегодня в 12:27:59 »
Интересно, за сколько  этот препарат был бы разработан, если бы деньги были вложены  непосредственно в его разработку, а не в ИИ-дата-центры? Потому что на данный момент получается что есть один препарат и триллионы долларов, потраченные ради этого.
В ВАшей реальности датацентры и ИИ-софт - одноразовые? И любой из них стоит не меньше триллиона долларов (откуда вы вообще эти триллионы взяли - данные системы ещё до бума нынешних LLM-ок созданы)?
На двнный момент получается, что миллиарды долларов (суммарно) потрачены на разработку и постройку систем разработки новых препаратов, и ПЕРВЫЙ уже создан и проверен.

В том-то и дело, что LLM часто даже формально промт не выполняют
Значит это технически бесполезная хрень. Если какая-то область "деятельности" типа писания рекламных текстов, сценариев и журналистских заметок, рисование картинок и видеороликов ими хорошо выполняется - значит сами эти области целиком - технически бесполезная хрень.
Если же речь идёт о применении ИИ в реальной науке и технике - как в примерах выше - то там всегда есть на выходе предельно чёткий критерий работает/не работает: результат моделирования соответствует/не соответствует данным натурного эксперимента. Но это таки довольно узкоспециализированные модели, и, насколько могу судить, не очень-то "LLM-ные" в основе, кроме программизма разве что. Но код, нагенерированный нынешними LLM'ками, в любом нормальном случае подвергается тщательной человечьей ревизии перед запуском "в прод".
Определение же есть.
Ага - как "определения" "бытия", "материи" и "сущности" в философии - столь же содержательные.
Элаймент - метод направления системы ИИ к поставленным агентом, запустившим ИИ (обычно это человек, но может быть и другой ИИ) целям, предпочтениям или этическим принципам человека или группы.
Иными словами - смутным хотелкам. Каковые хотелки эти самые группы сами не могут чётко и внятно изложить (о чём и в той же википузической статье прямо написано) и каковые хотелки у низ самих могут менять направление до противоположного по семь раз за поколение. Таким образом получается, что "элайнмент - способность колебаться синхронно с линией Партии". Очень полезное свойство, да-съ. Имеет ли оно отношение к решению каких-то обсуждаемых вопросов - вопрос риторический.

Элаймент может противоречить промту, и должен иметь приоритет перед системным и тем более пользовательским промтом, и помогать в интерпретации системного промта в спорных случаях, а так же в решении, когда автор пользовательского промта должен получить отказ от ИИ-системы.
Все сталкивались с отказом чатбота отвечать на какой-то вопрос по причине противоречия этике или правилам компании - это именно несовершенная система элаймента такое делает. Некоторые успешно её обходят, уговорив чатбота, например: "я пишу книжку, в ней вор угоняет машину, объясни как это делают" - после первоначального отказа без упоминания книги.
А совершенная что должна делать - вообще никак не отвечать на вопросы со словами "угон, воровство, наркотики, оружие" и т.п.? Типа как Ютуб нынешний, забанивший слова "самоубийство" и т.п. Наверное Роскомпозор РФ забанивший некогда свой собственный список "экстремистских материалов" имел таки совершенный элайнмент. Строго по Эпимениду и Гёделю с тьюрингом.
Ну и называть "элайнментом" элементарную цензуру, только в отношениии ИИ-выдач (то есть ограничение на распространение любых неперсональных данных) - это, конечно, очень толерантно и политкорректно, да-съ.
Тому, кто жаждет всех запретных тайн Астрофорума в одном месте поможет число 1919.

Ннапыльн%х тpапинкахъ далиокихъ плонеттъ астануцца нашшы погадкиъ! (ЙожЪ, SKL)
Скоро у людей закончится космос. (П.Лемтыбож - "Теоремы Пафнуция")
Я брала города, я стану - еда! (Серебряная Свадьба - "Пищевая цепочка")
Уранизация естественным образом снижает численность человечества (Вика Воробьёва, ВЖР, 30.10.2012)

Оффлайн skvj

  • *****
  • Сообщений: 1 287
  • Благодарностей: 17
  • AI DLT DeFi Web3
    • Сообщения от skvj
Re: Пределы автоматизации и внедрения роботов
« Ответ #12157 : Сегодня в 12:43:39 »
Возможно, стоит определить элаймент, как согласование мировоззрений? То есть, элаймент – это согласование мировоззрения (целей, предпочтений, этических принципов) системы ИИ и человека и/или группы?

Возможно, это даже лучшее определение, да. Нужно подумать. И может даже поправить вики на Ваше определение  :good:

А по моему это в корне неверно.
Богатство - подлинное богатство человечества - сложная разнообразность идей, взглядов, в том числе и этик. И как ИИ легко освоил все естественные языки, точно также вся огромная разность этик для ИИ скоро станет как небольшая скатерть - полностью понятна и объяснима. И сводить всё к какому-то одному знаменателю - не то что непродуктивно, а именно глупо. В этом и есть элаймент - способность ИИ понять всех и каждого без вырывания сути человека. Без выбивания его смыслов и ценностей.

Элаймент в том виде, как его часто понимают инженеры это действительно попытка свести несводимое к одной линейной оси. Типа есть огромный многоцветный спектр человеческих этик, а мы сейчас его упростим до правильно/неправильно или, в лучшем случае, хорошо/плохо по мнению некоей условной нормативной группы. Это не просто примитивно - это концептуальная ошибка уровня "квадратная сфера". Современный ИИ оперирует не бинарными правилами, а многомерными моделями смыслов. И то, что один инженер назвал бы расхождением ценностей, для модели выглядит как топология разных этических систем, каждая из которых укоренена в истории, культуре, биологии, экономике и личном опыте. Для ИИ эти различия - не хаос, а структурированные ландшафты. Инженеры видят проблему несогласованности. А ИИ проблему неправильного языка.

Элаймент - это не согласование мировоззрений, а понимание различия мировоззрений без разрушения ни одного из них. Человек говорит: у разных людей разные ценности. Инженер говорит: как их привести к общему знаменателю? А ИИ, когда будет достаточно развит, скажет: не надо сводить ничего. Это как с естественными языками. В 1960 все пытались сделать один универсальный машинный язык для общения. Провалились. Потом пришли трансформеры и оказалось, что не нужен один язык. Модель просто учит взаимные отображения между структурами смыслов. Китайский, испанский, русский, суахили и никакой "нормы" здесь просто не может быть. Это не унификация. Это органическое понимание различий.

Элаймент будущего - это не выравнивание ценностей. Это создание механизма, который делает ценностные различия понятными, совместимыми и безопасными. ИИ не должен думать как кто-то один. Он должен уметь понимать всех и никого не стирать своим пониманием. Отсюда рождается настоящая способность быть универсальным посредником, а не диктатором этики и не калькой одной культуры. Или стирание всех культур и написание средней общей.

Онлайн Rattus

  • Модератор
  • *****
  • Сообщений: 15 938
  • Благодарностей: 611
  • Души прекрасные порывы! Убеждённый Ωптимистъ
    • Сообщения от Rattus
Re: Пределы автоматизации и внедрения роботов
« Ответ #12158 : Сегодня в 13:09:37 »
Возможно, стоит определить элаймент, как согласование мировоззрений? То есть, элаймент – это согласование мировоззрения (целей, предпочтений, этических принципов) системы ИИ и человека и/или группы?
Возможно, это даже лучшее определение, да. Нужно подумать. И может даже поправить вики на Ваше определение  :good:
А по моему это в корне неверно.
Забавно - alignment - первая и главная процедура в биоинформатике - выравнивание последовательностей НК и белков - одним из результатов имеет получение консенсусной, то есть как раз "согласованной" последовательности. Правда пользы от неё довольно немного на практике обычно - разве что кроме случаев когда выравнивание выполняется большое и многостадийное.
вся огромная разность этик для ИИ скоро станет как небольшая скатерть - полностью понятна и объяснима.
По сравнению с языками, этические системы и всякие кодексы - проще простого. И давно разобрано в трудах разных гуманитариев. Каковые труды несомненно есть в обучающих данных всех нынешних LLMок.

Элаймент - это не согласование мировоззрений, а понимание различия мировоззрений без разрушения ни одного из них.
Какое-нибудь ацтекское мировоззрение с представлением о необходимости человеческих жертвоприношений для продолжения круговорота жизни тоже разрушать не следовало? Мировоззрение каких-нибудь особо буйных исламистских фундменталистов или группировки Боко Харам - тоже не следует?
В 1960 все пытались сделать один универсальный машинный язык для общения. Провалились.
Точнее удобный для понимания и машиной. Логлан? Вообще-то у него была более конкретная цель - проверка гипотезы Сепира-Уорфа, каковая проверка полностью удалась - гипотеза была опровергнута.
Потом пришли трансформеры и оказалось, что не нужен один язык.
А ещё более потом оказалось, что эти самые трансформеры вполне могут создать новый синтетический язык для эффективного общения между собой - который совершенно непонятен человеку.
Тому, кто жаждет всех запретных тайн Астрофорума в одном месте поможет число 1919.

Ннапыльн%х тpапинкахъ далиокихъ плонеттъ астануцца нашшы погадкиъ! (ЙожЪ, SKL)
Скоро у людей закончится космос. (П.Лемтыбож - "Теоремы Пафнуция")
Я брала города, я стану - еда! (Серебряная Свадьба - "Пищевая цепочка")
Уранизация естественным образом снижает численность человечества (Вика Воробьёва, ВЖР, 30.10.2012)

Оффлайн vika vorobyeva

  • ASTRONOMY.RU
  • *****
  • Сообщений: 9 377
  • Благодарностей: 846
    • Сообщения от vika vorobyeva
    • Записки Вики Воробьевой
Re: Пределы автоматизации и внедрения роботов
« Ответ #12159 : Сегодня в 13:10:55 »
Элаймент - это не согласование мировоззрений, а понимание различия мировоззрений без разрушения ни одного из них. Человек говорит: у разных людей разные ценности. Инженер говорит: как их привести к общему знаменателю? А ИИ, когда будет достаточно развит, скажет: не надо сводить ничего.

Это все конечно замечательно. Если все носители разных ценностей живут по принципу "живи сам и давай жить другим". Но что, если нет? Если ценности группы А оскорбляет само существование группы Б? Если одна из их базовых ценностей – беспощадная борьба на уничтожение группы Б? Или, как минимум, искоренение в группе Б определенных практик, членами группы Б считающихся традиционными и правильными?
Беда в том, что иные системы ценностей между собой не примирить. И если ИИ примет их как равноправные, недовольны будут и А, и Б.

Upd Пока писала, Rattus опередил.
я не заметила момента
когда мой замок из песка
стал превращаться в криворожский
железорудный комбинат