A A A A Автор Тема: Долгосрочные перспективы научно-технического прогресса  (Прочитано 153452 раз)

0 Пользователей и 1 Гость просматривают эту тему.

Оффлайн AlexAV

  • Модератор
  • *****
  • Сообщений: 10 473
  • Благодарностей: 577
    • Все сообщения темы
1. Что Вы думаете о ненаблюдаемом у Вас Г-эффекте? Если бы дело было не в глупости хомо сапиенсов, которая временно компенсируется НТР с помощью увеличения числа исследователей, то мы не наблюдали бы увеличение числа исследователей в одной коллоборации. Или, например, если допустить, что у экспериментаторов больше работы, то не было бы увеличения числа теоретиков в одной коллаборации.

Давайте внимательнее посмотрим на те области, которые принесли нам знания о принципиально новых эффектах c 1981 года (40 лет - уже срок весьма приличный и вполне позволяет делать) (в области физики и химии). И тут сразу бросается в глаза следующее обстоятельство. Почти все подобные достижения концентрируются всего в 4-х областях.

1) Область физики очень высоких энергий. В основном подтверждение предсказаний стандартной модели (из приведенных списков 2 из 11 за период 1981 - 2000 гг и 1 из 4 за период 2001 - 2020, второй список я аккуратно пока не перепроверял, это надо по обзорам ещё посмотреть, но на первый взгляд выглядит адекватно, по крайней мере ничего совсем очевидного не пропущено).
2) Астрофизика (2/11 за период 1981 - 2000 гг и 1/4 за 2001 - 2020 гг.).
3) Нетривиальные квантовые явления (4/11 за 1981 - 2000 гг, 1/4 за 2001 - 2020 гг.).
4) Открытия в сфере описания очень слабо взаимодействующих частиц (в данном случае пока к таким относится только нейтрино) (2/11 за 1981 - 2000 и 0/4 за 2001 - 2020 гг.)

Не относятся к 4-м этим областям только два новых явления открытые за последние 40 лет. Квазикристаллы и графен, которые можно отнести к проявлениям более-менее классической статистической физики. Тут, кстати, интересно что эксперимент Шехтмана (открытие квазикристаллов) и работа А. Гейма и К. Новоселова (графен) в техническом плане весьма просты (что конечно же не умаляет их значение) и выполнялись малыми научными коллективами. В этом плане они больше похожи на аналогичные по значению работы 19-го и первой половины 20-го века. Это, по сути, доедание остатков инновационного потенциала классической физики. Но из редкости таких достижений в последние десятилетия очевидно, что таких остатков осталось очень мало (ещё раз подчеркну, что в техническом плане эти работы достаточно просты, причина успеха исследователей тут состоит главным образом в том, что они взялись исследовать то, что до них никто сколько-нибудь тщательно и не исследовал, списывать редкость подобных работ на сложность просто абсурдно, тут явно причина только в исчерпании областей, где вообще никто толком не работал).

Рост размера научных коллективов в 3-х перечисленных областях из 4-х (область физики очень высоких энергий, астрофизика, сфера описания очень слабо взаимодействующих частиц) связан не столько собственно со сложностью и слабостью разума исследователей, а с банальным экономическим фактором. Экспериментальные установки в этих областях стали безумно дорогими и недоступными из-за стоимости для отдельных научных коллективов. Сформулировать конкретные пути поиска бозона Хиггса - невесть какая сложная задача. Но вот денег на оборудование для такого поиска ни у одного отдельно взятого научного коллектива никогда не будет и близко, тут всей планетой приходится сбрасываться, чтобы хотя бы одну экспериментальную установку построить. Тут проблема не в том, что наш разум слаб, а в том, что деньги на подобные исследования кончились.

Попросту в этих областях приходится вести исследования в областях реальности столь удаленных от типичных условий на Земле, что туда очень сложно и дорого попасть. Открытия в этих областях, кстати, прикладных технология не порождают почти никогда (именно по той причине, что относятся к области реальности не слишком пересекающимся с условиям Земли или Солнечной системы, негде эти знания применять).

В области нетривиальных квантовых явлений действительно наблюдается проблема сложности. Т.е. явления могут наблюдаться в более-менее обычных условиях, но их предсказание оказывается часто маловыполнимой задачей, а описание постфактум очень сложной. Но описание таких явлений является сложной задачей не только для нас, а вообще для любой классической машины вне зависимости от принципов её работы. Т.е. тут проблема сложности есть, но она связана не с какими-то мелкими дефектами нашего разума и не в его количественной нехватки, а в том, что его базовая конструкция в принципе не позволяет эффективно моделировать такие явления в общем случае. Это проблема сложности, но сложности фундаментальной, лежащей в самой природе явления, тут никакие нейролинки, улучшения мозга и т.д. заведомо помочь не могут, так как не способный изменить классическую природу работы разума в своей первооснове.

Биология, которая пока не затрагивалась, в общем тоже может быть отнесена к нетривиальным квантовым явлениям и всё сказанное применимо и там. Т.е. пока идёт речь о явлениях в клетке или организме, которые можно описать в понятиях классической физики - наши способы познания оказываются вполне эффективны (и именно на этом уровне сосредоточены почти все достижения биологии и биотехнологии за последние десятилетия), но оставаясь только на этом уровне полностью понять природу жизни невозможно. И тут мы неизбежно дойдём до некоторого предела познания за который проникнуть, оставаясь в рамках понятий классической физики, будет нельзя. А вот как только мы опускаемся на уровень работы молекулярных машин, а именно на этом уровне лежит сама природа жизни, то мы мгновенно сталкиваемся с той же самой нередуцируемой квантовой сложностью, которая принципиально не поддаётся не только нашему разуму, но вообще любой классической вычислительной машине вне зависимости от её природы.

Современная биотехнология имеет методы, позволяющие нарушить работу той или иной молекулярной машины (большинство лекарств - ингибиторы, нарушающие работу какой-то молекулярной машины в клетке человека или бактерии) и методы перенести молекулярную машину из одного организма в другой (генная инженерия). А вот сколько-нибудь эффективно создать молекулярную машину, которая не существует в биосфере сейчас - не может (особенно если речь идёт о функции не имеющей прямого аналога в современной биосфере). А как только мы касаемся этой задачи - вылезает та самая нередуцируемая квантовая сложность. И это фундаментальный барьер в развитии биотехнологии, который не факт, что вообще когда-либо будет преодолен. Кстати, это и Вашей любимой проблемы таблетки от старости касается. Очень не факт, что её вообще получится создать имея только инструмент ломать существующие в организме молекулярные машины (что сейчас научились делать весьма неплохо), а не создавать новые с принципиально новыми функциями. К другим мечтам о возможностях биотехнологии это тоже во многом относится.

В целом в науке видно две группы проблем, мешающих дальше расширять поле исследования. Экономический фактор из-за необходимости лезть в области реальности столь удаленные от условий на Земле, что туда попросту очень дорого попасть (но это проблема не нехватки ума, а нехватки денег). И проблема квантовой сложности, которая опять же связана не со слабостью нашего разума, а с фундаментальными свойствами нашего мира (этот фактор является и фундаментальным ограничением в развитии биологии и биотехнологии). А вот проблем гарантированно P-сложных, где мы не достигли бы заметных успехов или строго не показали бы, что задача вообще решения не имеет, я даже назвать затрудняюсь (разве что проблема термоядерного синтеза, но там главный ограничитель тормозящий развитие не теория, а слишком высокая стоимость экспериментальной установки, т.е. опять для исследования в этой области не столько мозгов не хватает, сколько денег).

Из этого я и заключаю, что главная причина торможения НТР - исчерпание явлений доступных для познания, а не слабость нашего разума. Если бы была масса гарантированно P-сложных проблем, где мы бы тонули бы в сложности, то я бы с Вами согласился, что дело в человеке. Но мы в таких проблемах не тонем. Тонем мы в основном только в QMA-сложных проблемах, а эта сложность с несовершенством человека не связана, скорее с фундаментальным устройством мира.

2. Для вас то, что моя теория не имеет Г-эффекта, а как раз прекрасно объясняет увеличение числа исследователей и всплеск теорий заговора (мы всё меньше и меньше понимаем что происходит с наукой... Имея всё больше возможностей общаться), вообще не аргумент?

То что большее количество исследователей даёт меньшее количество результатов может в равной мере объясняться и ростом сложности и исчерпанием поля познания (если элементов реальности, где осталось не открытое знание, сохранилось мало, то вероятность на них наткнуться будет тоже мала). Из одного этого факта эти две ситуации различить нельзя.

(так как часть возражений достаточно глубокие и требуют обдумывания - отвечать буду постепенно)
« Последнее редактирование: 08 Янв 2022 [16:25:33] от AlexAV »

Оффлайн AlexAV

  • Модератор
  • *****
  • Сообщений: 10 473
  • Благодарностей: 577
    • Все сообщения темы
И если гипотеза правая,  тогда мне придется съесть свою шляпу (благо шляп давно не ношу), за то что я сказал, мол, черная материя/энергия никакой практической роли для будущего прогресса не играет.
Но есть вопрос. Если подобные дыры-объекты столь часто/плотно встречаются, то неужели они насолько уж невидимы? В смысле не напрямую, но опосредованно, через всякие эффекты взаимодействия с обычной материей! Не верится как-то...

ЧД планетарной массы можно найти только через события микролинзирования. Сказать, что данные такого характера у нас столь детальны, что можно гарантировать, что в ближайших окрестностях Солнца таких объектов нет - мы сегодня не можем. ЧД массой с типичный астероид существующими сегодня методами найти вообще практически невозможна, т.е. эта область сейчас совсем не покрыта данными наблюдений.

При плотности межзвездного газа типичной для околосолнечного пространства свечение из-за взаимодействия черной дырой с этим газом будет таким слабым, что его зарегистрировать крайне проблематично.

Оффлайн AlexAV

  • Модератор
  • *****
  • Сообщений: 10 473
  • Благодарностей: 577
    • Все сообщения темы
Кстати, свежий обзор по проблеме реликтовых черных дыр и их роли в темной материи: https://arxiv.org/abs/2006.02838v3

1)и мне кажется дикой

Ну почему же. Область масс ЧД меньше массы Луны сейчас вообще не покрыта данными наблюдениями. Каких-то принципиальных запретов на такие сверхлегкие первичные ЧД тоже нет. Как гипотеза предположение о связи темной материи с первичными черными дырами на современном уровне знаний имеет право на существование.

Не факт, что она имеет отношение к реальности, но сколько-нибудь обоснованно её полностью отбросить на сегодняшнем уровне знаний тоже нельзя.

Оффлайн AlexAV

  • Модератор
  • *****
  • Сообщений: 10 473
  • Благодарностей: 577
    • Все сообщения темы
Да, возможно это очень грубо, но не суть. ЧД с астероид это ну 10 миллиардов тонн. Значит испарится где-то за 10 миллиардов лет... Да. Эта "модель", кстати, не учитывает ускорение испарения по мере снижения массы ЧД. То есть ее можно использовать как грубую границу. И тем более ясно, что подобные ЧД "с астероид" должны были бы уже испариться!

Между 10 млрд. тонн и массой типичной планеты довольно широкий диапазон. Там есть область, масса достаточно велика чтобы всё это не испарилось и достаточно мала, чтобы это было очень сложно обнаружить. Скажем что-то масштаба нескольких процентов от массы Луны.

Цитата
Кстати, а может быть так, что пресловутая 9-я планета которую ищут и никак не могут найти (но по гравитационному эффекту вроде должна быть) - такая черная дыра?

Да, собственно говоря, почему и нет. Наблюдаемым данным это не противоречит (если существование этого объекта планетной массы дальнейшие наблюдения действительно подтвердят).

Оффлайн AlexAV

  • Модератор
  • *****
  • Сообщений: 10 473
  • Благодарностей: 577
    • Все сообщения темы
возможно можно добавить(список взят с https://habr.com/ физические итоги года)
Быстрые радиовсплески от магнетаров 2020
форма Галактических пузырей eROSITA
Открытие абелевских энионов 2020?
Прямозонный кремний 2020
сверхпроводимость двухслойного графена 2018
подтверждение существования пентакварка 2015
Управление квантовым состоянием ядра 2021

Быстрые радиовсплески - явление получило объяснение как процессы протекающие на магнетарах, соответственно полностью объяснимое в рамках стандартной магнитной гидродинамики. Явление не требует внесения изменений в физическую теорию постфактум и не имеет значения для подтверждения фундаментальной теории, соответственно не проходит по критерию явления не описываемого теорией, вычеркиваем.

форма Галактических пузырей eROSITA  - нет явления не вписывающегося в физическую теорию, вычеркиваем.

Открытие абелевских энионов - а вот это действительно существенное упущение в исходном списке, открыт целый класс новых квазичастиц в твердых телах, точно оставляем.

Прямозонный кремний  - метастабильная форма сплава кремния и германия, поиск материала велся по результатам квантового ab initio расчёта и его блестяще подтвердил. Нет эффекта не предсказываемого теорией (точнее, наоборот, показано что теория прекрасно работает и даёт возможность искать что-то полезное), вычеркиваем.

Сверхпроводимость двухслойного графена - ещё один нетрадиционный сверхпроводник, уже традиционно поправки к теории для его описания внесли задним числом. Вещь не особо интересная, но критерию явления не описываемого теорий на момент обнаружения полностью удовлетворяет, соответственно нужно внести.

Подтверждение существования пентакварка - явление уже очень давно предсказанное теоретически в рамках КХД, полностью вписывается в существующую теорию в которой и так никто не сомневался, соответственно, нет явления не описываемого теорией, вычеркиваем.

Управление квантовым состоянием ядра - тоже самое, что и в аналогичных экспериментах с атомами, только я ядерными уровнями. Эксперимент довольно сложный, но в концептуальном плане малоинтересный и полностью вписывающийся в стандартную квантовую теорию, вычеркиваем.

Итого, нужно добавить ещё два пункта (самое существенное упущение - конечно  энионы, это действительно важный результат). В результате полный список получается:
1) Получение и изучение свойств графена (пункт засчитываем с некоторой долей условности, но в связи с наличием споров об устойчивости двумерных кристаллов в трехмерном пространстве до подтверждения существования графена, учитываем)
2) Экспериментальное подтверждение существования бозона Хиггса (с теми же оговорками, что и открытие W и Z бозонов)
3) Наблюдение гравитационных волн (спорный пункт в плане соответствия критериям, заслуживает помещения в список не столько за открытие гравитационных волн (в их существовании и так никто не сомневался), сколько за создание принципиально новой области наблюдательной астрономии)
4) Открытие темпоральных кристаллов.
5) Экспериментальное подтверждение существования нового класса квазичастиц в твердых телах - энионов.
6) Открытие нового неклассического сверхпроводника - двухслойного графена.
« Последнее редактирование: 08 Янв 2022 [21:07:43] от AlexAV »

Оффлайн AlexAV

  • Модератор
  • *****
  • Сообщений: 10 473
  • Благодарностей: 577
    • Все сообщения темы
Аэродинамика - наука в которой целью исследований является изучение закономерностей движения воздушных потоков и их взаимодействия с препятствиями и движущимися телами.

В аэродинамике мы почти всегда используем не молекулярную динамику с максимально точным моделированием движения каждой молекулы (такое описание иногда используется только в экзотических случаях, вроде течений в наноканалах), а работаем в рамках эффективной теории, которая на много проще. Т.е. уравнений Навье-Стокса, решение которых хотя и тоже является исключительно сложной задачей, но удалось создать вполне удовлетворительные численные методы, которые достаточны для описания подавляющего большинства гидродинамических явлений.

Также поступают в большинстве случаев, когда фундаментальная теория слишком  сложна для практического применения - создают эффективную теорию явления (как приближение фундаментальной или эмпирически), которая хотя и не будет фундаментальной, но будет давать описание интересующих нас явлений с достаточной для практического применения точностью. Проблема с нетривиальными квантовыми системами в том, что там часто у таких эффективных теорий явлений оказывается слишком узкая область применимости. Т.е. как со сверхпроводниками получается. Вроде теория есть, но регулярно находят сверхпроводники с неклассической сверхпроводимостью для которых нужно теорию специально переделывать. Причём как - становится понятно только после открытия нового типа сверхпроводника (а угадать как модифицировать теорию без этой подсказки очень сложно).

Есть тут приближенные теории (модели) и с очень широкой областью применимости, та же DFT, создание которой стало буквально прорывом в численном описании твердого тела и, в меньшей степени, в квантовой химии при описании молекулярных систем. Но опять же та же проблема. В одном месте может хорошо работать (тоже описание свойств металлов), а в другом очень плохо. Причём для не совсем тривиальных систем, которые не принадлежат к тем классам, для которых работоспособность метода проверялась путям сверки с экспериментальными данными, часто сложно предсказать будет ли всё это работать хорошо или появятся артефакты. В результате в области нетривиальных квантовых систем и появляются регулярно неожиданные открытия под которые теорию приходится дорабатывать задним числом.

Скорее всего такая ситуация - следствие различий классов сложности самой квантовой задачи и любого пригодного к практическому применению метода. Попытка решать QMA-задачу P-сложным алгоритмом всегда ведет к потере какой-то существенной информации о физике системы, и, соответственно, такой метод будет всегда удовлетворительно работать только на узком группе задач, где потеря этой информации несущественна.   

Оффлайн AlexAV

  • Модератор
  • *****
  • Сообщений: 10 473
  • Благодарностей: 577
    • Все сообщения темы
Вы возьметесь утверждать, что таких практически полезных, хоть и не фундаментальных, теорий, больше не будет?

Чтобы появилась теория - нужно явление, которое оно должно описывать. Нет явления - и теория не нужна. Собственно поэтому я и уделяю столько внимания открытию новых явлений не описываемых существующей на момент их открытия теорией. Если таких явлений не будет - то и никакого совершенствования теории тоже не будет (ни фундаментальной, ни эффективных). Попросту будет незачем.

А динамика открытий таких явлений носит явно затухающий характер (это на самом деле один из главных моих аргументов в пользу того, что мы находимся на замедляющейся части ветки глобальной S-кривой НТР).

Оффлайн AlexAV

  • Модератор
  • *****
  • Сообщений: 10 473
  • Благодарностей: 577
    • Все сообщения темы
Ну, не обязательно. Радиоволны теория как побочный продукт вычислила. До этого и не знали про них.

Было такое. Токи смещения и, как следствие, радиоволны были предсказаны Максвеллов вообще без экспериментальных данных. А подтвердилось это всё на много позже. Аналогично было с позитроном (Дирак также предсказал его на кончике пера до открытия), W и Z - бозонами. Но такой сценарий всё же является исключением. Чаще сначала находят новое явление, которое теорией никак не объясняется, а лишь затем пишут под него теорию.

Оффлайн AlexAV

  • Модератор
  • *****
  • Сообщений: 10 473
  • Благодарностей: 577
    • Все сообщения темы
3. Вас много раз спрашивали, "а что, если на наш век открытий хватит"? - это опять же та самая ситуация синтетической теории, когда мы имеем может быть и замедление прогресса, но и серьёзную его недооценку (более значительную, чем замедление). Вы обычно говорите, что мы уже на пологом склоне. И из этого у Вас выходит Ваш неомальтузианский коллапс. Вы понимаете, что если даже в физике вот вообще-вообще не будет фундаментальных открытий, это вот вообще не значит, что не то, что картинка Семёнова невозможна с его кораблями поколений, нет - даже мои постлюди и постчеловечество всё ещё возможны, только за счёт воспроизведения уже известных эффектов природы и прогресса в более прикладной науке

Тут можно привести несколько аргументов, что точка перегиба уже пройдена.

Резкое падение наблюдается не только в области открытия новых явлений Природы, но в темпах появления новых больших кустов технологии. Если сравнить 1980 год с 2020 годом, то основными массовыми технологиями, отличающими эти периоды, является группа технологий строящихся вокруг электронной вычислительной техники, цифровой связи, генной инженерии и методов биоинформатики. В остальном техника 1980 года и 2020 не отличается совсем уж принципиально, лишь относительно небольшими усовершенствованиями не меняющими её работу качественно. Так вот, все перечисленное основано на достижениях до 1980 года (микропроцессор появился в 1968 году, линии цифровой связи в 1969 году, оптоволоконная связь - 1966, генная инженерия - 1973, геномика - 1977, протеомика - 1975). Из технических достижений после 1980 года большие кусты технологий не имеющих прямого аналога в 1980 г и существенно влияющих на нашу реальность пожалуй дали только синий светодиод (что породило светодиодное освещение в современном виде) и литий-ионный аккумулятор. С сильной натяжкой ещё 3D-печать (несмотря на хайп вокруг этой темы область применения этой технологии так и осталась довольно узкой и нишевой). В общем как-то не густо. И тут никак нельзя списать, что времени прошло мало. 40 лет - вообще-то довольно много.

Выше был качественный аргумент и в какой-то мере даже субъективный. Однако правомочно задать вопрос можно ли ввести объективную метрику технического прогресса цивилизации не опираясь на прямое перечисление и анализ технических новшеств, так чтобы вообще убрать любой субъективизм. И тут предложено три способа как это сделать.

1) Критерий, который в основном встречается у антропологов и археологов - демографический. Главное назначение технологии - увеличение ёмкости экологической ниши человека. Рост ёмкости экологической ниши всегда ведет к росту населения. Соответственно можно оценить изменение технического уровня цивилизации по изменению населения фиксированной территории, которое она может поддерживать (такие идеи я скажем встречал у Ю.Е. Берёзкина, но он тут точно не оригинален). Площадь Земли фиксирована, соответственно можно смотреть только население. Вот относительной скорости роста населения:



Видно, что после 1990 года относительная скорость роста населения начинает падать (при экспоненциальном росте она сохраняется постоянной), а это значит, что около 1990 года находится точка перегиба S-кривой населения (её можно строго отследить по началу падения первой производной населения с 1987 года). В соответствии с этим критерием точка перегиба на графике населения должна соответствовать и точке перегиба в части S-кривой технологий.

2) Уровень технологий цивилизации можно оценить по валовому производству энергии (Кардашёв, Саган).



Тут явная точка перегиба около между 1970 и 1980 годом.

3) Уровень технологий цивилизации можно оценить по производству энергии на душу населения (см. график выше).

Практически полное прекращение роста после 1980 года.

Все три метрики (демографическая, и две энергетических) дают согласованный результат - точка перегиба в глобальной S-кривой технологий находится между 1970 и 1990 годом.

Удивительным образом, это совпадает с точкой перегиба, полученной при прямом подсчёте инноваций Хюбнером:



Где на интерполяции кривой накопленных инноваций точка перегиба оказывается около 1980 года.

То что три объективные метрики (демографическая и две энергетические), а также одна метрика полученная прямым подсчётом инноваций, несмотря на то, что исходят из разных предположений, дают положение точки перегиба глобальной S-кривой технологий в очень близком временном интервале около 1980 года, является весьма серьезным аргументом, что она там и находиться.

Оффлайн AlexAV

  • Модератор
  • *****
  • Сообщений: 10 473
  • Благодарностей: 577
    • Все сообщения темы
4. Почему Вы не хотите сперва посчитать упоминания у Попова тех открытий, за которые дали премию по астрономии, а потом уже спорить о том, что именно мы должны исключить (если вдруг по этой проверке всё для Вашей теории окажется плохо)? Это маленькое множество работ, которые коллективный разум ВЖР сможет прочитать, а скорее всего даже мы с Вами. Это ведь будет движение вперёд, сейчас мы ходим по кругу

Какой премии? Дело в том, что премий по астрономии даже из более-менее известных несколько десятков. А мало известных ещё больше, собственно даже задача все их найти потребует заметных усилий. Всех? Но тогда это довольно большая и бессмысленная работа, так как среди всех будут и премии  довольно странных контор. Конкретная? А почему именно эта, а не какая-то другая. Чистый субъективизм.

Вообще не понимаю что таким образом можно изучать. Взять просто список Попова и фильтровать все работы оттуда по какому-то критерию - можно (относящегося к содержанию самой работы). А если ссылаться на премии - получаем полную вкусовщину и субъективизм (почему именно эта, а не какая-то другая, их много).

Основная причина - премия (любая) объективным критерием не является (обычно их дают за заведомо хорошие работы, но выбор этой хорошей работы из многих определяется обычно довольно субъективными факторами, причём разными у разных комиссий).

Оффлайн AlexAV

  • Модератор
  • *****
  • Сообщений: 10 473
  • Благодарностей: 577
    • Все сообщения темы
Возможно еще это, хотя и спорно:
Несколько лет назад группа Адама Рисса совершенно другим методом получила заметно большее значение постоянной Хаббла — около 73 км/с/Мпк. Адам Рисс — человек очень известный и заслуженный, он один из трех лауреатов Нобелевской премии 2011 года за открытие ускоренного расширения Вселенной (темной энергии). Это был тот же метод, который привел Рисса и Перлмуттера к «нобелевскому» открытию: наблюдение «стандартных» сверхновых типа Ia. Только что опубликован препринт [1] с новым результатом группы Рисса: 73,04±1,04 км/с/Мпк. При этом отклонение от результатов команды «Планка» достигло сакральной значимости 5σ — это значение используется в физике высоких энергий как порог признания результата.

Здесь пока нет уверенности, что наблюдаемое расхождение не связано с какими-то методическими погрешностями измерения, т.е. тут пока рано говорить о надежной результате. Ну и, кроме того, эта работа выходит за рассматриваемый хронологический период (2001 - 2020 гг), так как опубликована в 2021. По этим причинам она в списке достижений 2001 - 2020 гг явно будет лишней. Хотя, если расхождение сохранится при дальнейших исследованиях и будет надежно показано что ни результат обработки наблюдений WMAP и «Планк», ни данные результаты не содержат какой-то не выявленной погрешности, то вполне может быть внесена в список 2021 - 2040 гг. 

Оффлайн AlexAV

  • Модератор
  • *****
  • Сообщений: 10 473
  • Благодарностей: 577
    • Все сообщения темы
Можно сказать больше, физика открыла целый зоопарк частиц. И собственно какие частицы из этого зоопарка служат в народном хозяйстве?

Да, собственно, весьма немногие. Кроме протона, нейтрона, электрона и фотона, из которых состоит почти вся окружающая нас реальность, всё остальное в технике играет очень ограниченную роль. Немного ещё используется позитрон (в позитрон-эмиссионной томографии), мюон (мюонная томография). Не то что используется (они скорее участники фоновых и паразитных процессов), но по крайней мере должны учитываться, пионы (при расчёте процессов в электро-ядерном реакторе, так как унос энергии при рождении пионов, а также деление ядер на пионах играет определенную роль при взаимодействии мишени из тяжелого металла с релятивистскими пучками протонов), а также нейтрино (без учёта уноса энергии которыми не получается правильный спектр энергий электронов при бета-распаде, впрочем тут о них, кроме того что они есть и почти ни с чем не взаимодействуют, ничего знать в общем и не нужно, все тонкости нейтринной физики вроде осцилляций нейтрино и прочего тут малоинтересны). В совсем далеких и фантастических перспективах для чего-то может потребоваться антипротон. Ну а если кто-то когда-либо построить аннигиляционный двигатель на антипротонах (точнее основанный на их аннигиляции антипротонов с протонами в мезоны), то помимо к перечисленным ещё придётся учитывать K- и \eta-мезоны (рождающиеся в этом процессе с вероятностью 6% и 7% соответственно). Да собственно и все. Всему остальному там сложно придумать какое-то практическое применение даже при самой богатой фантазии.

Вообще физика частиц за пределами КЭД, четырехфермионной теории Ферми и КХД фактически не имеет никакого применения в инженерной практике (причём КХД весьма и весьма ограниченное). Причём даже при очень богатой фантазии такое применение, хотя бы теоретическое или даже фантастическое (но в области твердой научной фантастики), найти практически невозможно. Т.е. даже  теорию Вайнберга-Глэшоу-Салама по большей части применять негде (в той её части, где она выходит в своих предсказаниях за рамки  четырехфермионной теории Ферми), а уж поправки к ней (даже если такие обнаружатся)... 

Оффлайн AlexAV

  • Модератор
  • *****
  • Сообщений: 10 473
  • Благодарностей: 577
    • Все сообщения темы
5. Лондон таки утонул в навозе? Коллапс будет точно-точно? Расскажите, почему Вы так думаете ещё раз. И предложите план его избежать. Ну там раздел мира на отдельные валютные зоны, стимулирование угольной промышленности, что ещё? Что Вы думаете про открытое общество Пенроуза? Нужно ли банить Канаду в Российском интернете и лично Полночь Ксю? Как вы считаете, у Вас есть шансы попасть в аристократы этой новой империи? А у ваших детей?


Коллапс будет точно-точно? Расскажите, почему Вы так думаете ещё раз.

С подавляющей вероятностью. Каждая конкретная историческая форма цивилизации есть суть определенный способом адаптации человека к окружающей среде. Конкретно современная постиндустриальная цивилизация тут есть форма очень узко заточенная под потребление концентрированных невозобновляемых источников ресурсов (тут речь не только об энергетических, но и, что даже более важно, редких элементов). Однако, фактом своего существования она неизбежно уничтожает эту свою ресурсную базу, что неизбежно должно привести такую форму существования цивилизации к тяжелому кризису и коллапсу.

Узкая адаптация современной цивилизации к потреблению невозобноволяемых ресурсов в крупных месторождениях порождают несколько её особенностей, которые не дадут ей какой-то возможности к простому переходу к иной ресурсной базе:

1) Концентрация населения и производства в крупных городах. Такая демографическая структура очень эффективна пока мы имеем концентрированные источники сырья и энергии, которые могут быть извлечены с малыми затратами и легко доставлены в такие крупные центры. Однако, без таких источников, когда все источники сырья и энергии становятся предельно рассеянными, а их извлечение начинает становиться всё более и более затратным, такая демографическая будет становиться абсолютно неэффективной. При её сохранении обеспечение производства и доставки рассеянных ресурсов станет или чрезвычайно дорогим или вообще практически невозможным. Эффективное освоение рассеянных ресурсов потребует более децентрализованных форм расселения и производства. Попросту говоря существенной деурбанизации (не до состояния хуторов, конечно, но на смену мегаполисам должна прийти сеть сравнительно малых городов).

2) Очень сильная диспропорция между кларками элементов и объёмами их потребления в техники. Ряд редких и очень редких элементов (скажем медь, никель, цинк, хром, олово, молибден, серебро) играют непропорционально большую роль в техносфере. По большому списку элементов потребность в них техносферы существенно превышает их потоки в естественных геохимических циклах. Это всё замечательно пока есть концентрированные месторождения этих элементов, но извлекать их из породы с кларковым содержанием или возобновляемых источников в таком количестве совершенно невозможно. А так как значительная часть сложных технологий критически зависит от них (и никакого разумного способа их замены чем-то там нет и не предвидится), то по мере исчерпания доступных месторождений одного этого фактора будет достаточно, чтобы обрушить существующие сегодня производственные отношения.

3) Современные способы строительства инфраструктуры чрезвычайно металоёмки. Возможность этого обеспечивается богатыми месторождениями железа откуда оно может быть извлечено с малыми затратами. Железо, конечно, элемент распространенный, но когда его придётся извлекать не из руды с содержанием 60%, а из придорожного суглинка с 3-4% (используя технологии больше похожие на те, которые сейчас используются при добыче редких металлов) с таким обилием металла придется попрощаться. А значит резко упадет качество и количество транспортной инфраструктуры (прежде всего шоссейных и железных дорог), что сильно усугубляет первую проблему.

4) Очень производительная, но неэффективная в плане замкнутости геохимического цикла система сельского хозяйства, местами напоминающая гидропонику под открытым небом. Это не проблема пока есть дешевый газ для производства азотных удобрений и запасы фосфорных и калийных руд. Но вот без дешевого газа и фосфорных руд она превращается в совершеннейшую катастрофу. Замыканию же по биогенам сельского хозяйства потребует куда хуже автоматизируемых способов его ведения (и соответственно роста объема человеческого труда для его ведения) и совершенно иной демографической структуры расселения населения (такая тривиальна, но важная вещь, как возврат канализационного стока обратно на поля при современной оказывается весьма затруднена в плане логистики).

5) Уже сейчас цивилизация получается исключительно энергозатратной, снижение качества источников сырья эти затраты будет увеличивать, а возможность производства этой энергии снижать (большинство способов производства энергии не связанное с ископаемым топливом чрезвычайно требовательна к доступности редких элементов, исключая, пожалуй, гидроэнергетику, но её банально слишком мало, ну и какие-то лазейки тут возможно не закрыты в части атомной энергии, а остальное на них крайне сильно завязано).

Естественно, сохранить статус кво в этих условиях абсолютно невозможно. Однако, и плавные безболезненные перестройки цивилизации такого масштаба (затрагивающие одновременно всю технологию, демографическую структуру, транспорт и способы ведения сельского хозяйства) истории практически неизвестны. Обычно в этих случаях бывает тотальный коллапс всего, период темных веков и последующее какое-то восстановление на новой хозяйственной основе (что-то вроде коллапса бронзового века). А значит и сейчас так будет.
 
И предложите план его избежать.

Никак. Можно только смягчить последствия (так чтобы темные века были не совсем безнадежно темные с полностью разрушенными городами и сгоревшими библиотеками, а только умеренно сумрачными).

Ну там раздел мира на отдельные валютные зоны

Глобализация в экономике как раз и создает почву для того, чтобы кризис превратился в тотальную катастрофу. Так как в этом случае проблема в одном элементе системы сразу превращается в сложно решаемую проблему для всех и лишает их ресурсов для поиска собственных путей выхода из кризиса. Если мир разбит на много небольших относительно замкнутых экономических зон, то кризис этих зон всегда будет не одновременным и не одинаковой глубины. Каждая зона после пика своего кризиса при восстановлении в этом случае может использовать знания и специалистов, которые имеются в зонах ещё не затронутых кризисом или тех, где уже прошло его дно. Такая ситуация гарантирует наилучшую сохранность знаний и технологий.

В мире победившей экономической глобализации рухнут все и сразу. Падение в этом случае может идти с положительной обратной связью и до очень низкого уровня. Тут спокойно можно будет улететь  до настоящих темных веков на уровне раннего средневековья вообще с утратой большинства достижений нашей цивилизации.

Экономическая раздробленность цивилизации при информационной глобализации и свободе (свободном обмене информацией между странами) - система в наилучшей степени обеспечивающая устойчивость и преемственность цивилизации в целом. А экономическая глобализация - очевидный шаг к тотальной катастрофе. Поэтому я за экономическую регионализацию (распад глобальной системы разделения труда), но за свободный глобальный обмен информацией.

стимулирование угольной промышленности

Тоже весьма неплохая мысль, чтобы смягчить переходный процесс. Уголь ресурс также исчерпаемый, но его много и его относительно просто использовать. Наличие такой подпорки в переходный период позволит сделать переход несколько более плавным и безболезненным.

что ещё

Хотя бы не творить какой-то полной чуши, которая глобально только усугубляет ситуацию. Вроде проталкивания вне экономическими методами техники использующей литиевые аккумуляторы или солнечные батареи, которые никак не решают проблему критической зависимости от не возобновляемых ресурсов, а только усугубляют её. Или пытаться теми же вне экономическими методами заменять везде уголь куда более редким газом. Ну или особо феерический бред и шабаш расточительства из современных инициатив - производства из природного газа водорода для его сжигания в энергетике вместо метана.

Что Вы думаете про открытое общество Пенроуза? Нужно ли банить Канаду в Российском интернете и лично Полночь Ксю? Как вы считаете, у Вас есть шансы попасть в аристократы этой новой империи? А у ваших детей?

Это не имеет отношения к теме дискуссии.
« Последнее редактирование: 10 Янв 2022 [23:00:41] от AlexAV »

Оффлайн AlexAV

  • Модератор
  • *****
  • Сообщений: 10 473
  • Благодарностей: 577
    • Все сообщения темы
6. Вы сам допускаете, что квантовые компьютеры могут и взлететь. Почему Вы не допускаете, что если они заработают, люди придумают для них применения, которые мы с вами сейчас придумать не можем, как создатели ЭНИАКА не могли придумать, что наследники их детища помогут человечеству сидеть в карантинах из-за ковида? Опять же получается, что это середина S-кривой - вариант Семёнова, а не Ваша точка перегиба, а у меня появляется шанс не только получить нейрочип, но и нейрочип с квантовым ускорителем (ХЗ зачем, лол. Например, обсчитывать фолдинг белков в нейронах в виртуальной машине мозга?)

Вы сам допускаете, что квантовые компьютеры могут и взлететь.

Допуская. Каких-то совсем простых и очевидных запретов тут после доказательства пороговой теоремы нет. Однако это не тождественно, что его действительно можно создать. В общем разумный подход здесь - "утром деньги — днем стулья, днем деньги — вечером стулья, вечером деньги — ночью стулья, ночью деньги — утром стулья". Т.е. пока он не создан фактически в технически полезном виде его при прогнозировании учитывать не стоит. Вероятность, что технические проблемы тут будут столь сложны, что на практике практически не преодолимы, тут не просто есть, но и крайне высока. И сейчас больше всего похоже, что всё идёт именно по этому сценарию.

 
Почему Вы не допускаете, что если они заработают, люди придумают для них применения, которые мы с вами сейчас придумать не можем, как создатели ЭНИАКА не могли придумать, что наследники их детища помогут человечеству сидеть в карантинах из-за ковида?

Возможно. Естественно при условии, что масштабируемый квантовый компьютер вообще будет технически осуществим. Однако слово "придумают" здесь не вполне уместно. Способ построения алгоритма для решения той или иной задачи или моделирования какой-то системы на квантовом компьютере с экспоненциальным ускорением по сравнению с классическим (а только в этом случае использование квантового компьютера имеет смысл) или существует, или не существует вне зависимости от нашего знания о нем. Это некий элемент объективной реальности, в тех случаях когда он не существует - найти его нельзя, поэтому тут уместнее не слово "придумают", а слово "найдут" (а найти можно только то, что существует). Однако, естественно, говорить что сейчас известны все существующие задачи для которых квантовый компьютер может дать экспоненциальное ускорение действительно преждевременно.

Опять же получается, что это середина S-кривой - вариант Семёнова, а не Ваша точка перегиба, а у меня появляется шанс не только получить нейрочип, но и нейрочип с квантовым ускорителем

Даже в этом случае за перегибом. Полноценный масштабируемый квантовый компьютер нам может дать прорыв в изучении сверхпроводимости (т.е. описывать сверхпроводимость всего чего угодно и с высокой точностью без очередных неклассических сверхпроводников не описываемых приближенной теорией), катализа, по настоящему развитой биотехнологии (когда мы сможем не просто найти молекулярную машину в уже существующем организме и куда-то её перенести, а проектировать молекулярные машины с требуемыми функциями), возможно создании новых материалов для классической электроники. Но вот в других областях техники, таких как транспорт, энергетика, механические и жаростойкие материалы результат будет куда как более скромным.  Т.е. получается достаточно островной прогресс, затрагивающий ограниченную часть областей человеческой деятельности. Масштаб влияния скорее всего будет соизмерим с масштабом влияния информационной революцией. Да, много и важно. Но всё же сумма достижений с 1600 года до информационной революции изменила мир неизмеримо больше, чем сама информационная революция.

Даже если создание масштабируемого квантового компьютера возможно, то это будет не середина глобальной кривой прогресса, а её последняя 1/4 или 1/5 (цифры, понятно, что абсолютно условны, но скорее всего изменение мира которое он даст хоть и будет заметным, но куда меньшим, чем изменение мира с 1600 года до момента его создания).

Еще раз стоит повторить, что создание полноценного масштабируемого квантового компьютера хотя и не исключено, но и совершенно не очевидно, что возможно. Так что это очень большое если. 

Оффлайн AlexAV

  • Модератор
  • *****
  • Сообщений: 10 473
  • Благодарностей: 577
    • Все сообщения темы
А сколько минимум полноценных кубит нужно для решения таких задач?  В агитках пишут про то что у них 50+ полноценных кубит уже есть.

Важно не только количество, но и топология связи и точность выполнения операций, прежде всего двухкубитных. При той точности операции CNOT без коррекции ошибок и при неполносвязной топологии это изделие для чего-то, кроме методических примеров вроде демонстрации протокола квантовой телепортации, абсолютно непригодно. Кроме того, любая система без квантовой коррекции ошибок для решения сколько-нибудь сложной задачи не годится, а там её нет и близко.

Вообще для практически полезной машины было бы уже достаточно от 100 логических кубитов. Но при соблюдении двух условий. Первое - работающая система коррекции ошибок с достаточной эффективностью. Второе - полносвязная топология. При построении системы коррекции ошибок несколько физических кубит объединяются в один логический, при этом требуется достаточно высокая избыточность, что-то масштаба 1000 - 10000 физических кубитов на один логический (для достижения качества коррекции ошибок достаточной для квантово-механических рассчётов).  Таким образом, что-то минимальное представляющее ценность на практике должно включать 100 тыс. - 1 млн. физических кубитов, организованных в 100 логических кубитов с систем квантовой коррекции ошибок (пока существует только в теории, экспериментально вообще не сделана) с полносвязной топологией связи логических кубитов.

Тому что сейчас делается до этого очень далеко.

И это совсем не те кубиты что у d-wave где маркетологи  уже 5000+ попугаев нарисовали...

Там часть гамильтониана, которая описывает парное взаимодействие на их решетке только zz. Из-за этого это вообще неполноценный квантовый компьютер, т.е. строго показано, что любая задача которую он может решать относится к классу StoqMA, а он уже QMA. Скажем квантовую задачу для системы фермионов (т.е. общую задачу квантовой химии) на нем с полиномиальной затратой ресурсов решить не возможно принципиально. Это немного не тот квантовый компьютер о котором идет речь, неполноценный (при любом количестве кубитов). Тех возможностей, о которых идет речь, он дать не может. Тут он скорее ближе к классической стохастической машине.

На системах типа решеток Изинга решать общую квантовую задачу можно, но гамильтониан такой системы обязан содержать помимо zz слагаемых ещё одновременно по крайней мере xx. А построение такой системы - проблема на порядок сложнее, чем системы, где гамильтониан содержит только zz слагаемые. И пока на практике не сделано.

Оффлайн AlexAV

  • Модератор
  • *****
  • Сообщений: 10 473
  • Благодарностей: 577
    • Все сообщения темы
Интересно есть ли описание как эта самая коррекция ошибок устроена? - Это надо паралельно запускать 1000 одинаковых расчетов и потом строить статистику?

Нет. Там, несколько хитрее. Из кубитов создается переплетенное состояние определенной структуры, такое, что любая исправимая ошибка порождает состояние ортогональное исходному. А далее по средствам некоторого набора квантовых измерений можно определить факт того, что произошла ошибка и её класс, что позволяет её исправить с помощью определенного унитарного преобразования над системой кубитов, образующей логический кубит.

Как работает самый простой код, когда логический кубит состоит из 9 физических, и код позволяет исправить ошибку в любом одном из 9 кубит (но не более, т.е. если ошибка произойдёт в двух кубитах одновременно - система не сработает) можно посмотреть здесь - https://journals.aps.org/pra/abstract/10.1103/PhysRevA.52.R2493 В рамках похожей идеологии можно строить и более сложные коды, которые позволяют исправлять ошибку произошедшую в нескольких физических кубитах логического кубита одновременно. Однако с ростом числа физических кубитов в логическом надежность растёт довольно медленно из-за чего и возникают такие дикие требования к избыточности.

На практике сейчас не удалось в железе сделать даже простейший 9-кубитный логический кубит Шора. Дело в том, что те измерения о которых идет речь при работе этой системы весьма своеобразны. Это не измерения над отдельными кубитами, а измерение над всей совокупностью кубитов образующих логический кубит, т.е. измерения описываемые операторами проектирования на некоторый набор довольно нетривиальных гиперплоскостей их состояний. Выполнить их измерив состояние каждого физического кубита составляющего логический кубит по отдельности невозможно.  Пока мы рассуждаем на уровне абстрактной математики - тут все просто, записали набор операторов проектирования с определенными свойствами и все. А как такое измерение осуществить в железе понятно в куда меньшей степени.
« Последнее редактирование: 11 Янв 2022 [10:51:26] от AlexAV »

Оффлайн AlexAV

  • Модератор
  • *****
  • Сообщений: 10 473
  • Благодарностей: 577
    • Все сообщения темы
А почему вы придаёте такое значение именно экономической глобализации?

Экономика построенная на глобальной системе разделения труда, где отдельные области производства сильно монополизированы и географически сконцентрированы (как например производство микросхем по тонким техпроцессам сейчас, а уж тем более литографических сканеров, обеспечивающих этот процесс), но критически важны для всех, а отдельные регионы экономически глубоко не самодостаточны и могут существовать только в рамках такой глобальной системы (т.е. полный разрыв экономических связей ведет их к тотальному коллапсу) является очень нестабильной и склонной к каскадному коллапсу с положительной обратной связи. Критический кризис в одном элементе системы может нарушать работу всей экономики в целом и вызывать выпадение дополнительных элементов, что ещё более дезорганизует систему и лишает её ресурсов к преодолению кризиса. А это приведет к тому, что если такой карточный домик начнет распадаться - то никаких внутренних механизмов остановить этот распад уже не будет и коллапс будет продолжаться вплоть до того уровня, когда какие-то замкнутые экономические циклы не удастся организовать на основе оставшихся обломков промышленности внутри отдельных национальных государств. Это при условии, что экономический кризис при таком каскадном развале не будет таким глубоким, что и сами национальные государства рассыпятся... В случае же, если начнут рассыпаться и национальные государства распад вообще может идти до уровня современных Сомали или Афганистана. Если до этого дойдёт от современных знаний и технологий может остаться весьма не многое.

В этом смысле экономика состоящая из множества отдельных самодостаточных экономических зон куда стабильнее. В этом случае коллапс какой-то одной зоны возможен, но никак не всех сразу. А сохранение центров с развитой промышленностью и технологией вокруг создает условия, когда на месте рухнувшей зоны может пересобраться что-то достаточно развитое и жизнеспособное.

И при этом, ни информация, ни технологии, не пропадут. У нас уже очень много "Александрийских Библиотек".

С одной стороны так. С другой же нынешняя тенденция хранить информацию (в том числе и важную техническую) только в электронной форме (причём очень часто вообще только в крупных централизованных хранилищах) может очень плохо кончиться. Если процесс распада дойдёт до точки, когда поддержание всей этой цифровой инфраструктуры станет невозможным, то всю эту информацию можно потерять практически мгновенно, а после этого уж точно будет падение в бездну без дна. Перенос всей информации на малонадежные цифровые носители (малонадежные в том смысле, что легко теряющие информацию без постоянных усилий по её поддержании и восстановлении, с SSD диска, бесхозно валяющегося в мокром подвале, через 10-15 лет скорее всего вообще ничего прочитать не получится) и централизация таких хранилищ (различные крупные сервера, облачные сервесы и т.д.) при отсутствии копий на высоконадежных архивных носителях (способных даже в не слишком благоприятных условиях без постоянного внимания и обслуживания сохранять информацию десятки - сотни лет) вообще очень сильно снижает устойчивость нашей цивилизации к катастрофическому и очень глубокому коллапсу.

 
Но это значит, что "оптимальное будущее" - это что-то похожее на условный XVII век, где в мире живёт не более 1 млрд. народу, дровяное отопление и конная тяга. Но ведь современные знания и технологии в таком мире никуда не денутся. Или они пропадут?

Чистого  XVII век, конечно, не будет. Но это и не значит, что часть технологий не может быть утеряна. Вообще тут есть закономерность. Простые технологии, такие описание которых достаточное для создания чего-то практически полезного умещаются в голове одного человека, обычно не утрачиваются. А вот сложные, требующие глубокого разделения труда, и не воспроизводимые силами одного человека или малого коллектива в практически полезной форме как правило утрачиваются очень легко.

Соответственно, даже при очень глубоком коллапсе огнестрельное оружие, базовая электротехника, паровой двигатель и ДВС скорее всего сохранятся. А вот интегральная микроэлектроника с космическим ракетостроением при глубоком коллапсе имеет все шансы кануть в лету. Попросту их невозможно в практически применимом виде построить ни силами одного человека, ни силами небольшой группы лично знакомых людей (численностью ограниченной числом Данбара). Соответственно, при распаде крупных общественных структур такое знание станет бесполезным, не воспроизводимым и быстро забудется.

Однако, средневековье с развитым огнестрельным оружием,  базовой электротехникой, паровым двигателем и ДВС  - это очень не классическое средневековье, которое и в социальной организации и в экономке будет весьма сильно отличаться от реального  XVI - XVII века. Т.е. ответ где-то посередине. В катастрофическом сценарии распада утрата многих знаний и технологий очень даже возможна, но далеко не всех, а то что останется все же будет достаточно, чтобы вновь сформировавшееся после распада общество не было полным аналогом общества прошлого, а представляло некое абсолютно новое явление (которое очень условно можно назвать неким средневековьем с электричеством).

Оффлайн AlexAV

  • Модератор
  • *****
  • Сообщений: 10 473
  • Благодарностей: 577
    • Все сообщения темы
7. Чем оппонент, тащащий список отличается от ускорителя частиц? Особенно такой ускоритель, по которому Вы даже не знаете все данные, вроде его максимальной энергии пучков? Ведь в обоих случаях будет сгенерирован датасет. Вдруг оппонент дурак, или плохо знает астрономию? Вдруг @mbrane прав и я тупая домохозяйка, завербованная ЦРУ, "напечатанных денег", на "целый аналитический отдел" не хватает (Вам тут большая часть ВЖР готова бить пяткой в грудь, что америка загнивает и уже загнила! А финансирует всё только печатью денег, и ей скоро каюк, "ведь сила в правде") а про Computer Cloud Engineer итд это всё такое враньё?  Чем это отличается от "закрытия" бозона Хиггса на допотопном ускорителе кавендишской лаборатории? У Вас в обоих случаях плохой датасет. Вашу статью бы не взяли в журнал. Любой субъективно подготовленный список такого рода не может быть фальсифицирован. Попробуйте на секунду поменять точку зрения на противоположную, и подумать, удовлетворил бы Вас этот список, в котором не оказалось никаких новых значимых работ?

Чем оппонент, тащащий список отличается от ускорителя частиц? Особенно такой ускоритель, по которому Вы даже не знаете все данные, вроде его максимальной энергии пучков? Ведь в обоих случаях будет сгенерирован датасет. Вдруг оппонент дурак, или плохо знает астрономию?

Любой метод исследований любого процесса или явления всегда содержит какие-то погрешности. Однако, это, вообще говоря, не является основанием для отказа от него. От того, что любой амперметр всегда дает какую-то погрешность - понятие силы тока не исчезает и не теряет своей полезности при изучении электрических явлений. И здесь так же. Вообще абсолютная точность и не нужна, достаточно, чтобы погрешность была достаточно мала, чтобы не мешать существенно анализу явления.
 
Любой субъективно подготовленный список такого рода не может быть фальсифицирован.

Любой конкретный конечный список инноваций, подобранных по строго заданному формальному критерию, всегда является фальсифицируемым. Его в принципе всегда можно оспорить приведя пункт, который там отсутствует или показав, что какой-то пункт в нем лишний (т.е. формально-логически не соответствует выбранному критерию). Вообще при анализе НТР изучение конкретных списков инноваций является единственным прямым, строгим, верифицированным и фальсифицируемым методом. Никакого другого по большей части вообще нет. Остальное или косвенные методы, которые строятся на какой-то гипотезе (часто плохо проверяемой) о связи некого синтетического понятия (экономического, демографического и т.д.) с общей тенденцией НТР, либо вообще нечто полуинтуитивное, вообще строго не проверяемое и относящие  скорее у чему-то, что ближе не научному изучению вопроса, а какой-то форме религиозной веры.

Вот стоит у нас задача исследовать тенденции НТР. Как это делать? И тут можно предложит вообще только два подхода:

- Прямой метод. Перечислить в явном виде все инновации, удовлетворяющие определенному критерию, а далее изучать свойства их хронологического ряда как некой последовательности случайных событий.
- Косвенный метод. Сказать, что основной результат инновации - некие полезные изменения в экономике или другом аспекте жизни общества (численность населения, производство энергии, объём промышленного производства и т.д.), которые можно адекватно отразить некой численной характеристикой, полученной по определенной методике. И если соответствующий результат есть, то не так уж важно как он получен. Ну и далее отслеживаем исторический тренд выбранного численного параметра.

Первый метод - лучший, самый последовательный и точный, однако является очень трудоёмким. Второй метод менее трудаемок, но содержит трудно устранимую проблему. Гипотеза монотонной связи какого-то выбранного синтетического параметра с НТР часто оказывается довольно сложно доказуемой.

Однако, при всех проблемах перечисленных двух подходов никакого третьего предложить вообще нельзя. Так что, тут нужно пользоваться тем, что есть.

Попробуйте на секунду поменять точку зрения на противоположную, и подумать, удовлетворил бы Вас этот список, в котором не оказалось никаких новых значимых работ?

Пустое множество - тоже вариант конечного списка. И может рассматриваться как фальсифицируемая гипотеза (фальсифицировать его можно назвав хотя бы один пункт, который формально0логически удовлетворяет введенным критериям). А удовлетворил или не удовлетворил - зависит от выбранных формальных критерием и анализируемого хронологического интервала.

Оффлайн AlexAV

  • Модератор
  • *****
  • Сообщений: 10 473
  • Благодарностей: 577
    • Все сообщения темы
8. Почему Вы не понимаете, что любой список, который я напишу, или который Вы напишите, будет искажён эффектом послезнания, а значит заведомо не годится? Мы с вами можем написать список по 2021му году, и проверить его через 20 лет. По 2020му уже с некоторой большей вероятностью он будет более точным  UPDATE возможно, отвечено, подумаю об этом на днях

При корректно выбранных формальных критериях это не является сколько-нибудь существенной проблемой. По крайней мере в не большей степени, чем соответствующий временной лаг заложен в явном виде в самих критериях. Т.е. корректно сформулированные критерии для отбора инноваций должны допускать проверки того, удовлетворяет ли им элемент списка или нет, по фактически имеющимся данным без необходимости ожидать что-либо (или, по крайней мере, срок этого ожидания в выбранных критериях должен указываться явно). Данная проблема - эта не проблема метода вообще, а только проблема некорректного его использования (когда критерий выбора инноваций для составления списка выбран некорректно, т.е. так, что по имеющимся данным невозможно однозначно определить удовлетворяет ли какой-либо пункт его или нет, а при построение правильного критерия такого быть не должно).

Кроме того, наличие скрытых ошибок и эффектов послезнания в выбранных критериях отбора допускает и непосредстенной проверки. Нужно взять список инноваций, соответствующих этому критерию, из списка инноваций опубликованных в достаточно глубоком прошлом (10, 20 и т.д. лет назад), и сравнить с тем, который можно составить сегодня. Если они в целом будут совпадать - значит критерий скорее всего достаточно хороший. И это ожидания в 20 лет не требует, нужно лишь потратить время на работу с публикациями в которых составлялись списки важнейших инноваций, опубликованных в прошлом.

Оффлайн AlexAV

  • Модератор
  • *****
  • Сообщений: 10 473
  • Благодарностей: 577
    • Все сообщения темы
9. Почему Вы настаиваете на работах о новых эффектах? Природа не обязана быть равномерна в этом вопросе. Сравните фотоэффект и эффект Казимира. А ваша метрика их уравняет. Тогда как для НТР они имеют совершенно разное значение (если же эффект Казимира имеет ещё неизвестное практическое значение, у меня для неомальтузианской теории плохие новости)

Такое внимание работам о новых эффектах уделяются мной по той причине, что в процессе и научного познания и при создании технических инноваций такие открытия играют исключительно важную роль, показывая неполноту существующей теории и давая основания для её расширения. Если таких эффектов нет - значит известная нам теория полностью верна и ничего из того, что в этой теории не содержится не может быть. Однако, количество возможностей для техники, содержащихся в известной теории, на самом деле ограничено и не так уж и велико. А значит доказательство того, что известная нам теория является окончательной, является одновременно и доказательством ограниченности НТР и того, что глобальная форма кривой НТР - это какая-то S-кривая. Причём если предположить, что существующая физическая теория - окончательная и дальнейшему пересмотру не подлежит, то исходя из неё вполне можно оценить и положение верхней полки этой глобальной S-кривой. И, судя по всему, она будет лежать не сильно выше достигнутого сегодня уровня технологий.

Что-то изменить в этой картине может только экспериментальное открытие новых явлений и эффектов противоречащих или не описываемых существующей теорий. И их нахождение потенциально может закладывать какие-то основы для будущих инноваций в технике. Если таких основ не появляется вообще, то и технические инновации, исчерпав потенциал возможностей содержащихся в известной теории, быстро затухнут. Открытие принципиально новых эффектов и явлений - необходимое условие НТР, хотя и не достаточное (часть открытых новых явлений для практики может быть бесполезно).

Действительно, можно согласиться, что не все новые открытые эффекты  одинаково полезны для практической инженерной деятельности. Значительная часть из них (как упомянутый эффект Казимира) имеют очень ограниченное применение в инженерной практике, либо (как те же Z-бозоны или бозоны Хиггса) не имеют вообще. Однако тут просто нужно различать, то что можно назвать необходимыми и достаточными условиями. Открытие хоть каких-то новых эффектов - является необходимым условием продолжения НТР, если в этой сфере вообще ничего не открывается, то НТР заведомо быстро затухнет, но не является достаточным (можно представить ситуацию, что новые эффекты открываются, но все они столь оторваны от условий, которые более-менее достижимы в инженерной практике, что не несут никакой практической пользы).

Т.е. можно сказать, что количество полезных для практики новых явлений заведомо меньше, чем новых явлений вообще. Однако, для того чтобы показать замедление появления предпосылок для продолжения НТР такого необходимого критерия в общем достаточно. Если даже в сумме каких-то новых эффектов с каждым десятилетием открывается всё меньше, то количество открытий практически полезных падает тем более (причём, судя по всему, падает не только общее число открытий новых явлений, но и доля тех из них, которые когда-либо найдут хоть какое-то практическое применение, уж очень высока доля в списке таких открытий за последние десятилетия относящихся либо к астрофизике, либо к физике высоких энергий, которые заведомо к инженерной практике отношения не имеют).

Кроме того, характер открытий этих новых явлений может подсказать те направления НТР, где ещё есть какие-то перспективы. А этот характер (если отбросить точно не имеющие отношения к инженерной практике открытия, относящиеся к области астрофизики и физики высоких энергий) весьма своеобразен. За редчайшим исключением это практически только открытие новых нетривиальных квантовых явлений в твердых телах. Такого рода открытия в практическом плане могут что-то дать по сути только одной технической области - твердотельной электроники, а даже потенциальное их значение для других областей техники не столь очевидно. Такая односторонность в сфере открытия новых явлений на самом деле уже сама по себе говорит, что здесь происходит что-то нездоровое (в золотой век НТР на границе 19-го и 20-го века фундаментальные инновации затрагивали куда более широкий список областей практической инженерной деятельности).