Ю.В. Чайковский

ЧТО ТАКОЕ СЛУЧАЙНОСТЬ?

 

1. Позиции, привычные для математиков и философов

 

Ещё на заре европейской науки Демокрит полагал, что причину имеет всё, и что случайность люди ввели, "чтобы оправдать свою глупость". Однако он же положил в основание своей натурфилософии беспорядочное движение атомов, из-за которого явления приходится фактически рассматривать как случайные. В этом противоречии наука и пребывает 2400 лет: хотя без случайности ни один род деятельности (в том числе и ни одна теория явлений - природы или общества) обойтись не может, но до сих пор можно услышать и прочесть, что случайности как таковой в строгом представлении первой научной картины мира не существует. Тем не менее, в наше время можно привести аккуратные примеры случайности, не сводящиеся к незнанию или непониманию причин, что ниже и будет сделано.

Очевидно, что разговор о случайности невозможен без математики, но какой её раздел при этом нужен? Последние 350 лет этой математикой считалась теория вероятностей (ТВ), но её-то как раз чаще всего упрекают в том, что она равнодушна к вопросу - что такое случайность. В самом деле, ни в одном курсе ТВ этот вопрос не рассматривается, и в лучшем случае, у самых глубоких авторов, можно найти отсылку к философам. Например, Б.В.Гнеденко сорок лет назад писал: "Несомненно, что понятие математической вероятности заслуживает глубокого философского изучения. И основная специфическая философская проблема... состоит в следующем: при каких условиях имеет объективный смысл количественная оценка вероятности случайного события...". По Гнеденко, "задачу философского выяснения реального содержания понятия математической вероятности можно сделать заранее безнадёжной, если требовать определения, применимого к любому событию"; признав, что самая широкая трактовка случайности ("событие случайно, если оно не необходимо и не невозможно") чисто отрицательна, и из неё неясно, есть ли смысл говорить о вероятности "как о некотором определенном, хотя бы и неизвестном нам числе", он заключил: "утверждение, что эта вероятность существует, является содержательным утверждением, нуждающимся в каждом отдельном случае в обосновании" [1, c. 16-17]. К сожалению, Гнеденко не сказал, в чём может состоять такое обоснование.

Дальше подобных отсылок математики почти никогда не идут, что же касается философов, то они почти никогда не идут дальше прискорбного смешения случайности с вероятностью (это в полной мере относится и к специалистам-электрикам), и круг замыкается. К счастью - только "почти". Считанные единицы идут дальше, и мы последуем за ними.

2. Типы и ступени случайности

 

В опубликованных прежде работах [2-6] я уже писал о нынешних взглядах на природу случайности и её связи с вероятностью. Там говорилось, что случайное - это всё то, что может при данных условиях как произойти, так и не произойти; что вероятность - математическое понятие, мера случайного, о которой можно говорить только в отношении одного класса случайных явлений, того, в котором наблюдаются устойчивые частоты, что, по Колмогорову, "такого рода явления естественно назвать вероятностно-случайными. Иногда их называют стохастическими". По общему мнению, ТВ описывает лишь явления "вероятностно-случайные с определяемыми распределениями вероятностей", хотя на деле её аппарат применяется и к тем явлениям, где о стохастичности ничего сказать нельзя. Следовательно, ТВ - лишь часть (и притом небольшая) общей науки о случайном. Для этой новой науки предложено название - алеатика.

Случайность можно понимать различно. По источнику и механизму её можно группировать в семь типов: (1) непонятая закономерность, (2) скрещение несогласованных процессов, (3) уникальность, (4) неустойчивость движения, (5) относительность знания, (6) имманентная (внутренне присущая явлению, сущностная) случайность, (7) произвольный выбор. По-моему, стохастическими можно уверенно считать лишь явления чётных типов, но обычно в научной литературе термины "случайный" и "стохастический" ("вероятностный") используются как синонимы. Путаница досадна, ибо мешает анализу феномена случайности.

В работе [5] было предложено другое деление случайностей - на шесть ступеней по степени неупорядоченности (хаотичности): от детерминированного причинно-следственного акта, природа которого известна (в качестве низшей ступени случайности он может выступать для тех, кто не знает закономерной природы данного явления), до "истинного хаоса", не допускающего при наличном развитии науки никакого описания. Стандартная стохастическая случайность занимает здесь среднюю ступень, так как обладает жёсткой характеристикой - вероятностью.

Естественно встаёт вопрос: что такое вероятность? У неё тоже есть несколько определений, в которых общим является то, что она - мера случайности (а не её синоним). Если вероятность прямо определяется как мера, то получается строгая и изящная теория, которую преподают всюду, но которая ничего не говорит о природе случайности. Поэтому многие замечали, что надо выяснить, в чём состоит связь математической меры с реальными явлениями.

Один из создателей ТВ А.Н.Колмогоров в своей основополагающей книге [7] лишь дважды (в гл. 1) коснулся природы случайности. Первое место: в п.2 он заявил, что при большом числе однотипных опытов частота близка к вероятности "при известных условиях, в которые мы здесь не будем глубже вдаваться". Замечу, что называть данные условия "известными" было некорректно, поскольку о них тогда никто ничего не знал, да и сейчас о них нет вполне чёткого представления. Второе: в п.5 Колмогоров отметил, что ТВ является чем-то большим, нежели главой теории меры, только в силу наличия в ней понятия независимости. (Это значит, что все разговоры о зависимых случайных величинах обязаны иметь некоторые рамки, ограничивающие независимость, но не исключающие её.) А о связи меры с миром вообще у него не сказано.

Оба соображения Колмогорова очень важны для нашей темы. Первое заставило его самого разработать в 1960-е годы целую теорию, известную как "случайность по Колмогорову" и ставившую цель понять, какова та случайность, которая при повторении опытов приводит к устойчивой частоте данного исхода. Там случайность числа трактуется как отсутствие алгоритма для его вычисления. Об этой теории см. обзор [8]. Второе соображение открывает путь для ещё одного способа группировать случайности - по степени независимости случайных величин. На этом пути нас ждёт самое интересное: оказывается, в природных и социальных системах часто возникают такие виды зависимости, когда случайность налицо, а обычные средства ТВ и математической статистики не работают. К этим системам прежде всего относятся био- и техноценозы [3, гл. 3; 9-11].

 

3. Динамический хаос: две формы случайности

 

Почему нельзя предсказать, какой стороной упадёт подброшенная вверх монета? Издавна принято отвечать: потому что мы не можем проследить за всеми особенностями её траектории по Ньютону. Этот аргумент (что непредсказуемость полёта кости или монеты вызвана необозримо сложными условиями полёта) господствует в науке и философии до сих пор, хотя давно доказана его несостоятельность.

Сто лет назад Анри Пуанкаре вместо необозримо сложного полёта монеты рассмотрел совсем простое движение - вращение стрелки примитивной рулетки. Пусть дан горизонтальный круг, расчерченный на равные секторы - белые и чёрные; в центре круга на вертикальной оси помещена стрелка, которую можно раскрутить и дать ей свободно вращаться. Какова вероятность р того, что она остановится в белом секторе? Если белых и чёрных секторов поровну, а стрелка раскручена достаточно сильно, то всякий скажет: р=1/2. Пуанкаре формализовал это интуитивно ясное положение: если начальная скорость v достаточно велика, то доля времени, проведённая стрелкой в белых секторах (а с тем - и вероятность остановиться в одном из них), близка к доле самих этих секторов в круге. Наоборот, зависимость угла Ф(v) остановки от начальной скорости v и характера замедления (тип трения и т.п.) несущественна и в пределе вообще исчезает. Впоследствии было понято, что рулетка Пуанкаре - идеальная модель бросания монеты.

Если монета, летя, сделала много оборотов, то сторона, которой она упадёт, практически не зависит от условий бросания и полёта. Тем самым, случайность может порождаться вполне простым движением, и прежние ссылки на сложность полёта лишь уводили от сути дела. Хотя близким значениям начальных импульсов v и соответствуют близкие значения конечных углов Ф, но эти углы могут лежать в разных секторах – вот откуда берётся случайность как у рулетки, так и у монеты.

Точнее: для любой точности измерения угла и импульса существует такое значение импульса (а с ним и числа оборотов), что существуют неразличимо близкие начальные условия, приводящие к различным исходам. Это - случайность типа (4) - неустойчивость движения.

Рулетка Пуанкаре оказалась простейшим примером динамического хаоса. Теория динамического хаоса (появилась в 1960-х гг.) показала, что случайное (хаотическое, непредсказуемое) поведение является вполне обычным для широкого класса детерминированных систем. Такое поведение относится к типам (1), (2) и (4), и его случайность принято называть псевдослучайностью, подчеркивая тем самым, что с некоторой точки зрения это - вовсе не случайность.

В мире динамических систем господствуют два противоположных принципа - сжатых отображений (СО) и растянутых отображений (РО). Первый лежит в основе обычной теории динамических систем, задаваемых дифференциальными уравнениями, имеющими (кроме отдельных особых точек) единственные решения. Если правые части уравнений непрерывны, то, в силу принципа СО, единственный тип неустойчивости траекторий - расхождение от особых точек к асимптотам (замкнутые асимптоты называют предельными циклами) или на бесконечность. Если не рассматривать особые точки, то случайности тут места нет ("лапласов детерминизм").

Г.М.Заславский [12] связал появление динамического хаоса с противоположной ситуацией - когда в динамической системе выполняется принцип РО, удаляющий траектории друг от друга. В области действия этого принципа возможны лишь две ситуации - либо траектории уходят на бесконечность, либо (если уход невозможен) царит перемешивание, когда траектория вновь и вновь проходит в окрестности любой доступной точки. Заполнение происходит равномерно, что радикально отличает перемешиваемость от эргодичности, при которой траектории заполняют допустимый фазовый объём постепенно, как чертёжник заполняет поле штриховкой (а заполнив, движутся назад и т.д.). Очевидно, что физику следует строить не на эргодичности (сохранении фазового объёма), а на перемешиваемости (его расширении); её задает принцип РО.

Проще всего понять акт порождения случайности при перемешивании, если взглянуть на рассеяние упругих шаров: как бы ни были близки траектории вначале, они быстро и радикально разойдутся. Произвольное различие итогов движения из внешне неразличимых начальных условий и трактуется как случайность. Это - псевдослучайность, но её нельзя описать иначе, как случайность.

Данную случайность, относящуюся к типу 4, легко согласовать с теорией динамических систем: основная теорема о существовании и единственности решения системы дифференциальных уравнений является следствием принципа СО, и не имеет места при разрыве производных, а всякое упругое столкновение - разрыв.

Однако в теории динамического хаоса наблюдается еще и случайность другого рода: она реализуется на гладких траекториях, что противоречит принципу СО и выглядит загадочно. Её обнаружил в 1963 г. американский математик-метеоролог Эдвард Лоренц. Открытие сделало его знаменитым, но новизна открытой им случайности редко обсуждается.

Исследуя условия возникновения вихрей, он рассмотрел систему трёх совсем простых обыкновенных дифференциальных уравнений (имеющую три неустойчивых точки покоя и ни одной устойчивой), компьютерное решение которой оказалось весьма странным: вокруг двух точек покоя обнаружились области притяжения (аттракторы), но не оказалось предельных циклов; вместо этого каждая траектория, после нескольких оборотов вокруг одной из этих точек покоя, уходила к другому аттрактору, чтобы сделать несколько оборотов вокруг другой точки покоя, а затем вернуться к первому аттрактору и т.д. Позже (в 1971 г.) эту пару аттракторов назвали странным аттрактором.

Число оборотов в пределах одного аттрактора оказалось непредсказуемым, и потому странный аттрактор может рассматриваться как ещё одна модель бросания монеты. Но отличие от рулетки Пуанкаре в том, что вся серия бросаний моделируется теперь одной-единственной системой уравнений, решение которой - единая гладкая траектория. Тем самым должен работать принцип СО, однако весь феномен странного аттрактора в целом демонстрирует принцип РО: траектория постепенно заполняет собой трёхмерный фазовый объём (тогда как принцип СО требует, чтобы траектория сходилась к объекту нулевого объёма - к точке или к линии). В действительности противоречия здесь нет: траектория в трёхмерном пространстве не пересекает себя, т.е. единственность ни в одной точке (кроме особых) не нарушена. Другое дело, что принцип СО действует здесь локально (а иного теория дифференциальных уравнений и не утверждает), тогда как траектория как целое демонстрирует принцип РО. В частности, близкие траектории могут на ближайших витках как разойтись, так и остаться близкими - это неожиданно, хоть и не запрещено традиционной теорией.

Последнее обстоятельство для нас важнее всего: здесь факт непредсказуемости не имеет никакого отношения ни к точности задания начальных данных, ни к возмущениям в ходе движения, а заключён в самой системе уравнений. Это - новая для науки ситуация, она придаёт феномену случайности новый статус, статус объективной реальности.

И тем любопытнее, что поведение странного аттрактора полностью предсказуемо в ином смысле - можно вновь начать движение из прежней начальной точки и заново получить в точности ту же траекторию, т.е. налицо псевдослучайность. Тут мы встречаемся с феноменом относительности знания (случайность типа (5)): с одной точки зрения явление случайно (по n виткам нельзя предсказать (n+1)-й), а с другой – детерминировано уравнениями движения. Такую же относительность знания демонстрирует обычное иррациональное число: последовательность его знаков бесконечна и непериодична, т.е. по n знакам нельзя угадать (n+1)-й, однако любой знак вычисляется (например, по правилу извлечения квадратного корня).

 

4. Обоснование феномена вероятности

 

Как мы видели, в рулетке Пуанкаре легко вводится вероятность. Число цветов секторов может быть любым, равно как и число белых секторов; любыми могут быть и размер каждого белого сектора, и порядок их расположения; но если суммарная дуга белых секторов равна 1/n окружности, то вероятность остановки на белом: р=1/n - вот основной результат. От него легко перейти к пониманию вероятности как меры: белая часть окружности может быть сколь угодно рваной, но все окружности с равными n дадут равные р. Увеличивая число белых секторов (белых дуг на окружности), не меняя их общей доли, в пределе получим произвольно чередующиеся белые точки. Теория меры позволяет точно определить, что такое длина отрезка, составленного из бесконечного числа (точнее - континуума) произвольно взятых точек единичного отрезка. Совокупная длина и есть простейшая вероятность как мера. Случайность, измеряемая этой мерой, порождается неустойчивостью отображения обширного множества начальных состояний (положений и скоростей) в малое множество конечных состояний, которое в случае монеты состоит всего из двух элементов. Это - предельный вариант принципа РО.

Рулетка Пуанкаре не только объясняет, откуда берётся случайность вроде бросания монеты, но и показывает, что эта случайность обладает жёстким инвариантом - вероятностью, т.е. стохастична по Колмогорову. Можно сказать, что стохастичность - случайность, самая простая для понимания. Она характерна тем, что тут выполняется закон больших чисел, т.е. частота приближается к вероятности.

В теории динамического хаоса есть и другие примеры, показывающие возникновение стохастичности. Тем самым, в 1960-х гг. ТВ получила первое, пусть и частичное, обоснование. Другое, столь же частичное, обоснование ТВ получила тогда же в теории "случайности по Колмогорову" [8]. Но всякая ли случайность обладает вероятностью? То есть - при всяком ли массовом повторении случайного события частота каждого из возможных исходов остаётся приблизительно постоянной? Нет, можно привести простые примеры, когда это не так.

 

5. Там, где частота не близится к вероятности

 

Как говорилось в работах [4; 5], в ТВ фактически используются два понимания вероятности - как меры и как частоты (точнее, как частоты неограниченно большой выборки). Второе понимание до сих пор не удалось строго формализовать, однако обойтись без него не удаётся, поэтому все практические применения ТВ основываются на неявном отождествлении этих двух пониманий вероятности (на аксиоме их эквивалентности). В этих терминах закон больших чисел утверждает сходимость частот к мере.

Центральная предельная теорема ТВ гласит, что сумма независимых случайных величин (распределённых одинаково или различно) в широких условиях сходится к одному-единственному распределению (это - гауссово распределение). Точную формулировку этих условий можно найти в любом курсе ТВ, нам же достаточно следующего: совокупность случайностей приводит к гауссову распределению, если выполнены три условия:

1)                 равновозможность (самих событий и их серий);

2)                 аддитивность (результирующая случайность есть сумма);

3)                одномасштабность (дисперсии слагаемых равномерно ограниченны).

Если эта тройка условий (тройная симметрия) выполнена, то, в частности, выполнен закон больших чисел (тонкости опускаем). Если же хоть одно нарушено, то результирующая случайность может (но не обязана) оказаться иной - итоговое распределение может носить иной характер, нежели гауссово. При этом частота повторов отдельного исхода может не приближаться ни к какому определённому значению, т.е. об аксиоме эквивалентности говорить нельзя.

Нарушение условия равновозможности легче всего увидеть, сравнив серию бросаний игральной кости с серией бактериальных делений.

Правильная кость падает на каждую грань с равной частотой, которую можно отождествить с вероятностью. Это пишут во всех учебниках, но можно пойти дальше: если кость несимметрична, её можно заменить на симметричную, у которой число граней больше: если на разные грани кость падает с частотами p1, p2,..., pN, то надо привести эти дроби к общему знаменателю Q, изготовить симметричную Q-гранную кость (это может быть, например, длинная симметричная Q-гранная призма) и приписать каждый номер (от 1 до N) стольким граням, какова доля соответствующей грани исходной кости в величине Q. Новая симметричная кость будет демонстрировать номера 1,2,...,N с теми же вероятностями, что и исходная кость. Это значит, что принцип равновозможности исходов работает далеко за пределами внешне симметричных генераторов случайности. Данное обстоятельство ещё 300 лет назад понял Якоб Бернулли.

Однако далеко не всегда можно свести случайное явление к какой-то симметричной кости. Рассмотрим в виде примера деление бактерий. Пусть каждая бактерия делится ежечасно и может при этом с равной вероятностью либо поделиться, либо погибнуть. Потомство одной особи, полученное бесполым путём, называется клоном. Очевидно, что средняя численность клона при таких условиях будет оставаться неизменной (одна особь). Но реальная картина оказывается весьма далекой от средней.

Если следить за десятком тысяч клонов, то окажется, что через 100 поколений сохранилось всего около 200 клонов, тогда как остальные 9800 за это время вымерли. Зато оставшиеся в живых 200 клонов окажутся весьма различными по численности: в них будет от одной до тысячи и более бактерий, в среднем же по 50 бактерий на клон, что и даст необходимые 10 000 особей. Тем самым, неизменный баланс - одна особь на исходный клон - реализуется крайне неравномерно: почти все клоны имеют нулевую численность, да и у оставшихся численности очень различны.

При этом клонов, представленных одной-единственной особью, т.е. средним числом, будет всего около трёх (из 10 тысяч!), следовательно, термин "среднее" не несёт здесь того смысла "наиболее вероятного", что в гауссовой статистике. Наоборот - наиболее вероятная численность здесь всегда далека от средней: она или гораздо ниже (в нашем случае - нулевая численность вымерших клонов), или гораздо выше (50 на выживший клон в среднем) [2] (Сравним: в 1984 г при общем числе установленных электродвигателей на Череповецком металлургическом комбинате 63358 штук-особей и средней их мощности 34,9 кВт максимальная мощность единицы составила 20000 кВт, минимальная 0,25 кВт; двигатели меньшей мощности не включались в число электродвигателей. Повторяемость видов электродвигателей, т.е. отношение количества отремонтированных штук-особей к количеству видов, к которым их можно отнести, для 92568 особей в чёрной металлургии составила 4,61. Причём каждый из 10851 видов электродвигателей в течение года встретился в ремонте один раз, т.е. был представлен одной особью, в то время как двигатели 4А мощностью 1,1; 1,5; 3,0 кВт или АОЛ 0,27 кВт встречались десятками и сотнями. О среднем виде двигателя и здесь говорить не приходится).

Тем самым, термин "самое вероятное" имеет тут сразу два противоположных смысла, а термин "среднее" осмыслен только в пределах своего кластера. Кластер - это компактное множество элементов, имеющих близкие свойства, причём каждый кластер имеет свои характеристики, свою норму. В нашем случае основных кластеров два - вымершие и выжившие.

Если в обычной гауссовой статистике можно хоть в каком-то смысле говорить о норме как о среднем (например - средний рост считать нормальным ростом), то здесь норму одним числом выразить нельзя и приходится вводить новый язык, язык кластеров.

Кость, сколько её ни бросай, всегда упадёт на одну из граней - вот весь спектр её элементарных возможностей, так что можно говорить об определённом соотношении частот разных граней. Если же обратиться к примеру с клоном бактерий, то оказывается, что элементарная возможность здесь - численность клона в момент t; а она может оказаться любой - от 0 до 2t; другими словами, здесь можно ввести только очень странную "игральную кость": перед каждым бросанием у неё случайным образом изменяется число граней, причём пределы этих изменений (спектр возможностей) очень быстро растут.

Тот факт, что спектр исходов процесса деления распадается на два основных кластера, при описании на традиционном языке ТВ выражается в неограниченном росте дисперсии, т.е. для оценки вероятностей событий по их наблюдаемым частотам здесь следует брать нереально большое число независимых опытов (в нашем примере - около миллиарда серий по сто поколений в каждой). Другими словами, закон больших чисел фактически не выполняется и о вероятностях (как близких к пределу частотах) говорить нельзя, хотя вероятности-меры вычислить можно.

Привычная статистическая методология рушится, требуется прилагать другую - методологию системности: случайное выживание порождает возможность следующей случайности (выживания в следующем поколении), тогда как случайная гибель никакой новой случайности породить не может. Вот, наглядно говоря, источник асимметрии, порождающий случайность нового типа.

 

6. Устойчивые распределения неустойчивых частот

 

Случайные явления, для которых не имеет места закон больших чисел (а с тем и центральная предельная теорема), называют негауссовыми. Их наиболее важное для нас свойство - медленная сходимость, не экспоненциальная, а гиперболическая. Мир негауссовых случайностей более мягок и разнообразен, тут нет привычной физику и технетику чёткой воспроизводимости массовых опытов, поскольку нет устойчивых частот (т.е. частот, у которых относительные дисперсии с ростом объёма выборки уменьшаются).

Однако математическое описание и тут возможно - надо лишь чем-то ограничить класс искомых распределений. Обычно рассматривают класс устойчивых распределений. Закон распределения случайных величин называют устойчивым, если сумма (точнее, линейная комбинация) одинаково распределённых величин оказывается распределённой по тому же закону, что и слагаемые. Устойчивость распределения есть обобщение гауссовости: если распределение суммы случайных величин, имеющих конечные дисперсии, в широких условиях сходится к гауссову (центральная предельная теорема), то не имеющих (но одинаково и устойчиво распределённых) - к случайной величине с той же формой распределения.

Среди устойчивых распределений только одно - гауссово - относится к миру вероятностных явлений, а все остальные - к миру неустойчивых частот. Иногда теорию устойчивых распределений излагают в курсах ТВ - например, [13] (хотя в терминах нашей темы это - другой раздел алеатики), но всегда делается упор на их сходство (на то, что они - обобщение гауссовости); при этом остаётся в тени их фундаментальное различие: все устойчивые распределения, кроме гауссова, имеют неограниченные дисперсии, а потому описывают события, которые имеют вероятности-меры, но не имеют вероятностей, понимаемых в виде пределов частот. Ведь устойчивость частоты исхода естественно понимать как ограниченность её дисперсии.

Нас будут интересовать устойчивые распределения неустойчивых частот. К сожалению, почти все устойчивые плотности не выразимы в элементарных функциях (через обычные формулы). Однако известно, что все устойчивые плотности (кроме гауссовой) убывают при больших x приблизительно как гиперболы вида

f(х)=х-1-α, где 0 < α < 2.                                                            (1)

В теории устойчивых распределений доказывается, что устойчивые плотности всегда одновершинны. Если вершина расположена при х>0, это создаёт иллюзию сходства с обычной ("гауссовой") статистикой, где вершина - нечто близкое к наиболее вероятному. Но иллюзия обманчива: в силу (1) дисперсия f(x) бесконечна. А вот если вершина расположена при х<0, причём величина х по своему смыслу положительна, то тогда правый хвост устойчивой плотности хорошо моделирует гиперболическую плотность распределения. Так обстоит дело, например, с распределением биологических видов по родам - распределением Виллиса.

 

7. Гиперболические распределения

 

Джон Кристофер Виллис, как почти все английские ботаники, был поначалу очарован учением Дарвина; однако, видя его слабую фактическую обоснованность, он решил собрать недостающую аргументацию сам. В своём "Словаре цветковых растений и папоротников" он насчитал 12 561 род цветковых, из которых 4853 рода содержали по одному виду (сравним: в 1979 г. в СССР было установлено 1702 печных трансформатора, оказавшихся 110 видов – по одному 28; на Магнитогорском металлургическом комбинате в 1973 г. - станций управления электроприводом постоянного и переменного тока прокатных станов 3577 особей, 510 видов – по одному 109; отремонтировано в 1975 г. на Карметкомбинате 6672 особи 1868 видов, по одному – 1107).

Поразительно: ведь понятие рода для того и введено, чтобы объединять сходные виды, на одновидовой род принято смотреть как на исключение из правила - то ли следствие плохой изученности, то ли плохой работы систематика, то ли вымирания видов. Но вот выяснилось, что таких родов - более трети, зато несколько из них - просто гиганты: астрагал (из бобовых) - 1600 видов, крестовник (из сложноцветных) - 1450 видов (в наше время эти роды выросли ещё больше - в каждом находят более 2 тыс. видов).

Виллис построил графики: по оси абсцисс число видов в роде, а по оси ординат количество соответствующих родов - и получил довольно хорошие гиперболы. Для сравнения Виллис просчитал некоторые семейства низших растений, а также жуков, змей, ящериц и нашел ту же закономерность [14]. Разные исследователи, разная изученность и разный возраст таксонов, а результат вышел один и тот же. Если бы разнообразие видов зависело просто от разнообразия условий обитания, как учил Дарвин, то оно не могло бы так чётко следовать закону, игнорирующему всякую экологию. Гиперболы подтверждали, как счёл Виллис [14, гл. 21], иную теорию эволюции. Эволюционную сторону вопроса можно узнать в другой работе [3], здесь же нам интересна случайностная.

Несколько характерных распределений электрических видов по родам, можно взять из работы А.С.Исаева [15, с. 220], где они даны без всякого пояснения; для его хотя бы частичного восполнения привожу мой подсчёт по словарю [16] для отряда рукокрылых (летучих мышей), который содержит 899 видов в 173 родах:

количество видов в роде

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

35

46

49

59

67

86

число таких родов

75

23

19

13

8

5

3

3

4

3

2

2

1

4

1

1

1

1

1

1

1

1

Каждое распределение в левой части хорошо описывается гиперболой, а справа от середины графика картина сложнее: ближе к середине налицо локальные максимумы, а далее направо (как видно из таблицы) данные теряют регулярность, и отнесение их к гиперболе довольно произвольно.

Сам Виллис пытался вывести открытую им закономерность из истории своих объектов: по его мнению, в роде тем больше видов, чем он старше и чем шире распространён по Земле. Какую-то связь между обилием видов, возрастом и зоной обитания он действительно показал, но не смог доказать, что эта связь определяет суть явления (то же – в электрике). За последующие 80 лет исследования в разных науках показали, что распределения, похожие на виллисовы "гиперболы", наблюдаются на столь различных объектах, что искать им частные объяснения вряд ли стоит.

Системолог В.В.Фуфаев, исследующий техноценозы, показал, как строится типичная "гипербола" в рамках электрохозяйства крупного промышленного объекта [17, c. 44]: по оси ординат при ранговом Н-распределении откладывается значение какого-то функционального параметра, например, величина электропотребления или потребляемая мощность, а по оси абсцисс ранг – номер предприятия (цеха) при их расстановке по мере убывания параметра; при видовом Н-распределении: по оси абсцисс – численность вида (популяции), по ординате – количество видов, имеющих такую (одинаковую) численность. Левая часть, как и у Виллиса, похожа на гиперболу, осложнённую локальным максимумом вблизи центра, а правая часть названа гиперболой тоже достаточно произвольно.

Сравнение этих (и подобных им) рисунков наводит на мысль, что сходство их вызвано какой-то общесистемной причиной, общей для всех объектов, подчиняющихся "гиперболической статистике" (которую можно признать гиперболической, лишь игнорировав локальные максимумы). Её до сих пор никто, насколько мне известно, не указал, хотя отдельные соображения на сей счёт высказывались. Не касаясь гипотез, толкующих отдельные узкие классы объектов, отмечу, что А.И.Яблонский [18] видел главное свойство таких систем в неограниченности дисперсий их переменных, а причину последней указывал такую: изменение каждой величины имеет как вероятностную, так и детерминированную компоненты. С.Д.Хайтун [19], напротив, уверен, что все величины носят тут вероятностный характер, несмотря на неограниченные дисперсии.

В работе [5] я предложил подход, прямо противоположный подходу Яблонского: неограниченная дисперсия указывает, на мой взгляд, путь от стохастичности не к детерминированности, а от неё, в сторону ещё меньшей детерминированности, т.е. к отказу от вероятности как детерминированной характеристики случайного явления. Помимо приведённых ранее доводов, добавлю такую параллель: встретив гауссово распределение, мы всегда готовы признать, что соответствующее явление обладает определёнными чисто случайностными свойствами (охарактеризованными выше как тройная симметрия); точно так же, встретив "гиперболическое" распределение, естественно искать иной тип случайности (связанный с отсутствием тройной симметрии). А это ведёт, в общем случае, к отказу от аксиомы эквивалентности и с тем от обычно понимаемой вероятности. Но тогда апелляция к детерминированной компоненте (кстати, по существу Яблонским не указанной) становится излишней.

 

8. Заключение

 

Стохастичность динамических систем возникает в тех процессах, где с течением времени происходит перемешивание и расширение фазового объёма системы, а самоорганизация, наоборот - там, где происходит его сжатие (для сравнения: обычная статистическая физика исходит из идеи сохранения фазового объёма.) В больших системах возможно расширение по одним фазовым областям или подпространствам и сжатие по другим, поэтому траектория реального процесса может переходить из области сжатия в область растяжения и обратно, что воспринимается как фазовые переходы. Поэтому, наблюдая за маргинальным участком (свойством, срезом) такой системы, естественно ожидать встретить наиболее сложно устроенную случайность. В силу асимметрии (точнее, нарушения тройной симметрии) она может приводить к похожим на гиперболы распределениям частот, но нет никаких оснований искать (а тем более - додумывать) аккуратные гиперболы. Напомню, что устойчивые распределения, привлекаемые для описания явлений с неограниченными дисперсиями, сами не являются гиперболами, а лишь имеют гиперболический участок.

Итак, случайности бывают разные - как по источнику и механизму (выше указано 7 типов) и по степени беспорядочности (6 ступеней), так и по свойствам распределений (2 основные формы их - гауссовы и негауссовы). Эти виды классификации случайностей (как и другие, возможные) тесно связаны друг с другом, но одно очевидно: случайность - не прихоть мышления, не следствие чьей-то глупости, а реальное явление. Хотя ответа на вопрос "Что такое случайность?", устраивающего всех, нет и видимо никогда не будет. Но это не должно мешать изучать само явление.

 

 

 

 

 

Литература

1. Гнеденко Б.В. Курс теории вероятностей. М., 1961.

2. Чайковский Ю.В. Выживание мутантного клона // Генетика, 1977, N 8.

3. Чайковский Ю.В. Элементы эволюционной диатропики. М., Наука, 1990.

4. Чайковский Ю.В., Алеатика - наука о случайности // Ценологические. исследования, N 1. Абакан, 1996.

5. Чайковский Ю.В. Ступени случайности и эволюция // Вопросы философии, 1996, N 9..

6. Чайковский Ю.В. Что такое вероятность. Анализ понятия от древности до Пуассона // Ист.-матем. исслед., вып. 6 (41).

7. Колмогоров А.Н. Основные понятия теории вероятностей. М., 1936.

8. Шень А. Алгоритмическая сложность и случайность: недавние результаты // Теория вероятностей и ее применения, 1992, N 1.

9. Williams C.B. Patterns in the Balance of Nature; and the Related Problems in Quantitative Ecology. Academic Press, London and New York., 1964.

10. Кудрин Б.И. Применение понятий биологии для описания и прогнозирования больших систем, формирующихся технологически// Электрификация металлургических предприятий Сибири. Вып.3. Томск: Изд-во ТГУ, 1976.

11. Кудрин Б.И. Введение в технетику. Томск: Изд-во ТГУ. 1991 (1993).

12. Заславский Г.М. Стохастичность динамических систем. М., 1984.

13. Феллер В. Введение в теорию вероятностей и ее приложения. М., т. 2, 1984

14. Willis J.C. Age and area. Cambridge, 1922.

15. Исаев А.С. Математические модели дискретных величин // Ценологич. исслед., вып. 1. Абакан, 1996.

16. Словарь названий животных. Млекопитающие. М., 1988.

17. Фуфаев В.В. Ценологическое определение параметров электропотребления, надёжности, монтажа и ремонта электрооборудования предприятий региона. М., 2000.

18. Яблонский А.И. Математические модели в исследовании науки. М., 1986.

19. Хайтун С.Д. Проблемы количественного анализа науки. М., 1989.