Седьмое доказательство - Виктор Печорин
Шрифт:
Интервал:
Закладка:
Всё это – свидетельства того, что сила А не только компенсирует действие силы М, но и превосходит её, пересиливает, заставляет материальный мир развиваться в направлении, противоположном его естественному стремлению к разрушению. Поэтому соотношение двух мировых сил правильнее будет выразить не уравнением, а неравенством:
А – M> 0 [2]
Найденное нами неравенство описывает модель развивающегося, эволюционирующего мира. Именно неравенство, неравновесность действующих сил позволяет ему развиваться в сторону усложнения, совершенствования.
Хаос и космос
Согласно древним мифам, первоначально мир представлял собой Хаос12 – бесформенное, недифференцированное скопление вещества (или смешение стихий), в котором не было ни верха, ни низа, ни края, ни середины. От греческого слова «хаос» впоследствии возник термин «газ» – такое состояние вещества, при котором вещество равномерно заполняет весь предоставленный ему объем. Можно представить себе первобытный Хаос как некий газ из частиц материи, некое подобие которого мы обнаруживаем в космосе и сейчас в виде газово-пылевых туманностей. А затем, гласит миф, боги придали Хаосу форму и упорядоченную структуру, создали из него звезды, планеты, Луну и Солнце, то есть установили во Вселенной организацию и порядок. Порядок по-гречески называется «космос». Таким образом, первобытный Хаос был преобразован в Космос.
Соотнося древний миф с тем, о чем мы говорили выше, можно сказать, что стремление силы М, под которой мы подразумеваем материю, направлено в сторону Хаоса, в то время, как сила А двигает мир в направлении Космоса, который следует понимать не как раз и навсегда установленный и застывший порядок, но как постоянно совершенствующуюся и усложняющуюся организацию материальных тел. При этом, вследствие превосходства силы А над силой М, реализована именно упорядоченная (космическая) модель Вселенной, и её упорядоченность продолжает нарастать, несмотря на постоянно продолжающийся процесс разрушения каждого из материальных объектов.
По представлениям Платона и его учеников, хаос (если говорить современным языком) есть такое состояние системы, которое остается по мере устранения возможностей проявления её свойств.
С другой стороны, из системы, находящейся изначально в хаотическом состоянии, возникает всё, что составляет содержание мироздания. Роль творящей силы – творца – Платон отводил Демиургу, который и превратил изначальный Хаос в Космос. Таким образом, все существующие структуры порождаются из хаоса.
Энтропия
В чем состоит различие между Хаосом и Космосом? По-видимому, в степени упорядоченности, в степени организации. Хаос характеризуется минимальной степенью упорядоченности, а Космос, соответственно, более высокой.
Физики предпочитают выражать состояние системы величиной, обратной степени организации, называя эту величину «энтропией» (обычно обозначается буквой S).
Этот термин был введен в научный оборот в 1865 году Рудольфом Клаузиусом, одним из основателей термодинамики. Клаузиус так объяснял значение изобретенного им слова. «Тропе» по-гречески означает «превращение»; к этому корню Клаузиус добавил приставку «эн», чтобы получившееся слово было созвучно слову «энергия», к которому энтропия близка по физической значимости.
Энтропия фактически выражает стремление материи к разрушению. Если представить себе конечное состояние, к которому стремится материя, т. е. состояние мира после полного его разрушения, то такое состояние будет обладать максимальной энтропией.
Энтропия – мера хаоса.
Австрийский физик Л. Больцман установил, что связь энтропии изолированной системы с вероятностью ее состояния выражается формулой
S = k ln N, [4]
где k = 1,38 • 10—23 Дж/К – постоянная Больцмана.
В изолированных системах всегда самопроизвольно происходят такие процессы, при которых с течением времени выравниваются температуры, давления, концентрации различных химических веществ, потенциалы и т. п. Все эти изменения приводят к возрастанию энтропии.
Таким образом, наиболее вероятным состоянием Вселенной является такое, при котором она обладает наибольшей энтропией, то есть – хаос.
Информация
Информация означает степень упорядоченности.
Станислав ЛемОбратную по отношению к энтропии величину мы назвали «степенью упорядоченности». Если энтропия характеризует стремление материи к состоянию хаоса, то степень упорядоченности указывает на движение в противоположном направлении – к упорядоченному состоянию, т. е. к космосу.
Что такое степень упорядоченности, представить несложно. Интуитивно любой человек имеет об этом представление. Представьте себе, что ребенок раскидал свои игрушки по всей комнате. Это – хаос. Но вы заставили его собрать все и сложить в коробку для игрушек. Теперь они не занимают всего пространства комнаты, но находятся в специально отведенном для них месте. Это – упорядоченное состояние.
Если вы рассортируете игрушки по какому-то признаку, например, отдельно мелкие, а отдельно – крупные, степень упорядоченности увеличится, так как теперь внутри категории игрушек выделятся какие-то подкатегории (структуры).
Термин «степень упорядоченности», несмотря на достаточную ясность и конкретность, не получил распространения. Вместо него широко употребляется другой термин: информация.
По-латыни informatio означает «разъяснение, изложение, истолкование, осведомление, сообщение о чем-то». Но слово informatio является производным от латинского выражения in-formo, означающего «придавать форму, порядок, устраивать, организовывать». Таким образом, информация означает не что иное, как степень упорядоченности.
Как известно, наука начинается тогда, когда от качественных оценок переходят к количественным, то есть, попросту говоря, когда появляется возможность измерять. Чем же измерить информацию? Может быть, количеством слов? Например, для исчисления величины писательского гонорара используется такая единица измерения, как авторский лист – лист определенного размера, заполненный авторским текстом, набранным шрифтом определенного размера. Можно воспользоваться для этой цели и количеством знаков (т. е. букв) в тексте. Но всегда ли информативность текста определяется его величиной? Можно прочитать толстенную книгу и извлечь из нее лишь одну банальную мысль, например о том, что неразделенная любовь – это плохо. В то же время, в маленькой первой главе книги Бытие содержится информация обо всей истории сотворения мира с начала времен. Не зря ведь говорят, что краткость – сестра таланта.
Конечно, связь между количеством слов или знаков и количеством информации имеется, но это должны быть не просто слова и знаки, а слова и знаки, содержащие значимые, существенные сведения.
Для измерения информации придумана специальная единица – бит. Что это такое? Один бит – это количество информации, устраняющее неопределенность при выборе одной возможности из двух равноценных. По существу, это ответ на элементарный вопрос, допускающий только два ответа – «да» или «нет». Как говаривал Иисус: «да будет слово ваше: да, да; нет, нет; а что сверх этого, то от лукавого» (Матф.5:37).
Очевидно, что чем более сложно организованную систему мы рассматриваем, тем больше число вопросов, которые у нас в относительно нее могут возникнуть, следовательно, тем большее количество информации содержится в этой системе.
Ну что, например, можно рассказать о Хаосе? Только то, что он существует. Но попробуйте описать Космос, состоящий из галактик, метагалактик, звездных систем, планет с лунами, астероидов, комет, «белых карликов», «черных дыр», нейтронных звезд, – и каждый из этих объектов движется по определенным законам и оказывает влияние на другие объекты! Безусловно, Космос (упорядоченное состояние Вселенной) содержит гораздо большее количество информации, чем Хаос.
В теории информации известен закон, гласящий, что количество информации, введенное в какую-либо систему, в результате различных ее преобразований не возрастает. Вследствие наличия помех (шумов) в каналах связи оно может либо уменьшиться, либо, в лучшем случае, остаться неизменным (закон сохранения информации). Здесь идет речь о так называемой абсолютной информации.
Существует также понятие распределенной информации. Если мы вводим одну и ту же информацию в несколько разных систем, то количество распределенной информации будет во столько раз больше количества абсолютной информации, во сколько систем она была введена. Например, если вот эту книгу прочитают 10 человек, то количество распределенной информации станет в 10 раз больше количества абсолютной информации, содержащейся в книге.