возникнуть), в котором все заранее предначертано и ничего нельзя изменить.

УВАЖАЕМЫЙ ЧИТАТЕЛЬ!

Литература по вопросам, затронутым в книге, настолько обширна, что привести ее всю нет возможности. Правда, это главным образом научные публикации Тем, кто захочет продолжить знакомство с темой книги, я могу порекомендовать несколько работ, включая ряд вполне доступных для многих научных монографий:

Алексеев Г Н Энергия и энтропия. М , «Знание», 1978.

Бирюков Б. В., Геллер Е. С. Кибернетика в гуманитарных науках. М., Наука, 1973.

Данин Д. Вероятностный мир. М, Знание, 1981.

Дюк рок А. Физика кибернетики. В сб.: Кибернетика ожидаемая и кибернетика неожиданная. М., Наука, 1968.

Налимов В. В. Вероятностная модель языка: о соотношении естественного и искусственного языка. Изд. 2?е. М., Наука, 1979.

Сачков Ю. В. Введение в вероятностный мир. М., Наука, 1971

Седов Е. А. Репортаж с ничейной земли. М., Молодая гвардия, 1966.

Седов Е. А. Эволюция и информация. М, Наука, 1976

Урсул А. Д. Информация. Методологические аспекты М , Наука 1971.

Шамбадаль П. Развитие и приложения понятия энтропии. М., Наука, 1967.

Я г л о м А. М., Я г л о м И М. Вероятность и информация. М.Наука, 1973.

ПРОБЛЕМА ЭНТРОПИИ В СОВРЕМЕННОЙ науке

(ПОСЛЕСЛОВИЕ)

Проблема энтропии — пожалуй, одна из самых «горячих» точек современной науки. Гносеологический интерес к ней стимулируется нарастающим давлением практики, новыми научными и техническими достижениями. Немалое значение имеют возобновившиеся дискуссии относительно возможности понижения энтропии вследствие самоорганизации и предполагаемых ограничений в действии второго начала термодинамики. В последнее время эти дискуссии приобретают порой драматический характер, хотя ведутся не столько на страницах научных изданий, сколько в популярных журналах и брошюрах, нередко на безответственном уровне и в запальчивой форме.

Поэтому объективное, научное и вместе с тем доступное широкому кругу читателей изложение современного состояния проблемы заслуживает безусловного одобрения.

Понятие энтропии введено в науку Клаузиусом в 1865 году как логическое развитие термодинамики Карно, сформулированной еще до открытия закона сохранения энергии и основанной на теплородной гипотезе. Энтропия характеризовала свойства макроскопической системы в условиях покоя или равновесия применительно к обратимым (идеальным) процессам.

Распространение концепции Клаузиуса на необратимые процессы привело к заключению, что в необратимых взаимодействиях (свойственных макросистемам) энтропия возрастает.

Дальнейшее развитие физики обусловило появление статистической термодинамики, в основу которой легла формула Больцмана, связывающая энтропию с логарифмом вероятности состояний системы (энтропия Планка). Здесь проявляется на макроуровне необратимость времени: со временем энтропия растет, хотя на микроуровне все процессы обратимы и направления времени «вперед» и «назад» симметричны.

Шеннон ввел понятие энтропии в качестве меры неопределенности знания о чем-либо, а сообщение как средство увеличения знания. Соответственно сообщение, переданное по каналу, связи, уменьшает первоначальную энтропию, а шум в канале увеличивает энтропию сообщения. Отсюда родилось понятие информации как меры уменьшения энтропии. Энтропия Шеннона есть сумма произведений вероятности состояния системы на двоичный логарифм этой вероятности, взятая с обратным знаком. Для вычисления энтропии, следовательно, требуется знать распределение вероятностей. Концепция Шеннона позволила ему построить фундаментальную теорию, которая получила широкое признание, большое практическое применение и продолжает интенсивно развиваться.

Аналогия между термодинамической энтропией (энтропией Клаузиуса), энтропией вероятности состояний (энтропией Планка) и информационной энтропией (энтропией Шеннона) сыграла определенную положительную роль в формировании концепции организации, упорядочения и случайности.

И. Пригожин показал, что нелинейные неравновесные процессы способны порождать макроорганизацию, для которой можно сформулировать условия устойчивости. Если эти условия не выполняются, могут возникнуть новые упорядоченные структуры, и т. д. Современные математические методы позволяют описывать такие процессы, но не позволяют определять, по какому из возможных путей пойдет развитие от неустойчивых точек. Система как бы «выбирает» свое дальнейшее поведение, и то, что аппарат описания процесса допускает возможность такого выбора, свидетельствует о несовершенстве наших физических знаний, в частности знаний об энтропии как «меры организации».

Представление об энтропии эволюционировало вместе с представлением об энергии — основной категории естествознания.

Под энергией понимается общая мера различных процессов и видов взаимодействия. Энергия позволяет измерять различные физические формы движения и взаимодействия единой мерой. Энергия есть первичная категория, количественно характеризующая фундаментальные свойства материального мира. Отсюда — по аналогии — возникло определение энтропии как меры «беспорядка», «дезорганизации» физической системы, а негэнтропии как меры организации.

Категории движения и покоя вполне обоснованы физически, но понятие организации физического обоснования и объяснения не имеет. Когда говорят о мере, прежде всего предполагается возможность измерения («физика — это отклонение стрелок»). Энтропия — единственная физическая величина, которая не измеряется, а вычисляется.

И все же благодаря энтропии мы нащупываем путь к сущности организации материи.

Определенную роль в этом смысле сыграла теория информации. Словарное определение термина «информация» многозначно:

1) совокупность каких-либо сведений, знаний о чем-либо;

2) сведения, являющиеся объектом хранения, передачи и переработки;

3) совокупность количественных данных, выражаемых при помощи цифр или кривых, графиков и используемых при сборе и обработке каких-либо сведений;

4) сведения, сигналы об окружающем мире, которые воспринимают организмы в процессе жизнедеятельности;

5) в генетике — совокупность химически закодированных сигналов, передающихся от одного живого объекта другому (от родителей потомкам) или от одних клеток, тканей, органов другим в процессе развития особи;

6) в математике, кибернетике — количественная мера устранения энтропии (неопределенности), мера организации системы;

7) в философии — свойство материальных объектов и процессов сохранять и порождать определенное состояние, которое в различных вещественно-энергетических формах может быть передано от одного объекта другому; степень, мера организованности какого-либо объекта (системы).

Вместе с тем физические аспекты информации не переставали привлекать внимания исследователей. Одним из важных следствий этого является тот вывод, что при физическом подходе нет надобности вводить новую меру количества информации. Вряд ли существуют природные явления или отрасли техники, в которых физические процессы переноса и преобразования информации не играли бы выдающейся роли. Более того, невозможно отличить — не только теоретически, но и практически — энергетическое или силовое воздействие от последствий получения информации, заключенном в этом воздействии. Проблемы причинности и физической сущности пространства и времени тесно связаны с категорией информации, которая (независимо от терминологии) используется естествоиспытателями с незапамятных времен.

Тем не менее нельзя не отметить определенного эклектизма в обращении с этой категорией не только в различных областях науки, но и в практике, что породило впечатление о «нефизичности»,

Добавить отзыв
ВСЕ ОТЗЫВЫ О КНИГЕ В ИЗБРАННОЕ

0

Вы можете отметить интересные вам фрагменты текста, которые будут доступны по уникальной ссылке в адресной строке браузера.

Отметить Добавить цитату