Безкоштовна бібліотека підручників
Філософія: конспект лекцій : Збірник працьФілософія: конспект лекцій : Збірник праць

Об определении информации


А.А. Борисенко

сумской государственный университет

В статье рассматриваются вопросы, связанные с определением информации в ее различных аспектах как в неживом, так и живом мире. Особое внимание акцентируется на вопросах проявления информации в виде ограничений.

Для того, чтобы проводить исследование какого-либо явления окружающего мира, необходимо дать его четкое определение. Это значит, что это явление должно определится через известные понятия.

Однако информацию, несмотря на затраченные многими учеными большие усилия, до настоящего времени не удалось определить через такие понятия и,

по-видимому, прежде всего потому, что информация относится к наиболее общим понятиям, как, например, понятие «энергия».

Тем более интересно рассмотреть различные подходы к определению информации.

Под информацией (лат. information - «ознакомление», «разъяснение») понимаются сведения, что представляет собой тавтологию слова информация [4, 185]. Однако это все же наиболее распространенное определение информации, которое подразумевает наличие ее источника и приемника. Определение информации в данном случае отсутствует, так как информация подменяется равноценным ему понятием сведения, а не понятием более высокого уровня, как это необходимо для определения.

Интуитивно информация представляется как НЕЧТО, которое генерируется источником и принимается приемником, и затем оказывает существенное влияние на другие явления, например, на траекторию движения самолета.

Важным фактором в определении информации как сообщения является то, что информация существует только в системе "источник - приемник" и только во время ее передачи. Хранимая в памяти источника или приемника информация при этом из рассмотрения исключается. Эта информация отличается от передаваемой информации тем, что находится вне движения, т.е. является потенциальной. В результате значительно сужается область действия понятия «информация».

Именно на таком сравнительно узком понимании информации и была первоначально построена теория информации ее основателем К. Шенноном. Сознавая это, он с большой осторожностью подходил к понятию «информация», исключив его из заголовка своей основополагающей работы по теории информации, назвав ее "Математическая теория связи", подчеркивая тем самым ограниченность предлагаемой им теории вопросами связи [5]. При этом какого- либо определения информации в работе не было дано вообще.

Кроме того, в своей статье "Бандвагон" К. Шеннон прямо предостерегал от излишнего увлечения созданной им теорией и непосредственного перенесения её результатов на другие области науки, далеко отстоящие от систем связи, такие, например, как биология, экономика, психология, физика. По этому поводу он пишет, что "очень редко удается открыть одновременно несколько тайн природы одним и тем же ключом" [5, 667-668].

Как показало дальнейшее развитие его теории, введенное им понятие «информация», играет пока еще не совсем ясную, но фундаментальную роль во многих других науках, в том числе философских и физических.

Начинается работа К. Шеннона по теории связи со структурной схемы системы передачи информации, затем предлагается способ ее измерения, основанный на мере Хартли, которая обстоятельно им обосновывается [5, 244-245].

Затем вводится основополагающее для современной теории информации понятие «энтропия» как меры степени неопределенности, через которую уже затем происходит измерение информации. Таким образом, удалось измерить информацию, не имея ее качественного определения.

Но все же, чтобы плодотворно применять понятие «информация», нужно дать ей еще и такое определение.

Например, в работе Н. Кондакова понятие «информация» рассматривается уже не как снятие неопределенности, а как отражение разнообразия, которое существует там, где имеется различие. Где нет разнообразия, там нет и информации. Под разнообразием понимается при этом конечное множество состояний некоторой системы, которые она свободно может принимать

[3, 211].

Предполагается, что информация возникает только тогда, когда система случайным образом переходит в одно из своих возможных состояний. И так как эти состояния должны быть четко различимы и при этом следовать в случайном порядке, то система будет находиться в движении и соответственно генерировать информацию.

Основоположником данного подхода к определению информации является английский нейрофизиолог У.Р. Эшби, который обосновал его в своей книге "Введение в кибернетику" [6]. Это направление сегодня можно сформулировать как структурную теорию информации.

Однако только этим подходом попытки содержательного определения информации не были ограничены.

В философии под информацией часто понимают результат процесса отражения одних ее объектов в другие. Тем самым информация выводится за пределы систем связи.

Данному определению, как и другим, рассмотренным выше, присуща схема "источник - приемник" информации. Поэтому количество и качество получаемой приемником информации зависит не только от структуры генерирующего её источника, а и от структуры приемника.

Возникает вопрос о возможности существовании информации до появления биологических и кибернетических систем, когда приемники информации в современном их понимании отсутствовали. Здесь мнения ученых разделились. Одна группа считает, что если исходить из понятия «информация» как сообщения, то следует допустить, что до возникновения растительного и животного мира информации в природе не было, а в неживой природе нет ее и сейчас. Другие ученые полагают, что информация существует и в неживой природе, но в простейшей форме. При этом считается, что информация - это атрибут природы, но который не является ни материей, ни энергией [3, 211-212].

На самом деле, по мнению автора, информация - это не просто свойство (атрибут) природы, а ее творец. Причем творец идеальный, существующий вне материального мира. Чтобы аргументировать это положение следует четко дать соответствующее ему определение информации.

Информация — идеальная сущность, проявляющаяся в ограничениях.

В данном случае сущность представляет собой то НЕЧТО, о котором говорилось выше. Она создает ограничения исходного разнообразия состояний систем и проявляется только в них. Это значит, что информация, являясь абстракцией и идеализацией, творит природу, которая сплошь и рядом состоит из систем и системных образований. Они, как известно, обладают структурой и связями, а значит ограничениями на свои состояния. Их отсутствие привело бы к распаду всех существующих систем и соответственно природы в целом. Следовательно, информация является тем "раствором", который скрепляет всю природу, формируя ее как единую систему. В этом системообразующем факторе состоит основная роль и значение информации в мире.

Впервые на ограничение разнообразия в природе обратил внимание У.Р. Эшби. Правда, он не дал соответствующего определения информации, что, однако, не уменьшает его заслуг как первооткрывателя важнейшей роли ограничений в формировании окружающего мира [6, 185].

Ограничения встречаются везде: в математике, физике, экономике, обыденной жизни и т.д. Именно благодаря им существует жизнь и все окружающие предметы.

Рассмотрим систему, обладающую N -состояниями, в которой отсутствуют ограничения на свободу равновероятного перехода в любое из N -состояний. Число N в данном случае представляет величину разнообразия и тем самым определяет степень подвижности системы. Такую систему назовем простейшей. Ее создает только одно ограничение - величина числа N , которая ограничивает число состояний в системе. Структура в обычном понимании в простейшей системе отсутствует, и соответственно отсутствуют зависимости между состояниями системы.

Важным требованием к простейшей системе является то, что в каждый момент времени она находится в каком-то одном из N своих состояний и одновременно осуществляет случайным образом переход в следующее состояние. Среди этих состояний может быть и то, в котором она уже находилась.

Нахождение системы в единственном состоянии А. А. Борисенко [2] определяет как принцип унитарности. Невзирая на его очевидность, он имеет большое значение для устойчивого существования окружающей среды, так как по существу представляет собой условие целостности окружающих объектов (систем).

В случае наблюдаются прямо противоположные свойства новой системы по сравнению с простейшей. Система лишена всякой гибкости, не может адаптироваться к окружающей обстановке и обладает наиболее жесткой структурой из возможных структур. В ней отсутствует какой-либо люфт, позволяющий сохранять структуру системы при незапланированных внешних воздействиях. Это заорганизованная система. Любое нарушение какой-либо из связей в ней приводит к ее разрушению. В то же время эта система обладает наибольшей жесткостью и твердостью и способна производить сильнейшее одноразовое воздействие на окружающую среду. Это в высшей степени неравновесная система.

Обратим внимание, что обе приведенные выше системы могут существовать самостоятельно без внешнего приемника информации. Это значит, что система отражается сама в себя, т.е. одновременно является источником и приемником информации. В результате имеют место явления самоотражения и самодвижения материи.

Таким образом, информация является идеальным объектом и поэтому проявляет себя в окружающей природе через ограничения. Благодаря им существуют природные системы и окружающая природа в целом - от простейших и до самых сложных, таких, как биологические системы.

Литература

Борисенко А.А. О некоторых аспектах современной теории информации // Вісник СумДУ. - 1994. - № 1. - С. 93-96.

Борисенко А. А. Принцип унитарности и его приложение к теории информации // Вісник СумДУ. - 2001. - № 24-25. - С. 154-160.

Кондаков Н.И. Логический словарь-справочник. - М.: Наука, 1975. - 717 с.

Философский энциклопедический словарь. - М.: Инфра, 2001. - 576 с.

Шеннон К. Работы по теории информации и кибернетике / Пер. с англ. - М.: Изд. иностр. лит., 1963. - 830 с.

Эшби У.Р. Введение в кибернетику / Пер. с англ. - М.: Изд. иностр. лит., 1959. - 430 с.



|
:
Філософія: конспект лекцій
Філософія глобальних проблем сучасності
Історія української філософії
Філософські проблеми гуманітарних наук (Збірка наукових праць)
Філософія: конспект лекцій : Збірник працьФілософія: конспект лекцій : Збірник праць