Безкоштовна бібліотека підручників
Філософія: конспект лекцій : Збірник працьФілософія: конспект лекцій : Збірник праць

К вопросу о сущности информации


А.А. Борисенко

Сумской государственный университет

Исследовано ряд вопросов, относящихся к сущности понятия информации. Среди них определение информации, семантический аспект, связи информации и мысли, взаимодействие физической и кибернетической информации. Отдельно рассматривается принцип унитарности, как основополагающий аспект рассматриваемого подхода в данной работе.

Ключевые слова: информация, принцип унитарности, семиотика, теория систем, информатика.

Одно из заметных достижений ХХ века - это создание К. Шенноном в 1947-1948 годах ХХ столетия современной теории информации, которая начала свое практическое вхождение в жизнь человека через теорию связи, а затем пришла практически во все сферы его деятельности, в том числе и в философские науки. Однако сегодня о сущности информации известно примерно столько же, сколько и во времена Платона и Аристотеля. Например, до сегодняшнего дня не закончена дискуссия, которая ведется вот уже несколько десятилетий, о наличии информации в неживой природе. Одна сторона утверждает, что информация появилась только при возникновении кибернетических систем, другая - что информация существует в природе изначально, и будет существовать, пока существует наш мир.

Появление и развитие теории систем и соответствующей литературы, посвященной ей, привело к дальнейшему повышению интереса к информации. И это не случайно, так как на сегодня информация относится к фундаментальным понятиям, на которых основываются свойства различных систем - как природных, так и искусственных. Особенно возросла роль теории информации с появлением вычислительной техники и основанной на ней новой науки - информатики. Однако только шенноновский подход к теории информации, основывающийся на вероятностно-статистических представлениях, на сегодня во многих случаях оказывается недостаточным для анализа сложных информационных процессов и систем, и поэтому требует дальнейшего развития. Прежде всего, он недостаточен для полного описания взаимодействующих (как по горизонтали, так и по вертикали) естественных систем и, в частности, самоорганизующихся.

Для того, чтобы расширить или изменить этот подход прежде всего необходимо исследовать сущностные аспекты феномена информации на качественном новом уровне и решить вопрос более современного определения информации, который до настоящего времени не нашел удовлетворительного решения. Обратимся с этой целью к Философскому энциклопедическому словарю: «Информация - это (information - лат.) разъяснение, изложение, истолкование, сообщение, осведомление» [1]. До начала 40-х годов ХХ в. информацию понимали только как передачу сведений от одного человека к другому или группе людей с помощью устной или письменной речи, непосредственно или с помощью специальных устройств. Другое распространенное определение информации: информация - это отображенное разнообразие [2]. Иными словами - информация существует там, где есть отображение (отражение) разнообразия одного объекта в другой в результате их взаимодействия. Если данные объекты не имеют отличий, то они не обладают по отношению друг к другу и информацией. Еще одно определение информации предполагает, что информация является свойством материальных объектов [3]. Очевидно, что все эти определения не проясняют сущность информации.

Важный шаг в качественном понимании информации сделал К. Шеннон, сведя её к некому свойству источника, позволяющему снимать у приемника неопределенность нахождения исходного объекта среди заданного числа возможных объектов [4]. Если неопределенности нет, то приемник имеет полную определенность об объекте, о котором идет речь, и тогда информация в переданном от источника сообщении отсутствует. В противном случае информацию надо передать приемнику в количестве, позволяющему ему однозначно идентифицировать искомый объект.

Любая информация, поступившая в приемник об искомом объекте, уменьшает величину его неопределенности. Поэтому разность неопределенностей до получения информации и после представляет собой величину полученной приемником информации. Этот тезис составил основу шенноновской теории информации и всех остальных основанных на ней теорий информации. Мера степени неопределенности искомого объекта была названа К. Шенноном энтропией. Сам термин энтропия был позаимствован Шенноном из термодинамики на основе скрытых аналогий, и только впоследствии выяснилось, что между шенноновской и термодинамической энтропией существует глубокая связь. Понятие энтропии и соответствующего ей антипода - информации (негэнтропии) оказались после работ Шеннона среди наиболее используемых в кибернетической литературе понятий. Оно перешло также в философские, гуманитарные, технические и естественные науки. Это лишний раз подтверждает общенаучный и общезначимый смысл этих понятий. Существенным для теории информации является то, что Шеннону впервые удалось поставить понятие информации на солидную количественную основу, выразив его через энтропию и логарифмическую меру информации, которая первоначально была предложена американским ученым Хартли в 1928 году для равновероятных сообщений. Однако эта мера требует дополнительных исследований, так как она была введена Хартли и Шенноном аксиоматически.

Так как рост определенности всегда связан с ростом порядка и организованности материи, то можно сделать вывод, что информация есть сущность, упорядочивающая и организующая материю. Недостаток данного определения информации состоит в том, что понятие порядка и организации также не достаточно ясны, как и понятие информации, и поэтому являются интуитивными. Однако легко заметить, что любой порядок, так или иначе, связан с ограничениями. В то же время отсутствие ограничений приводит к хаосу и беспорядку, так как ограничения уменьшают свободу поведения систем. Следовательно, информация связана с ограничениями, которые можно считать органически ей присущими. В соответствии с вышесказанным определим информацию как сущность, проявляющуюся в ограничениях. Это определение информации возьмем за основу всех дальнейших рассуждений. Из него следует, что появление в искусственной или природной системе ограничений является признаком наличия в ней информации. Увеличение количества информации и соответствующих ей ограничений приводит к уменьшению энтропии системы и, обратно, уменьшение информации и соответственно ограничений увеличивает ее энтропию.

Для систем любой природы У. Эшби выделил два основных параметра - конечное целое число состояний или степеней свободы (разнообразие) M и конечное целое число N - M запрещенных состояний (ограничение разнообразия), где N - число возможных степеней свободы при отсутствии в системе ограничений [2]. Естественно, что такой подход к анализу систем является упрощенным и реализует довольно грубую их модель, однако в ней при этом все же сохраняются наиболее существенные свойства реальных систем, в том числе и самоорганизующихся, способных самостоятельно адаптироваться к условиям внешней среды с целью наиболее эффективного на нее воздействия. При этом под состоянием системы понимается совокупность значений всех исследуемых её параметров таких, например, как температура, давление, объем и т.д. Эти состояния обычно предполагаются четко различимыми между собой и пронумерованными целыми числами 1, 2, ..., M. Выполнение указанных выше условий соответствует требованию принципа унитарности для информационных систем [5]. Этот принцип хотя и огрубляет реальные системы, но делает их доступными для моделирования с помощью дискретных математических средств и ЭВМ.

При наличии ограничений разнообразие системы M < N и соответственно для рассматриваемой модели M изменяется в пределах от 1 до N. В первом случае, когда M = 1, в системе отсутствует какая-либо свобода изменения состояний, а во втором, при значении M N, ограничения на эту свободу сняты. Соответственно в первом случае система обладает крайней неустойчивостью по отношению к возмущающим воздействиям окружающей среды, а во втором практически неуязвима для них. Однако в первом случае система способна к эффективному влиянию на внешние объекты, а во втором не способна к каким-либо существенным воздействиям на них, то есть является максимально неэффективной. Очевидно, что должно существовать определенное соотношение между разнообразием системы M и её ограничением N - M, при котором система будет оптимальной. Как показано в [6], такое оптимальное соотношение определяется максимальным количеством содержащейся в системе структурной информации. Именно в этом положении система с одной стороны наиболее эффективно воздействует на окружающую среду, а с другой - является достаточно устойчивой по отношению к ней. Данная модель показывает, что величины N и M являются конечными, а сами системы детерминированными. Поэтому шенноновская статистическая теория информации в данном случае не дает должного эффекта, а более результативной будет структурная теория информации, основанная на модели, предложенной Хартли, и затем развитой У. Эшби.

Особенность структурной теории информации проявляется в том, что она исследует равновероятные сообщения конечной длины. Именно такая теория наиболее близка к современным проблемам информатики - эффективному кодированию и задачам искусственного интеллекта. В основу этой теории положена процедура поиска объекта, находящегося среди N возможных объектов. Она состоит в последовательном разбиении исходного множества из N объектов на число k классов эквивалентности и их тестировании до тех пор, пока не будет найден класс, состоящий из одного искомого объекта. Эта модель в теоретическом отношении не противоречит статистической, однако при этом использует вероятности сообщений, а не их частоты, и описывает детерминированные, а не статистические процессы. В итоге появляется возможность получить новые результаты и дать им качественно другое объяснение, которое трудно или невозможно получить в рамках статистической теории информации.

Мерой информации в структурной теории информации является число последовательных разбиений множества из N объектов на число k классов эквивалентности (обычно k =2), содержащих равное количество объектов, в том числе и нецелое, до тех пор, пока не будет получен класс эквивалентности, содержащий один объект. Это число есть результат вычисления логарифма N и соответственно основывается на мере информации, предложенной в свое время Хартли для любых рациональных значений N.

Рассмотрим систему, обладающую N разрешенными состояниями. В соответствии с логарифмической мерой информации каждое состояние этой системы содержит единиц информации и соответственно суммарная величина информации, определяющая все состояния системы

Информация і позволяет отличать некоторое одно состояние системы от остальных, что необходимо в соответствии с принципом унитарности. При этом каждое состояние появляется в системе равновероятно и независимо от остальных, так как это, например, происходит с состояниями вращающейся стрелки на игральном столе. При этом незначительные отклонения от центра выпавшего номера игнорируется и тем самым удовлетворяется принцип унитарности. Такой подход упрощает анализ работы реальных систем и одновременно обобщает их структуры.

В качестве примера рассмотрим систему, имеющую состояний. Тогда количество информации, необходимое для выделения одного состояния системы битам, а, в общем, количество информации, требуемое для идентификации всех её 16 состояний, потребуется бита. Этой информации вполне достаточно, чтобы различать состояния системы (положение стрелки в примере), что и подтверждает имеющаяся практика.

Рассматриваемую систему с N различными возможными состояниями можно представить в виде черного ящика, на выходе которого в каждый фиксированный момент времени с равной вероятностью появляется одно состояние из N возможных состояний. Такая система обладает максимальным разнообразием (свободой) поведения, так как у нее нет каких-либо ограничений, которые запрещали бы ей переходить из состояния, в котором она находится, в любое возможное другое. Поэтому назовем её простейшей. Отсутствие ограничений в простейшей системе приводит к отсутствию в ней структуры. В результате эта система является наиболее простой из всех возможных, которые могут быть построены на основе её элементов.

Важной особенностью простейшей системы является то, что она находится в постоянном движении, проявляющемся в изменении состояний системы. При этом в соответствии с принципом унитарности в каждый фиксированный момент времени система должна находиться в одном и только одном из N возможных состояний. Для этого на движение системы должно быть наложено ограничение, которое бы запрещало одновременное появление на её выходе больше одного состояния. Действительно, если бы на выходе простейшей системы одновременно появлялись все или какая-то часть ее состояний, то у приемника существовала бы неопределенность о передаваемом ему состоянии, и получить всю информацию о нем было бы невозможно. Поэтому полная передача информации осуществима только при соблюдении принципа унитарности. Следует допустить, что этот принцип существует не только как воображаемая модель системы, а и объективно, и, по крайней мере, для макромира он является основополагающим, так как иначе невозможен был бы обмен информацией между различными искусственными и природными системами.

Информацию будем делить на информацию физическую и кибернетическую.

Любое отражение одной физической системы в другую, например, в виде следа на песке, представляет собой физическую информацию. Как правило, физическое взаимодействие присуще системам с относительно простой структурой, имеющейся в неживой природе. Обмен информацией в этом случае осуществляется только при непосредственном взаимодействии объектов, и сопровождается выполнением работы. Определить в данном случае, где приемник, а где источник информации не всегда удается, так как сила воздействия одного объекта обычно уравновешивается силой противодействия другого. Однако именно эти силы, являясь ограничениями для каждого из объектов, порождаются информацией, содержащейся в каждом из этих объектов. Разрушение или более сильная деформация одного из них свидетельствует о более слабых ограничениях, содержащихся в нем и соответственно более сильных следах взаимодействия. Тем самым именно этот объект следует считать приемником информации. Так окаменелый след ноги древнего человека несет в себе информацию о взаимодействии более прочной структуры объекта - ноги человека, являющейся источником информации, и приемника информации - структуры материала, в котором запечатлелся след ноги человека. Этот след со временем приобрел дополнительные ограничения, позволившие сохранить его в течение тысячелетий.

Взаимодействие между объектами в неживой природе наблюдалось всегда и повсеместно. Оно происходит и сейчас. При этом возникали взаимодействующие пары типа объект - субъект и соответственно обмен информацией происходил в неживой природе постоянно. Особенность такого взаимодействия состоит в том, что информационные процессы сопровождаются в нем выделением большого количества тепла, т.е. неуправляемого хаотичного движения, свидетельствующего о больших энергетических затратах при обмене информацией. Однако дальнейшее развитие неживой природы, происходившее за счет постоянного обмена информацией её объектов, постепенно привело к их усложнению, которое в конечном итоге создало предбиологические системы. Обмен информацией в них происходил значительно сложнее и с меньшими энергозатратами.

Кибернетические системы появились при возникновении биологических объектов и в конечном итоге человека и созданных им управляющих систем и устройств. Характерной чертой обмена информации в кибернетических системах является наличие в них четко определенных источника и приемника информации, первый из которых представляет собой объект передачи информации, а второй - субъект. Кибернетический приемник информации должен заранее «знать» все возможные N состояния источника, которые могут придти к нему в виде сигналов и уметь их распознать (дешифровать). Для этого он должен обладать достаточно развитой памятью и системой дешифрации (распознавания) входных сигналов. Если же на его вход приходит неизвестный сигнал, то приемник должен запомнить его и включить в систему уже известных ему сигналов источника, чтобы в дальнейшем иметь возможность распознавать данный сигнал. Таким образом, приемник кибернетической информации должен обладать значительно большей сложностью, чем порождающий эту информацию источник.

Кибернетическая информация возникает при взаимодействии сложных систем, обладающих целевым поведением и решающих задачи управления. Это наиболее высокоорганизованные системы, которые используют кодирование своих состояний и специфическое взаимодействие между собой. Взаимодействие этих систем кроме кибернетического уровня всегда сопровождается обменом информацией на физическом уровне, который является основой для появления кибернетической информации. Поэтому исследования процессов информационного обмена на физическом уровне является предпосылкой их более глубокого понимания на кибернетическом уровне.

Основная цель работы источника информации в кибернетических системах заставить приемник изменять свои состояния синхронно с источником. Смысл такого изменения состоит в том, что при переходе в какое- либо состояние источника информации приемник должен найти соответствующее ему состояние и перейти в него. При знании приемником вероятностей появления тех или иных состояний источника, величина получаемой им информации будет определяться с помощью формулы для вычисления величины энтропии, предложенной Шенноном [4].

Принципиальной особенностью кибернетической информации является превалирование в ней информационного аспекта над энергетическим. Затраты энергии при передаче кибернетической информации могут быть чрезвычайно малыми и несравнимыми по величине с затратами энергии при информационном обмене в физических системах. Поэтому кибернетические системы часто называют информационными системами, а физические системы - энергетическими. Хотя в тех и других системах присутствуют как информационные, так и энергетические процессы. Это значит, что информация в природных системах неотделима от энергии.

Одним из аспектов кибернетической информации - это наличие в ней семантического (смыслового) аспекта. С точки зрения рассматриваемого подхода к определению понятия информации различия между семантическим уровнем информации и более низким синтаксическим не носит принципиального отличия, а представляет иерархию ограничений на множестве из N элементов. Синтаксический уровень информации это первые исходные ограничения на заданном множестве элементов, образующие начальную наименее организованную структуру кибернетической системы из этих элементов. Очевидно, что при этом число исходных N разрешенных состояний системы уменьшается до M состояний, а в системе появляется структурная информация, содержащаяся в связях системы.

Новые ограничения на имеющиеся M состояний в системе при определенных условиях приведут к появлению и новой информации, которая представляет собой семантическую информацию по отношению к предыдущему уровню информации. Введение очередных ограничений позволяет получить еще более высокий уровень семантической информации, по отношению к которому предшествующий уровень можно считать синтаксическим и т. д. Однако такое введение развитой иерархии ограничений, а значит и новых связей, рано или поздно столкнется с тем, что получение новой семантической информации на базе предшествующих структур станет из-за ограниченного значения N невозможным, и поэтому произойдет переход к другому начальному множеству из NN элементов.

На практике в биологии этот процесс расширения исходного множества состояний выразился в увеличении объема мозга и, как следствие, появление новых более организованных живых существ, а в вычислительной технике в росте памяти и разрядности обрабатываемых чисел. Наивысший семантический уровень в живых существах был достигнут в виде человеческой мысли, которая вырабатывается наиболее тонкой и наиболее насыщенной информацией материей с наименьшими относительными энергетическими затратами к единице информации - мозгом. Сама мысль появляется как результат работы иерархического набора сложнейших ограничений и поэтому подчиняется тем же общим правилам, что и любая другая природная система. Без ограничений, как и энергии, мысль не может существовать в принципе. Это значит, что мозг должен рассматриваться как физическая система. Последовательно изучая в мозге ограничения все более высоких уровней можно все выше подниматься к существу мысли, то есть к её смыслу, хотя, конечно, в настоящее время в силу необычной сложности мозга и протекающих в нем процессов, понять смысл мысли до конца нереально. Однако важно другое, что существующая синтаксическая теория информации без каких-либо существенных изменений способна, анализируя все более и более высокие уровни ограничений, в принципе описать работу человеческой мысли и тем самым «понять» её смысл, так как смысл - это информация, находящаяся на наивысшем уровне иерархически организованных ограничений.

Таким образом, информация, проявляя себя в ограничениях естественных и искусственных систем, образует все разнообразия окружающего мира. Она является основным участником процессов взаимодействия различных систем, переходя при этом от одних систем к другим. Информация существовала всегда. Однако её накопление изменяло природные системы в сторону их усложнения - от наиболее простых систем до наиболее сложных систем. При этом создавалась иерархия ограничений, в которых ограничения более высоких уровней образовывали семантику более низких. Тем самым природой была создана такая особая форма существования информации как мысль.

Литература

Философский энциклопедический словарь. - М.: Инфра, 2001. - 576 с.

Эшби У. Р. Введение в кибернетику [Пер. с англ.] / У. Р. Эшби. - М. : Изд. иностр. лит., 1959 - 430 с.

Кондаков Н. И. Логический словарь-справочник / Н. И. Кондаков. - М. : Наука., 1975 - 717 с.

Шеннон К. Работы по теории информации и кибернетике [Пер. с англ.] / К. Шеннон. - М.: Изд. иностр. лит., 1963 - 830 с.

Борисенко А. А. Принцип унитарности и его приложение к теории информации / А. А. Борисенко // Вісник СумДУ, 2001. - № 24-25. - С. 154-160.

Борисенко А. А. О некоторых аспектах современной теории информации / А. А. Борисенко // Вісник СумДУ, 1994. - № 1. - С. 93-96.



|
:
Філософія: конспект лекцій
Філософія глобальних проблем сучасності
Історія української філософії
Філософські проблеми гуманітарних наук (Збірка наукових праць)
Філософія: конспект лекцій : Збірник працьФілософія: конспект лекцій : Збірник праць