Достижения науки, в первую очередь теории информации, расширяют границы познанного, создавая тем самым предпосылки к переосмыслению данных ранее определений. Неожиданно появившаяся в начале прошлого века "новая" субстанция Универсума, информация, прямо или косвенно поставила под сомнение многие основопологающие суждения, на которых базировались фундаментальные науки, к которым, в частности, относится философия.
Современный разрыв между достижениями в области технических наук, к которой изначально относилась теория информации, а также математики, к которой относится теория вероятностей и гуманитарными науками, в частности философией, привел к тому, что до сих пор в суждениях многих философов отсутствует понимание значимости "новой" субстанции.
Игнорирование субстанции не может не приводить к неточностям. В частности, в вышеприведенном определении категории «формы-содержания» нет разделения между формой и содержанием; говорится, что одно переходит в другое и наоборот, т.е. по сути, этот «переход» — есть смысл данной категории.
Построим наше рассмотрение от обратного и допустим, что «форма-содержание» есть переход, а не существование двух сущностей, связанных между собой лишь соответствием. Тогда становится справедливым утверждение, что за любым изменением формы автоматически происходит изменение содержания.
Проследуем дальше: есть закон Шеннона, взятый в его первоначальном виде, который определяет оптимальный код передачи информации по рукотворным каналам связи. Интуитивно понятно, что рукотворные каналы связи есть часть Универсума, т.е. использование их в общем определении не компрометирует суть определения. Далее, определимся с понятием код. Определение из теории информации гласит, что код — есть форма представления информации. Информация является субстанцией, что делает ее в такой трактовке эквивалентной другим субстанциям, которыми являются материя и энергия.
Таким образом, если имеется несколько форм представления одного содержания информации, то вышепреведенная трактовка категории «форма-содержание» как перехода одного в другое — неверна.
Обратимся к задаче, решаемой формулой Шеннона: есть содержание, которое оптимальным образом необходимо передать из одной точки в другую. Ключевое требование в этой задаче — оптимально, следовательно, существует несколько способов, т.е. форм передачи.
Из вышесказанного следует, что в принципе форма и содержание различны, но связанны между собой "на уровне способа выражения и существования содержания". [Верещагина]
Более того, раз это так, для человеческого восприятия существует несколько форм одного содержания.
Говоря о множественности форм одного содержания следует иметь ввиду, что при доказательстве множественности форм имелась ввиду субъективная информация; та информация, которая используется человеком. Но тем не менее, не смотря на эту оговорку суть доказательства, на взгляд автора, не меняется.
Формула количества информации
Формула Шеннона, измеряющая количество информации (1) выглядит так:
где H — символ количества информации, воплощенной в некоторой системе, i — индекс состояний ситсемы, n — число состояний, p i — вероятность состояния i .
Формула предназначена для измерения количества информации в системах, которым присуще конечное количество дискретных состояний, различающихся по распространенности внутри соответствующих систем. Доказано, что формула Шеннона выражает единственно возможную меру количества информации с системах указанного в ней типа (с точностью до постоянного множителя, который служит для выбора единицы информации). [Файнстейн] сс.10-14
Величина H в формуле Шеннона представляет собой математическое ожидание информации, воплощенной в некоторой системе, имеющей различный состояния i . Единичная информация, воплощеная в состоянии i , определяется по формуле:
I i = log 2 (1/ p i ) (2)
Если система имеет только одно состояние ( n = 1), то для него p i = 1, I i = 0, соответственно M = 0. Если n >= 2, то все вероятности p < 1, все I i > 0, соответственно, H > 0
Вклад каждого из состояний в общую (среднюю) информацию, содержащуюся в ней, определяется величиной
M i = p i I i (3)
Было бы неверно полагать, что этот вклад тем больше, чем больше I i , т.е. чем меньше p i .
M i max достигается при p i = e -1 ~ 0.37 ( M i max = 0.5307); M i убывает вплоть до нуля как при уменьшении, так и при увеличении вероятности по отношению к этому значению.
С учетом (3) формула (1) выглядит так:
Общее количество информации в системе есть сумма ее величин, воплощенных в состояниях системы.
Некоторые выводы
Подведем нашим рассуждениям небольшой итог.
Информация как таковая существует независимо от нас, как одна из трех субстанций Универсума. В этом понимании информация является мерой организации, присущей материальным объектам.
Говоря об информации как таковой, мы имеем ввиду количественный смысл только одной из ее составляющих: объективной либо субъективной.
Объективная информация — часть субстанции, неподвластная нашим намерениям; она существует независимо от нас и нашего представления о ней. Говорить, таким образом, о конкретном содержании (качественном смысле) объективной информации неверно.
Субъективная информация — часть субстанции, подвластная нам: мы можем получать ее из окружающих нас объектов или систем. Субъективной информации не существует без участия субъекта: она появляется в момент получения ее субъектом и в этот же момент аннигилирует (перестает существовать), переходя в сведения.
Количество получаемой субъективной информации тесно связано с количеством знаний у субъекта: дополнительные знания дают возможность получения дополнительной субъективной информации, не доступной другим субъектам, у которых отсутствуют эти знания. Говорить, таким образом, о качественном смысле (конкретном содержании) субъективной информации в общем виде (применительно к множеству субъектов) неверно, в силу того, что восприятие субъективной информации индивидуально для каждого субъекта.
Форма и содержание: сущности, обязательно присутствующие вместе, но не зависящие друг от друга настолько, насколько это возможно. Принципиально возможна количественная оценка различных форм, без привязки к содержанию, следовательно задача по поиску оптимальной формы для заданного содержания теоритически выполнима.
Количество информации в системе может быть увеличено путем равномерного перераспределения вероятностей существующих состояний, без введения новых.
Список литературы
Вальтух К.К. Информационная теория стоимости в неравновесных системах. "Янус-К" 2001
Верещагина Т.И. Об аксиологизме методологии. http://aeli.altai.ru/nauka/sbornik/1999/verechag.html
Гегель Г.В.Ф. Феноменология духа. Спб. 1913.т.1
Крылов И. М. Введение в систему объективной философии. http://new-philosophy.narod.ru/sys.htm
Файнстейн А. Основы теории информации. М. Издательство иностранной литературы 1960
Miller J.G. Living Systis. McGraw-Hill 1978