Санкт Петербургский государственный университет информационных технологий механики и оптики
Реферат
По истории информатики на тему
“Эволюция понятия «информация»”
Аспирант: | Некрасова Е.М. |
Кафедра: | Философии |
Специальность: | 09.00.07 |
Санкт-Петербург
2009 г.
Оглавление.................................................................................................................................... 2
Введение........................................................................................................................................ 3
1.Вероятностно-статистический подход.................................................................................... 4
2. Кибернетический подход......................................................................................................... 7
3. Подход к понятию информации в Советском Союзе......................................................... 10
Заключение.................................................................................................................................. 12
Список литературы..................................................................................................................... 13
Действительно жить – значит жить,
обладая правильной информацией.
Н. Винер.
Слово «информация» широко употребляется на протяжении многих веков. Первоначально латинское «informatio» обозначало понятие, идею, буквально – нечто оформленное в сознании и слове. Известно, что в Древнем Риме информацией стали называть разъяснение и истолкование письменных и устных текстов. Со временем в европейских языках слово «информация» и его однокоренные производные стали обозначать обширную понятийную сферу, в центре которой стояло сообщение как коммуникативный акт, предоставляющий некоторые сведения, знания. Вопрос же о сущности информации как особой единицы реальности не ставился до начала ХХ в.
Достижения науки и техники XVIII – XIX вв. определялись в первую очередь успехами физики и химии. Открытые законы преобразования энергии, например, в области электродинамики, достаточно быстро были воплощены в механических устройствах. Эффективность работы последних описывалась с помощью известных физических понятий: мощность, коэффициент полезного действия, количество производимой энергии и др. Однако, после возникновения и широкого распространения в начале ХХ в. средств связи, а в 40-х гг. вычислительной техники, стало очевидно, что их характеристики невозможно выразить только физическими параметрами. Именно тогда в язык науки вошло понятие информации как особого материала, с которым имеют дело сложные электронные устройства. Естественно, что для построения на основе «вновь открытого» термина строгой теории понадобилось четкое его определение, которое, как выяснилось, дать непросто. Разнообразие подходов к представлению сущности информации демонстрирует сложность этой «нематериальной материи», лежащей в основе человеческой цивилизации, а по мнению некоторых ученых, самой Вселенной. В данной работе представлен обзор основных направлений понимания информации, сформировавшихся в период наиболее активной разработки данного вопроса, а именно в 30-60е гг. ХХ в.
1.Вероятностно-статистический подход
В первой трети ХХ столетия исследования в области средств связи имели основной целью оптимизацию способов передачи сигналов. Для того, чтобы понять механизмы транслирования информации, требовалось проникновение в специфику ее собственной природы. В 1928 г. была опубликована работа «Передача информации» американского ученого Р. Хартли (R. Hartley), где нашли отражение идеи о взаимозависимости между физическими символами – носителями сообщения – и выражаемым ими смыслом. Хартли первым ввел в методологию теории систем связи понятие «количество информации» и предложил способ его измерения. При этом он четко определил, что следует понимать под измеряемой информацией: «… группу физических символов – слов, точек, тире и т. п., имеющих по общему соглашению известный смысл для корреспондирующих сторон» [Hartley, 1928]. Таким образом, в центре внимания оказалась знаковая (синтаксическая) характеристика информационной единицы: невозможность существования без какого-либо воплощения с того времени закреплена за информацией как одно из основных ее свойств[1].
Рассматривая передаваемую информацию как определенный набор символов (алфавит), а передачу и прием этой информации как последовательно осуществляемые выборки из этого алфавита, Хартли ввел понятие количества информации в виде логарифма числа, общего количества возможной последовательности символов (алфавита), а единицей измерения этой информации определил основание этого логарифма. Тогда, например, в телеграфии, где алфавит содержит два символа (точка, тире), при основании логарифма 2 количество информации, приходящееся на один символ равно:
H =log2 2 = 1 бит (1 двоичная единица).
Впоследствии основоположник современной теории информации К.Э.Шеннон (C.E.Shannon) отметил, что данный способ измерения не только удобен применительно к радиотехнике и математике, но и интуитивно прозрачен. Изучая системы передачи кодированных сообщений, Шеннон дополнил формулу Хартли новыми показателями вероятности (такими как относительная частота использования некоторого символа, вероятность следования за одним символом другого и т.п.). [Shannon, 1948] Для теорий оптимизации систем связи это стало значительным шагом вперед, и применение новой формулы положило начало науке о кодировании и декодировании в широком смысле. Впоследствии Шеннон сформулировал и доказал две теоремы о проводимости каналов связи, учитывающих как физические характеристики проводников, так и «нематериальные» взаимодействия между целенаправленно передаваемой информацией и той, которая вмешивается в трансляцию на пути сигнала от источника к потребителю (т.н. шум системы).
Шеннону принадлежит определение информации как степени снятия неопределенности знания (энтропии). Любой интеллектуальный агент, выступающий получателем сообщения, обладает неполным представлением об объекте данного сообщения. То, в какой мере эта неполнота уменьшится после поступления данного сообщения, и является показателем его информативности. В теории Шеннона под информацией понимались не любые сообщения, которыми люди обмениваются, передаваемые по техническим каналам связи, а лишь те, которые уменьшают неопределенность у получателя информации. Неопределенность существует тогда, когда происходит выбор одной из двух или большего числа возможностей, - это имеет место не только в процессах коммуникации, но и в управлении, познании, в социальной сфере и за ее пределами. [Пушкин, 1989]
С точки зрения инженера-конструктора, проектирующего средства и каналы связи, отсутствие четкого определения информации представляло серьезное препятствие для достижения оптимальной результативности работы. Шеннон предложил несколько характеристик, которые можно было рассматривать как неотъемлемые свойства информационной системы и одновременно определять их количественные показатели, что позволяло на их основании вычислять эффективность каналов связи, сообщений, принимающих устройств и т.д. в зависимости от тех или иных физических условий. Основные характеки информационной системы, по Шеннону, таковы:
1) скорость создания информации Н, определяется энтропией источника в единицу времени;
2) скорость передачи информации R, опредеяется количеством информации в единицу времени;
3) избыточность – свойство сигналов (каждый элемент сигнала несет меньше информации, чем может нести потенциально);
4) пропускная способность канала связи С есть максимальная скорость передачи информации для данного канала.
Совместно с У. Уивером (W. Weover) Шеннон провел математическую аналогию между законом Больцмана-Планка об уменьшении энтропии в термодинамике с информационной энтропией в замкнутой системе связи. Большая общность определения Шеннона в том, что оно не связано с механической моделью вещества как это имеет место в статистической теории Больцмана. Совпадение этих формул вызвало сенсацию в мировом научном сообществе, поскольку подтвердило «право» информации претендовать на звание фундаментальной составляющей действительности. [Broglie, 1953] Однако, и количественная мера информации Хартли, и понятие энтропии Шеннона не измеряют саму вторичную информацию в ее смысловом или физическом виде, а лишь характеризуют используемую для передачи по каналам связи систему кодирования этой информации, алфавит, примененный для ее передачи.
Вероятностно-статистический подход к природе информации, основанный Шенноном, нашел поддержку у многих значительных ученых (Шредингера, Бриллюэна и др.). Именно в этих рамках развивалась современная теория информации, соответственно, все ее прикладные отрасли, связанные с радиоэлектроникой и ЭВМ. Однако, подобная математизация заслонила «физику» информации, и в то время, как различные признаки и показатели обрели количественное выражение, глубинная суть, «субстанция» осталась непроясненной. Так рассуждал Н. Винер (N. Wiener), разносторонний ум которого искал ответы на поставленные в теории связи вопросы за пределами естественных наук и впервые выходил на уровень онтологического рассмотрения информации. В 1948 г. была опубликована книга Винера «Кибернетика[2], или управление и связь в животном и машине», главной идеей которой стало соединение теории информации с теорией управления в живой и неживой природе. Поддерживая взгляды Шеннона на негэнтропийный характер информации, Винер больше акцентировал качественные особенности явлений связи. Он выделил два слоя протекания данных процессов: «первичная» информация – это форма, структура вещества и явления; «вторичная» суть то, что выражено в знаках, передается и принимается в виде некоторых сигналов (кодирование и декодирование), подвержена искажению. «Истинная информация», заключенная на обоих уровнях, не поддается измерению и составляет основу всех процессов Вселенной, считал Винер. Однако четкого определения «истинной информации» он так и не дал, что позволило приверженцам кибернетического подхода широко трактовать основное понятие. По мнению Винера, на любом уровне организации материи прослеживается одна и та же схема взаимодействия между центром и периферией: обмен информацией, основанный на принципах прямой и обратной связи. Основываясь на таком представлении, можно свести к единой науке управления все ее разнообразные проявления, как в природе, так и в обществе, и в механизмах. Заявляя, что «нервная система и автоматическая машина имеют фундаментальное сходство - и то, и другое является устройствами для принятия решений на основании решений, принятых в прошлом» [Винер, 2001], Винер указал на то, что в теорию информации следует ввести антропоморфные характеристики – память, научение, самоорганизация играют важную роль в исследовании возможностей автоматов. «Информация - это обозначение содержания, черпаемого нами из внешнего мира в процессе нашего приспособления к нему и приведения в соответствии с ним нашего мышления» [Винер, 2001]. Теория информации в кибернетике воспроизводит модель мозга, работающего на основе обратной афферентации, информирующей центр управления о всех изменениях на периферии, так что последующие приказы, идущие из центра, непрерывно учитывают все изменения, происходящие на периферии в результате выполнения предшествующих директив из центра.