Смекни!
smekni.com

Концепция информации (стр. 2 из 4)

Оценка количества информации основывается на законах теории вероятностей, определяется через вероятности событий. Сообщение имеет ценность, несет информацию только тогда, когда мы узнаем из него об исходе события, имеющего случайный характер, когда оно в какой-то мере неожиданно. Сообщение об уже известном никакой информации не содержит. Т.е. если Вам кто-то позвонит по телефону и скажет: «Днем бывает светло, а ночью темно», то это сообщение Вас удивит лишь нелепостью высказывания очевидного, а не новостью, которую оно содержит. Иное дело, например, результат забега на скачках. Кто придет первым трудно предсказать. Чем больше интересующее нас событие имеет случайных исходов, тем ценнее сообщение об его результате, тем больше информации.

Сообщение о событии, у которого только два одинаково возможных исхода, содержит одну единицу информации, называемую битом. Выбор единицы связан с наиболее распространенным двоичным способом кодирования при передаче и обработке. Количество информации зависит от вероятностей исходов события. Сумма вероятностей всех исходов равна единице: какой-нибудь из всех возможных исходов обязательно наступит.

Событие может иметь и неравновероятные исходы. Так, при футбольном матче между сильной и слабой командами вероятность победы сильной команды велика – например, 4/5. Вероятность ничьей намного меньше, например 3/20. Вероятность же поражения совсем мала. Выходит, что количество информации – это мера уменьшения неопределенности некоторой ситуации. Различные количества информации передаются по каналам связи, и количество проходящей через канал информации не может быть больше его пропускной способности, которую определяют по тому, какое количество информации проходит здесь за единицу времени.

Один из героев романа Жюля Верна «Таинственный остров», журналист Спиллет, передавал по телефону главу из Библии, чтобы его конкуренты не могли воспользоваться связью. В этом случае канал был загружен полностью, а количество информации было равно нулю, ибо абоненту передавались известные для него сведения. Канал работал вхолостую, пропустив строго определенное количество импульсов, ничем их не нагрузив. Чем больше информации несет каждый из определенного числа импульсов, тем полнее используется пропускная способность канала. Поэтому разумно кодировать информацию, найти экономный, скупой язык для передачи сообщений.

Всякое событие, всякое явление служит источником информации. Всякое событие, всякое явление может быть выражено по-разному, разным способом, разным алфавитом. Чтобы информацию более точно и экономно передать по каналам связи, ее надо соответственно закодировать. Информацию «просеивают» самым тщательным образом. В телеграфе часто встречающиеся буквы, сочетания букв, даже целые фразы изображают более коротким набором нулей и единиц, а те, что встречаются реже, – более длинным. В случае, когда уменьшают длину кодового слова для часто встречающихся символов и увеличивают для редко встречающихся, говорят об эффективном кодировании информации. Но на практике довольно часто случается, что код, возникший в результате самого тщательного «просеивания», код удобный и экономный, может исказить сообщение из-за помех, которые бывают в каналах связи: искажения звука в телефоне, атмосферные помехи в радио, искажение или затемнение изображения в телевидении, ошибки при передаче в телеграфе. Эти помехи, или «шумы», обрушиваются на информацию. А от этого бывают самые невероятные и неприятные неожиданности. Поэтому для повышения надежности в передаче и обработке информации приходится вводить лишние символы – своеобразную защиту от искажений. Эти лишние символы не несут действительного содержания в сообщении, они избыточны. С точки зрения теории информации все то, что делает язык красочным, гибким, богатым оттенками, многоплановым, многозначным, – избыточность. С таких позиций письмо Татьяны к Онегину избыточно, т.к. в нем множество информационных излишеств для краткого и всем понятного сообщения «Я вас люблю»!

В этой связи полезно вспомнить анекдот о шляпочнике, пригласившем своих друзей для обсуждения проекта вывески. Предполагалось нарисовать на вывеске шляпу и написать: «Джон Томпсон, шляпочник, делает и продает шляпы за наличные деньги». Один из друзей заметил, что слова «за наличные деньги» являются излишними – такое напоминание оскорбительно для покупателя. Другой нашел лишним слово «продает», итак понятно, что шляпочник продает шляпы, а не раздает их даром. Третьему показалось, что слова «шляпочник» и «делает шляпы» представляют собой тавтологию, и последние слова были выкинуты. Четвертый предложил выкинуть и слово «шляпочник» – нарисованная шляпа ясно говорит, кто такой Джон Томпсон. Наконец, пятый уверял, что для покупателя совершенно безразлично, будет ли шляпочник называться Джоном Томпсоном или иначе, и предложил обойтись без этого указания. В конце концов, на вывеске осталась только шляпа. Если бы люди пользовались только такого рода кодами, без избыточности в сообщениях, то все «информационные формы» – книги, доклады, статьи – были бы предельно краткими. Но проиграли бы в доходчивости и красоте.

Большая часть специалистов придерживается взгляда, что существует как бы два сорта информации:

1) Информация техническая, которая передаётся по линиям связи и отображается на экранах, приёмных устройствах. Количество такой информации может быть точно вычислено, и процессы, происходящие с такой информацией, подчиняются физическим законам.

2) Информация семантическая, то есть смысловая. Это та информация, которая содержится, к примеру, в литературном произведении. Для такой информации предлагаются различные количественные оценки и даже строятся математические теории. Но общее мнение сводится к тому, что оценки здесь условны и приблизительны.

Приверженцы другого взгляда на информацию считают, что это физическая величина, такая же, как, например, энергия или скорость. Определённым образом и в определённых условиях информация равным образом описывает как процессы, происходящие в естественных физических системах, так и процессы в системах, искусственно созданных.

При наличии этих двух противоположных мнений существует и третье, примиряющее. Сторонники третьего подхода считают, что информация едина, и кроме количества информации, следует измерять ещё и её ценность. А вот с ценностью информации происходит то же самое, что и с понятием семантической информации. С одной стороны, казалось бы, её можно вычислить, а с другой стороны, все эти вычисления справедливы лишь в ограниченном числе случаев. Кто может точно вычислить, к примеру, ценность крупного научного открытия? Количество информации в двух сообщениях может быть совершенно одинаковым, а смысл совершенно разным. Два слова, например «Мир» и «Рим», содержат одинаковое количество информации, состоят из одних и тех же букв, но смысл слов различен. В повседневной жизни мы, как правило, оцениваем полученные сведения со смысловой стороны: новые сведения воспринимаем не как определенное количество информации, а как новое содержание. Вычислить смысл информации, подсчитать его в сообщении пробует делать семантическая теория информации.

Еще одно направление (прагматическое) в этой науке. К примеру, пассажиры едут в автобусе, водитель объявляет остановку. Кое-кто выходит, остальные не обращают внимания на переданную водителем информацию. По той причине, что информация здесь имеет разную ценность для получателей, т.е. пассажиров. Вышли те, кому информация была ценна. Ценность можно определить как свойство информации, влияющей на поведение ее получателя.

Информация не может существовать без материального носителя, без передачи энергии. Закодированное сообщение приобретает вид сигналов-носителей информации, они идут по каналу. Выйдя на приемник, сигналы должны обрести вновь общепонятный вид. С этой целью сигналы пробегают декодирующее устройство, приобретая форму, удобную для абонента.

Каналы связи – понятие широкое, включающее множество самых разных систем: при телефонной передаче источник сообщения – говорящий; кодирующее устройство, изменяющее звуки слов в электрические импульсы, – это микрофон; канал, по которому передается информация – телефонный провод; часть трубки, которую мы подносим к уху, выполняет роль декодирующего устройства; и наконец, информация поступает в «принимающее устройство» – ухо человека на другом конце провода. Существует канал связи совершенно другой природы – живой нерв. Здесь все сообщения передаются нервным импульсом. В технических каналах связи направление передачи информации может меняться, а по нервной системе передача идет в одном направлении. Еще один пример – вычислительная машина, здесь те же характерные черты. Отдельные системы вычислительной машины передают одна другой информацию с помощью сигналов; вычислительная машина – автоматическое устройство для обработки информации. Машина не создает из «ничего» информацию, она преобразует только ту, которая в неё введена.

КИБЕРНЕТИКА И ИНФОРМАТИКА

Кибернетика (от греч. kybernetike – искусство управления) – наука об управлении, связи и переработке информации. Основной объект исследования – кибернетические системы, рассматриваемые абстрактно, вне зависимости от их материальной природы. Примеры кибернетических систем – автоматические регуляторы в технике, ЭВМ, человеческий мозг, биологические популяции, человеческое общество. Каждая такая система представляет собой множество взаимосвязанных объектов (элементов системы), способных воспринимать, запоминать и перерабатывать информацию, а также обмениваться ею.