Основным объектом изучения многих наук, и информатики в том числе, является информация. Современный уровень развития научного знания еще не позволяет, а возможно и никогда не позволит, дать точного и законченного определения этого основополагающего понятия. С развитием нашего представления о мире, в котором мы живем, с развитием науки расширяется и углубляется содержание понятия "информация".
Первоисточником данного термина является латинское слово informatio (изложение, истолкование, разъяснение), а вошло оно в русский язык, по мнению П.Я. Черных, в эпоху Петра I.
На общелексическом, бытовом уровне понятие "информация" чаще всего толкуется как сведения, сообщения, передаваемые от человека человеку и осведомляющие о каких-то явлениях, событиях, процессах и т.д.
Однако это не исчерпывает всего содержания понятия "информация". Так, существует информация об окружающей действительности, которую человек получает через свои органы чувств, и она далеко не во всех случаях исходит от другого человека (температура окружающей среды, рельеф местности, время суток и т.п.).
Норберт Винер в своей работе "Кибернетика или управление и связь в животном и машине" определяет информацию как "обозначение содержания, черпаемого нами из внешнего мира в процессе приспособления к нему и приведения в соответствие с ним нашего мышления".
Мы видим, что информация определяется через категорию "содержание внешнего мира" и напрямую увязана с человеком, его мышлением и процессом приспособления человека к явлениям и событиям внешнего мира. Иными словами, Винер утверждает, что информация вне человеческого сознания не существует.
Многие современные представления о содержании понятия "информация" связаны с человеком и его способностью мыслить.
"Информация - это сообщение, осведомляющее о положении дел, о состоянии чего-нибудь".
Во всех случаях, когда идет речь о сведениях, следует понимать, что говорится об информации осмысленной, преобразованной человеческим сознанием. Согласно Словарю В.И. Даля, слово "сведения" происходит от "сведать", то есть узнать, получить сведения. Оно также является синонимом слов "знание", "известие", "уведомление".
Отождествление информации со сведениями или фактами, которые теоретически могут быть получены и усвоены, то есть, преобразованы в знания, составляет суть антропоцентрического подхода к определению понятия "информация". Этот подход в настоящее время применяется наиболее широко и, в частности, в российском законодательстве.
Под информацией понимаются "сведения о лицах, предметах, фактах, событиях, явлениях и процессах независимо от формы их представления".
До последнего времени антропоцентрический подход удовлетворительно работал в области правовых и общественных наук. Однако в связи с широким внедрением вычислительной техники его недостатки все чаще дают о себе знать.
Во-первых, подход к информации только как к сведениям не позволяет адекватно интерпретировать информационные процессы в таких объектах, как компьютерные программы, компьютерные сети, системы искусственного интеллекта, системы, ориентирующиеся в состоянии неопределенности. Здесь процессы получения, преобразования, передачи информации могут проходить без этапа осмысления их человеком.
Во-вторых, в рамках антропоцентрического подхода невозможно найти адекватного объяснения генетической информации живой природы.
В связи с этим возникла потребность в изменении трактовки понятия информации. Оно было расширено и включило обмен сведениями не только между человеком и человеком, но также между человеком и автоматом, автоматом и автоматом, обмен сигналами в животном и растительном мире, передачу признаков от клетки к клетке.
Наиболее бурное и весьма плодотворное развитие проблема проникновения в сущность понятия "информация" получила в рамках теории информации и кибернетики.
Теория информации начинается с работ К. Шеннона, опубликованных в конце 40-х годов XX в., в которых под информацией понимались не любые сообщения, а лишь те, которые уменьшают неопределенность у получателя этого сообщения. Неопределенность же, по воззрениям К. Шеннона, существует тогда, когда происходит выбор одной из нескольких возможностей. В теории Шеннона на первый план выдвигалась идея кода и канала передачи информации, а количество информации, характеризующее данное сообщение, определялось множеством всех возможных сообщений и их вероятностей независимо от их смыслового содержания.
В начале 60-х годов Ю.А. Шрейдер предпринял попытку разработать методы определения того, как богатство состава и структурность информации, накопленной в объекте, влияют на ее прием и эффективность обработки для использования. Это было связано с задачами оптимизации управления. Так появилась семантическая теория информации, развитая Ю.А. Шрейдером, которая отличается от теории информации К. Шеннона по своим исходным положениям. В теории Шрейдера акцент делается на свойствах приемника, воспринимающего и накапливающего информацию, и на оценке ее семантического (смыслового) значения, а вопрос о канале передачи информации уходит на второй план. Основная идея семантической теории информации заключается в том, что семантическую информацию, воспринимаемую данной системой, можно оценивать по степени изменения содержащейся в системе собственной семантической информации за счет накопления внешней информации.
Чтобы вообще воспринять какую-либо информацию от внешних источников, система-приемник должна обладать неким минимальным "запасом знаний", который обозначается термином "тезаурус", или, иначе говоря, система должна содержать некую начальную, пороговую внутреннюю информацию. Если позволяет эта пороговая информация, система способна расширять свой тезаурус, извлекая извне все более обширную информацию, вплоть до максимально для нее доступной, когда ее внутренняя информация (тезаурус) обогащается до оптимального уровня. Дальнейшее восприятие информации становится для системы все более избыточным (все менее значимым) и, наконец, она уже "знает все, что ей доступно", - ее внутренняя информация (тезаурус) становится насыщенной. Описанную схему Шрейдер поясняет на примере восприятия информации человеком: если, например, источник внешней информации - учебник по теории вероятности, то школьник младших классов не извлечет из него никакой информации (его начальный тезаурус для этого недостаточен), школьник старших классов уже извлечет некоторую информацию, а студент, изучающий этот курс, - максимальную.
В связи с этим можно выделить следующие виды информации, ее свойства и особенности их взаимодействия.
Внутренняя информация - информация как характеристика организованности любой системы, которую называют "структурной информацией".
Структурная (или связанная) информация присуща всем объектам живой и неживой природы естественного и искусственного происхождения и возникает как результат отбора, фиксации и закрепления в системе в форме определенных структурных изменений ее положительного опыта взаимодействия с внешней средой. Ярким примером этому может служить опыт с цветочными часами, которые спроектировал известный биолог Карл Линней на основе поочередного распускания (закрытия) цветков различных растений с 6 часов утра до 6 часов вечера. Этому предшествовали исследования французского астронома Жан-Жака д'Орту де Мерана более 250 лет назад, который, спрятав цветок гелиотропа в темную комнату, выяснил, что и там цикл раскрытия (закрытия) цветка точно соответствовал смене дня и ночи. Он пришел к выводу, что ритмы растения регулируются каким-то внутренним механизмом.
Внешняя информация - информация как средство организации любой системы, то, что определяют как "относительную информацию", "оперативную (или рабочую) информацию", тесно связанную с отражением (если в одном объекте происходят изменения, отражающие воздействия другого объекта, то первый объект становится носителем информации о втором объекте). Яркий пример внешней информации и ее воздействия на биологические системы - ритмы солнечной активности, лунные ритмы и т.п. В мире животных к такой информации предлагается отнести электромагнитную сигнализацию четырех типов: сигналы-команды, обеспечивающие согласованное выполнение движения в стаях птиц, рыб, стадах млекопитающих, скоплениях насекомых; направляющие сигналы, по которым животные находят друг друга на больших расстояниях; координирующие сигналы, обусловливающие согласование физиологических процессов и поведения в группах и сообществах; синхронизирующие сигналы, обеспечивающие синхронизацию процессов как внутри организма, так и в сообществе и группе.
За истекшие с того времени полвека появилось множество работ, в которых с позиций разных наук, различных научных школ и даже различных идеологических установок исследуются всевозможные подходы к определению этого понятия.
Информация - это передача разнообразия (Эшби).
Информация - это оригинальность, новизна (Моль).
Информация - это вероятность выбора (Яглом).
Информация - это отраженное разнообразие (Урсул).
Информация - это мера сложности структур (Моль). Действительно, чем сложнее объект или процесс, тем больше информации в нем содержится и тем больше информации необходимо для его описания.
В.М. Глушков: "Информация в самом общем ее понимании представляет собой меру неоднородности распределения материи и энергии в пространстве и во времени, меру изменений, которыми сопровождаются все протекающие в мире процессы".
Энциклопедический словарь под редакцией А.М. Прохорова дает такое определение: "Информация (от латинского informatio - разъяснение, изложение) с середины ХХ века общенаучное понятие, включающее обмен сведениями между людьми, человеком и автоматом, автоматом и автоматом, обмен сигналами в животном и растительном мире, передачу признаков от клетки к клетке, от организма к организму; одно из основных понятий кибернетики".