Вопрос 1: Понятие информации.
Информация это знания, сведения, данные, получаемые и накапливаемые в процессе развития науки и практической деятельности людей, которые могут быть использованы в общественном производстве и управлении как фактор увеличения объема производства и повышения его эффективности.
Понятие «информация может быть истолковано как некоторая совокупность сведений (сообщений), определяющих меру наших знаний о тех или иных событиях, явлениях, фактах и их взаимосвязи. Информация увеличивает знания и углубляет интеллект.
В первоначальном смысле термин информация означал сведения вообще. С развитием общей теории систем этот термин хотя и сохранил свое первоначальное значение, однако конкретизировался и стал употребляться в более точном смысле — для обозначения сведений, знаний наблюдателя о системе и среде ее функционирования. В более общем случае, когда наблюдателю целесообразно рассматривать систему как совокупность подсистем или элементов, информацией о системе являются сведения об организации, структуре, параметрах системы в целом и отдельных подсистем (элементов) в рамках целого.
Количественные меры информации
Введение количественной меры информации является весьма сложной задачей. Одна и та же информация может вызывать различные эмоции и представлять разную ценность для разных людей. Иногда краткое сообщение из одной - двух фраз несет неизмеримо больше информации для конкретного индивидуума, чем текст из многих страниц. Количество информации при этом есть мера уменьшения неопределенности ситуации. Если все исходы равновероятны, то неопределенность ситуации зависит только от числа исходов, причем неопределенность тем больше, чем больше число исходов. Существуют две количественные меры информции.
Р. Хартли в 1928 г. в качестве меры неопределенности ситуации с N равновозможными исходами предложил использовать величину Н = logN
Эта величина возрастает с ростом N и обладает свойством аддитивности (может рассматриваться как следствие более сильного допущения: что количество информации можно рассматривать как функцию знаний субъекта). Неопределенность сложной ситуации, состоящей из нескольких независимых опытов, равна сумме неопределенностей каждого опыта.
В формуле Хартли выбор основания логарифмов означает выбор единиц, в которых измеряется неопределенность. Когда исходы неравновероятны, то неопределенность зависит не только от числа исходов, но и от их вероятностей.
Р. Хартли понимал, что сообщения имеют различную вероятность и, следовательно, неожиданность их появления для получателя неодинакова. Но, определяя количество информации, он пытался полностью исключить фактор «неожиданности». Поэтому формула Хартли позволяет определить количество информации в сообщении только для случая, когда появление символов равновероятно и они статистически независимы. На практике эти условия выполняются редко. При определении количества информации необходимо учитывать не только количество разнообразных сообщений, которые можно получить от источника, но и вероятность их получения.
Вопрос 2Мера Шеннона: ее достоинства и недостатки
Наиболее широкое распространение при определении среднего количества информации, которое содержится в сообщениях от источников самой разной природы, получил подход. К Шеннона. Мера Шеннона является обобщением меры Хартли для неравновероятных событий.
В 1948 г. Шеннон предложил в качестве меры неопределенности опыта ξ с N исходами х1, х2, ... хn. энтропию H.
N
Н = - ∑ Pξ( xi ) logPξ ( xi ) (6.1.1)
1=i ___
где Pξ( xi ), i =1,N вероятность исхода xi. Совокупность различных исходов опыта с их вероятностями может рассматриваться как множество значений случайной величины с
___
дискретным распределением. Pξ( xi ), i =1,N Поэтому вместо энтропии опыта ξ говорят об энтропии случайной величины или об энтропии дискретного распределения.
Энтропия является естественным обобщением меры Хартли.
Чаще всего за единицу информации принимается количество информации, содержащееся в указании значения случайной величины, принимающей с равной вероятностью два различных значения (например, О и 1). Эта единица количества информации называется двоичной единицей или «бит».
Информация будет измеряться в битах, если в выражении для количества информации логарифм брать по основанию 2. Действительно, тогда количество информации, даваемое результатом опыта с двумя равновероятными исходами и равное его энтропии Н, равно:
1 = Н = —0/2 1о2 1/2 + 1/2 Iо2 1/2) = 1.
Измерение информации в двоичных единицах особенно удобно для технических приложений, так как в системах, хранящих и перерабатывающих информацию, проще всего оперировать с величинами, выраженными в двоичной системе счисления, а одна двоичная единица есть как раз количество информации, необходимое для идентификации одной двоичной цифры.
Введенная количественная мера информации имеет как сильные, так и слабые стороны.
Достоинствами введенной статистической меры информации являются:
• универсальность меры, ибо она применима к информации любого вида и содержания;
• объективность и независимость, ибо статистические показатели устанавливаются на основе эксперимента;
• для анализа работы и выбора оптимальных характеристик большинства технических систем передачи и преобразования информации эта мера оказывается достаточной и наиболее рациональной.
Недостатки
· Для случаев, когда должна приниматься во внимание семантика и ценность информации, эта теория неприменима.
Вопрос 3. Проблемы идентификации и измерения информации в организационных системах
В теории передачи сообщений в человеко-машинных системах организационного управления можно выделить три основных уровня проблем, требующих решения.
Уровень А. Насколько точно можно передать символы, применяемые для связи (техническая проблема).
Уровень Б. Насколько точно передаваемые символы выражают желаемое значение (семантическая проблема).
Уровень В. Насколько эффективно влияет содержание принятого сообщения, его значение на развитие событий в желаемом направлении (проблема эффективности).
Если проблема уровня А в основном решается, как уже было сказано, с помощью классических методов теории информации, то с проблемами семантики и эффективности дело обстоит сложнее, хотя успешное их решение безусловно зависит и от решения технических вопросов. В системах связи рассматривается прежде всего структура и механизм точной передачи символов. При рассмотрении же взаимосвязей между людьми первостепенными являются другие, не технические проблемы.
Как уже было сказано, информацию об объекте можно рассматривать как отображение этого объекта в некоторой материальной системе, которое может существовать независимо от самого объекта и независимо от того, будет ли эта информация кем- то и когда-то использована. Однако, если информация как некоторое отображение может существовать независимо от человека, то говорить о ценности информации, о ее потребительской стоимости можно только с учетом человека, который эту информацию потребляет, того процесса, где она используется.
Это вызвано тем, что различное понимание того или иного слова может сильно изменить смысл передаваемого сообщения.
Если информация используется в системах управления, то ее эффективность разумно оценивать по тому эффекту, который она оказывает на результат управления.
Одним из первых в отечественной науке исследовал ценностные свойства информации академик А.А. Харкевич. Исходным для него было представление об использовании информации в процессе достижения некоторой цели. «Информация ценна, поскольку она способствует достижению поставленной цели. Одна и та же информация может иметь различную ценность, если рассматривать ее с точки зрения использования для различных целей».
Ценность информации может быть выражена через приращение вероятности достижения цели. Вероятность же, в свою очередь, понимается как отношение числа благоприятных исходов к общему их числу. Ценность информации неоднозначна
она может быть отрицательной в тех случаях, когда при ее юте пользовании увеличивается неопределенность и уменьшается вероятность достижения цели. Такую информацию называют дезинформацией.
А.А. Харкевич оговаривал при этом, что предложенная пм модель охватывает не все случаи получения и использования информации, что виды информации, вызывающие эмоции, к примеру, эстетические, остались вне рассмотрения.
Следует отметить различие в уровне ценности одной и той же информации с точки зрения субъекта и объекта управлении. для субъекта она ценна постольку, поскольку на ее основе возможно побуждение объекта к действию или изменению мнения. для объекта — постольку, поскольку на ее основе возможен выбор пути достижения цели с наименьшими ресурсными затратами или в соответствии с каким-либо другим критерием оптимальности.
Информация — есть особая форма существования материи. Подобно веществу и энергии, информацию можно собирать, обрабатывать, хранить, изменять форму ее представления. Однако у нее есть и некоторые особенности, заключающиеся прежде всего в том, что она может возникать и исчезать.
Информация относится к числу воспроизводимых ресурсов. Процесс ее воспроизводства складывается из этапов производства, распространения и использования. Производство (генерация) информации есть общественный процесс познания состояния и законов развития природы и общества.
На основе собранных и обработанных данных проводится их анализ, назначением которого является обобщение фактов и установление существенных связей между явлениями. В этом состоит функция фундаментальных научных дисциплин. далее следуют прикладные исследования, которые конкретизируют информацию о действии фундаментальных законов в определенных сферах деятельности. Эти результаты используются при реализации конкретных систем управления, при проектировании и конструировании систем различного класса.
Распространение информации необходимо для ее многократного использования. Оно осуществляется различными способами (создание специальных информационных систем, обучение, обмен опытом, средства массовой информации, публикации и т. д.).
Использование информации происходит в сфере производства и управления. Его результатом являются либо принимаемые решения, либо производимые продукты и услуги.