| N | Объем информациии, МБ | текст | ошибка |
| 181 | 905 | й | |
| 182 | 910 | л | ш |
| 183 | 915 | е | |
| 184 | 920 | й | |
| 185 | 925 | ||
| 186 | 930 | с | |
| 187 | 935 | у | |
| 188 | 940 | к | щ |
| 189 | 945 | н | |
| 190 | 950 | о | |
| 191 | 955 | с | |
| 192 | 960 | т | |
| 193 | 965 | 1 | и |
| 194 | 970 | ||
| 195 | 975 | м | |
| 196 | 980 | и | |
| 197 | 985 | 7 | р |
| 198 | 990 | а | |
| 199 | 995 | . |
Таблица 8 – Расчет итоговых значений потерь информации
| Пункт | Li, км | δ(L), % | Объем Информации (полученной), МБ | n, число символов | m, число ошибок | δ(I), % | δ∑,% |
| АБ | 7,0 | 6,32 | 375 | 75 | 6 | 8,00 | 10,20 |
| БВ | 4,3 | 4,34 | 405 | 81 | 7 | 8,64 | 9,67 |
| БЕ | 1,5 | 2,36 | 510 | 102 | 9 | 8,82 | 9,13 |
| ВЕ | 5,2 | 4,99 | 510 | 102 | 9 | 8,82 | 10,14 |
Продолжение таблицы 8
| Пункт | Li, км | δ(L), % | Объем информациии (полученной), МБ | n, число символов | m, число ошибок | δ(I), % | δ∑,% |
| ВЗ | 4,7 | 4,63 | 435 | 87 | 7 | 8,05 | 9,28 |
| ЕЗ | 7,2 | 6,47 | 435 | 87 | 7 | 8,05 | 10,33 |
| ЕК | 5,8 | 5,43 | 465 | 93 | 8 | 8,60 | 10,17 |
| ЕД | 3,5 | 3,77 | 585 | 117 | 9 | 7,69 | 8,57 |
| ЗК | 6,3 | 5,80 | 465 | 93 | 8 | 8,60 | 10,37 |
| КИ | 4,1 | 4,20 | 390 | 78 | 6 | 7,69 | 8,76 |
| АГ | 4,7 | 4,63 | 275 | 55 | 4 | 7,27 | 8,62 |
| ГБ | 3,2 | 3,56 | 375 | 75 | 6 | 8,00 | 8,76 |
| ГД | 3,9 | 4,06 | 585 | 117 | 9 | 7,69 | 8,70 |
| ДИ | 4,0 | 4,13 | 390 | 78 | 6 | 7,69 | 8,73 |
| ИЖ | 3,7 | 3,91 | 560 | 112 | 9 | 8,04 | 8,94 |
| АЖ | 6,1 | 5,65 | 560 | 112 | 9 | 8,04 | 9,82 |
2.4 Расчет энтропии и количества информации в сообщении
Для расчета энтропии сообщения «Отчет выполнен студентом вечернего факультета специальности информационно измерительная техника и технологии Шаманаевым Александром Викторовичем», разложим текст сообщения посимвольно:
Таблица 9 – Расчет реальной энтропии сообщения
| N | i | Pi, частотность букв русского языка | m, число символов | PilogPi | H(Si)=m·Pi·logPi |
| 1 | _ | 0,125 | 13 | -0,38 | 4,88 |
Продолжение таблицы 9