Смекни!
smekni.com

Задание №3 заключение Список литературы Введение (стр. 1 из 3)

Министерство образования и науки Республики Казахстан

Северо-Казахстанский Государственный Университет имени М.Козыбаева

Садовой Евгений Геннадьевич

КУРСОВАЯ РАБОТА

специальность 050719 – «Радиотехника электроника и телекоммуникации»

Петропавловск 2010

Министерство образования и науки Республики Казахстан

Северо-Казахстанский государственный университет им. М.Козыбаева

КУРСОВАЯ РАБОТА

На тему: «»

по специальности 050719 – «Радиотехника электроника и телекоммуникации»

Выполнил Е.Г.Садовой

Научный руководитель

ст. преп. каф. РиТ Н.К. Набиев

Петропавловск 2010

Содержание

1 Введение……………………………………..………………………………......4

2 Задание №1……………………………………………………………………....5

3 Задание №2……………………………………….. …………………….………8

4 Задание №3 …………………………………..………………………………...11

Заключение…………………………………………….……………………........24

Список литературы……………………….……………….……………...……...25


1 Введение

Пропускная способность - метрическая характеристика, показывающая соотношение количества проходящих единиц (информации, предметов, объёма) в единицу времени через канал, систему, узел. Скорость передачи информации зависит в значительной степени от скорости её создания, способов кодирования и декодирования. Наибольшая возможная в данном канале скорость передачи информации называется его пропускной способностью. Пропускная способность канала, по определению, есть скорость передачи информации при использовании «наилучших» для данного канала источника, кодера и декодера, поэтому она характеризует только канал.

Основным понятием теории информации является понятие энтропии, которое возникло в связи с необходимостью ввести численную характеристику неопределенности случайного объекта. При вычислении энтропии требуется математическая модель объекта и его фазового пространства. Математическая модель содержит атрибуты двух типов.

Атрибуты, инвариантные относительно всех допустимых преобразований модели, называются структурными. Они образуют структуру модели. К ним относятся уравнения, описывающие объект, пространство, из которого берут свои значения переменные, алгебра и топология на этом пространстве, система начальных, граничных условий и т. п.

Другие атрибуты математической модели могут изменять свои значения при разных преобразованиях. Это вариативные параметры. К ним относятся значения переменных, координатные системы, в которых записаны уравнения, изменяемые связи между частями модели, границы областей, где ищутся решения и т. п. Полная совокупность всех вариативных параметров называется фазовым состоянием модели (его общей записью), а набор конкретных значений этих параметров — фазовой точкой или микросостоянием.

Техническое задание

Вариант №1

1. Рассчитать минимально необходимую пропускную способность канала связи, если алфавит источника состоит из N символов с вероятностями их появления p(xi) (таблица 1). Скорость передачи сообщений: 5 символов в 1 с (согласно варианту).

Определить избыточность источника и вычислить, во сколько раз можно повысить пропускную способность при оптимальном статистическом кодировании.

Таблица 1

№ варианта 1 2 3 4 5 6 7 8 9 0
p(x1) 0.10 0.10 0.03 0.40 0.50 0.06 0.40 0.24 0.24 0.02
p(x2) 0.25 0.05 0.26 0.25 0.04 0.15 0.18 0.18 0.28 0.50
p(x3) 0.15 0.04 0.09 0.05 0.03 0.15 0.10 0.38 0.05 0.03
p(x4) 0.15 0.01 0.05 0.30 0.15 0.07 0.10 0.10 0.22 0.15
p(x5) 0.30 0.20 0.16 0.00 0.04 0.05 0.07 0.06 0.15 0.04
p(x6) 0.05 0.03 0.10 0.00 0.12 0.29 0.06 0.02 0.06 0.12
p(x7) 0.00 0.07 0.09 0.00 0.10 0.19 0.05 0.02 0.00 0.04
p(x8) 0.00 0.50 0.22 0.00 0.02 0.04 0.04 0.00 0.00 0.10

2. Передача бинарных сообщений, имеющих априорные вероятности p1 и p2 осуществляется методом амплитудной и фазовой манипуляции с помощью точно известных сигналов одинаковой длительности t0. Прием происходит на фоне гауссовой помехи с равномерной спектральной плотностью N0 [B 2 / Гц ]

Требуется:

- вычислить для заданных условий вероятность ошибочного приема каждого из сигналов оптимальным приемником, принимающим решение по критерию идеального наблюдателя;

- нарисовать с необходимыми пояснениями структурную схему оптимального приемника, работающего по названному критерию;

- рассчитать по найденной вероятности ошибок и априорным данным относительную величину снижения пропускной способности рассматриваемого канала связи из-за действия заданных помех в % от производительности источника сигналов.

Необходимые данные выберите из табл.2.1, где

- отношение сигнал / шум, а численное значение амплитуды А (в мкВ) сигнала S1(t) выберите совпадающим с номером вашего шифра.

Таблица 2.1

№ варианта 1 2 3 4 5 6 7 8 9 0
p1 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 0,4
t0, мкс 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1
h 0,55 1,04 0,77 0,67 0,67 0,71 0,82 0,69 1,13 1,74
A/B 2,5 2 1,5 2,25 2,75 3 3,25 1,75 2,4 2,6
j, град 0 30 60 90 120 150 180 210 240 270

3. Выбрать код и построить структурную схему кодера для СПДС с допустимой вероятностью ошибки в канале р0 доп =10 -5 . Предварительное тестирование показало наличие ошибок на 1 бит передаваемой информации с вероятностью р 0 =А х 10 -8 , где А совпадает с номером вашего шифра. В качестве модели дискретного канала взять дискретный канал без памяти (ДСК), а длину кодовой комбинации выбрать из условия построения кода Боуза-Чоудхури-Хоквингема (БЧХ).

Задание №1

Основным понятием теории информации является понятие энтропии, которое возникло в связи с необходимостью ввести численную характеристику неопределенности случайного объекта.

В теории информации доказано, что в качестве меры неопределенности случайного объекта с дискретным множеством его возможных состояний (x1, x2,...,xn) и соответствующими вероятностями вида (p1, p2,..., pn) целесообразно взять функционал вида

, (1.1)

который обладает рядом свойств. В частности,

1) H(x)=0 в том и только в том случае, если одна из вероятностей равна единице. Это соответствует случаю, когда исход опыта может быть предсказан с полной достоверностью, т.е. отсутствует всякая неопределенность;

2)при p1=p2=...=pn=1/n, т.е. в случае наибольшей неопределенности, функция H(x) достигает наибольшего значения:

(1.2)

Энтропию (1.1) часто называют энтропией множества {xi}.

В нашем случае n=8, отсюда следует : Hmax=log8=3

Особое внимание при использовании в расчетах выражений (1.1) и (1.2) следует обращать на основание логарифмов, которое определяет единицы измерения энтропии. В случае оценки энтропии в двоичных единицах на символ (бит/символ):

(1.3)

Подставив необходимые данные получим:

H(x) =

= -(0.1log 0.1+0.25 log0.25+0.15 log0.15+0.15 log0.15+0.3 log0.3+0.05 log0.05+0 log0+ 0log0) = -(-0.1-0.151-0.124-0.124-0.157-0.065-0-0) = 0.721

В случае отсутствия помех пропускная способность канала связи определяется количеством информации, переносимой символом сообщения в единицу времени:

C=ν H(x),

где ν – количество символов, вырабатываемых источником сообщений за единицу времени;

H(x) – энтропия, снимаемая при получении одного символа сообщений, вырабатываемых данным источником. В ходе решения получается:

C=

= 3.605

В случае неравновероятных символов равной длительности энтропия H(x) определяется из выражения (1.1). Для сообщений, составленных из равновероятных, взаимнонезависимых символов, энтропия Hmax должна определяться из выражения (1.2).

Для определения количества лишней информации, которая заложена в структуре алфавита, вводится понятие избыточности. Информационная избыточность свидетельствует об относительной недогруженности на символ алфавита и является безразмерной величиной:

, (1.4)