13. Что такое энтропия источника сообщений, основываясь на предоставленной статистике распределения вероятностей
13. Что такое энтропия источника сообщений, основываясь на предоставленной статистике распределения вероятностей появления символов на выходе источника сообщений: a a a a, 0,35 0,035 0,07 0,15 0,07 0,07 0,14 0,035 0,01 0,07?
14. Если дан алфавит из 5 символов, и вероятности их появления равны соответственно: = 0,7; = 0,2; = 0,08; p4= 0,015; ps = 0,005, то сколько информации содержится в сообщении из 20 символов? Какое количество информации будет в данном сообщении, если все символы равновероятны? Изображения с начальной информацией: примеры с лучшим качеством.
09.12.2023 18:25
Инструкция: Энтропия источника сообщений является мерой неопределенности или неожиданности сообщений, генерируемых источником. Она позволяет определить, сколько информации содержится в каждом символе, исходя из его вероятности появления.
Для решения задачи 13, нам даны вероятности появления символов на выходе источника сообщений: a a a a, 0,35 0,035 0,07 0,15 0,07 0,07 0,14 0,035 0,01 0,07. Чтобы вычислить энтропию источника сообщений, мы используем следующую формулу:
H(X) = - Σ P(X) * log2(P(X))
Где Σ обозначает сумму, P(X) - вероятность появления символа X на выходе.
Рассчитаем энтропию:
H(X) = - (0,35 * log2(0,35) + 0,035 * log2(0,035) + 0,07 * log2(0,07) + 0,15 * log2(0,15) + 0,07 * log2(0,07) + 0,07 * log2(0,07) + 0,14 * log2(0,14) + 0,035 * log2(0,035) + 0,01 * log2(0,01) + 0,07 * log2(0,07))
H(X) ≈ 2,2498 бит
Для задачи 14, где вероятности символов равны, вследствие этого, мы можем использовать формулу Шеннона-Хартли:
I(X) = log2(N)
Где I(X) - количество информации в сообщении из N символов.
I(X) = log2(5^20) ≈ 100 бит
Если все символы равновероятны, то количество информации в сообщении из 20 символов составляет примерно 100 бит.
Совет: Для более лучшего понимания энтропии и информации, рекомендуется ознакомиться с основами теории информации, вероятности и математической статистики.
Задание: Рассчитайте энтропию источника сообщений, если вероятности появления символов на выходе равны: 0,2 0,2 0,2 0,2 0,2.