Энтропия источника сообщений
Информатика

13. Что такое энтропия источника сообщений, основываясь на предоставленной статистике распределения вероятностей

13. Что такое энтропия источника сообщений, основываясь на предоставленной статистике распределения вероятностей появления символов на выходе источника сообщений: a a a a, 0,35 0,035 0,07 0,15 0,07 0,07 0,14 0,035 0,01 0,07?

14. Если дан алфавит из 5 символов, и вероятности их появления равны соответственно: = 0,7; = 0,2; = 0,08; p4= 0,015; ps = 0,005, то сколько информации содержится в сообщении из 20 символов? Какое количество информации будет в данном сообщении, если все символы равновероятны? Изображения с начальной информацией: примеры с лучшим качеством.
Верные ответы (1):
  • Moroz
    Moroz
    18
    Показать ответ
    Тема занятия: Энтропия источника сообщений

    Инструкция: Энтропия источника сообщений является мерой неопределенности или неожиданности сообщений, генерируемых источником. Она позволяет определить, сколько информации содержится в каждом символе, исходя из его вероятности появления.

    Для решения задачи 13, нам даны вероятности появления символов на выходе источника сообщений: a a a a, 0,35 0,035 0,07 0,15 0,07 0,07 0,14 0,035 0,01 0,07. Чтобы вычислить энтропию источника сообщений, мы используем следующую формулу:

    H(X) = - Σ P(X) * log2(P(X))

    Где Σ обозначает сумму, P(X) - вероятность появления символа X на выходе.

    Рассчитаем энтропию:

    H(X) = - (0,35 * log2(0,35) + 0,035 * log2(0,035) + 0,07 * log2(0,07) + 0,15 * log2(0,15) + 0,07 * log2(0,07) + 0,07 * log2(0,07) + 0,14 * log2(0,14) + 0,035 * log2(0,035) + 0,01 * log2(0,01) + 0,07 * log2(0,07))

    H(X) ≈ 2,2498 бит

    Для задачи 14, где вероятности символов равны, вследствие этого, мы можем использовать формулу Шеннона-Хартли:

    I(X) = log2(N)

    Где I(X) - количество информации в сообщении из N символов.

    I(X) = log2(5^20) ≈ 100 бит

    Если все символы равновероятны, то количество информации в сообщении из 20 символов составляет примерно 100 бит.

    Совет: Для более лучшего понимания энтропии и информации, рекомендуется ознакомиться с основами теории информации, вероятности и математической статистики.

    Задание: Рассчитайте энтропию источника сообщений, если вероятности появления символов на выходе равны: 0,2 0,2 0,2 0,2 0,2.
Написать свой ответ: