Энтропия и степень неопределенности
Информатика

1. Какова энтропия события после получения одного из пяти сообщений, где вероятность получения первого сообщения

1. Какова энтропия события после получения одного из пяти сообщений, где вероятность получения первого сообщения составляет 0,3, второго — 0,2, третьего — 0,14, а вероятности получения четвертого и пятого сообщений равны?
2. Какова степень неопределенности (энтропия) опыта после реализации одного из шести событий, где вероятность первого события составляет 0,15, второго — 0,25, третьего — 0,2, четвертого — 0,12, пятого — 0,12, а шестого — 0,1?
3. Какова степень неопределенности (энтропия) в событии после приема одного из сообщений?
Верные ответы (1):
  • Пугающая_Змея_2360
    Пугающая_Змея_2360
    13
    Показать ответ
    Тема: Энтропия и степень неопределенности

    Объяснение: Энтропия - это мера степени неопределенности или случайности в наборе возможных результатов событий. Для расчета энтропии мы используем вероятности каждого возможного результата.

    1. Для задачи с получением одного из пяти сообщений, где вероятности различны, мы можем использовать формулу энтропии: H = -∑(p * log(p)), где p - вероятность каждого сообщения.

    Дано:
    p1 = 0,3 (вероятность первого сообщения)
    p2 = 0,2 (вероятность второго сообщения)
    p3 = 0,14 (вероятность третьего сообщения)
    p4 = p5 (вероятности четвертого и пятого сообщений равны)

    Расчет:
    H = -[(0,3 * log(0,3)) + (0,2 * log(0,2)) + (0,14 * log(0,14)) + (p4 * log(p4)) + (p5 * log(p5))]

    2. Для расчета степени неопределенности после реализации одного из шести событий также используется формула энтропии: H = -∑(p * log(p)), где p - вероятность каждого события.

    Дано:
    p1 = 0,15 (вероятность первого события)
    p2 = 0,25 (вероятность второго события)
    p3 = 0,2 (вероятность третьего события)
    p4 = 0,12 (вероятность четвертого события)
    p5 = 0,12 (вероятность пятого события)
    p6 = 0,1 (вероятность шестого события)

    Расчет:
    H = -[(0,15 * log(0,15)) + (0,25 * log(0,25)) + (0,2 * log(0,2)) + (0,12 * log(0,12)) + (0,12 * log(0,12)) + (0,1 * log(0,1))]

    3. Для расчета степени неопределенности (энтропии) после приема одного из сообщений, вам нужно знать вероятности каждого сообщения. Без указания конкретных вероятностей, невозможно провести расчет.

    Совет: Для лучшего понимания энтропии и степени неопределенности, рекомендуется изучить основы вероятности и информационной теории. Это поможет вам лучше осознать, как расчеты энтропии и степени неопределенности выполняются.

    Задача на проверку: Предположим, вы имеете 4 одинаковых монеты и 2 одинаковых кубика. Какова энтропия и степень неопределенности результата, если вы выбираете одну монету и один кубик случайным образом?
Написать свой ответ: