Энтропия и степень неопределенности
Информатика

1. Какова энтропия количества белых шаров при извлечении двух шаров из урны, в которой находится два белых и один

1. Какова энтропия количества белых шаров при извлечении двух шаров из урны, в которой находится два белых и один черный шар?
2. Какова энтропия количества козырных карт при извлечении двух карт из колоды в 36 карт?
3. Какова степень неопределенности в опыте угадывания суммы очков на выброшенной кости из полного набора домино?
4. Какова энтропия количества тузов при извлечении трех карт из колоды с изображениями?
5. Какова дифференциальная энтропия для равномерного распределения?
6. Какова дифференциальная энтропия для показательного закона распределения, если известно, что случайная величина
Верные ответы (2):
  • Людмила
    Людмила
    68
    Показать ответ
    Суть вопроса: Энтропия и степень неопределенности

    Описание:
    1. Энтропия количества белых шаров при извлечении двух шаров из урны можно рассчитать с использованием формулы Шеннона:
    H(X) = -p1 * log2(p1) - p2 * log2(p2),
    где p1 и p2 - вероятности взять белый и черный шар соответственно. По условию задачи, вероятность взять белый шар равна 2/3, а вероятность взять черный шар равна 1/3. Подставив значения в формулу, получим:
    H(X) = -(2/3) * log2(2/3) - (1/3) * log2(1/3).

    2. Энтропия количества козырных карт при извлечении двух карт из колоды в 36 карт можно также вычислить с помощью формулы Шеннона. В данном случае, вероятность взять козырную карту равна количеству козырных карт в колоде (9) поделенное на общее количество карт в колоде (36):
    H(X) = -(9/36) * log2(9/36) - (27/36) * log2(27/36).

    3. Степень неопределенности в опыте угадывания суммы очков на выброшенной кости из полного набора домино можно рассчитать так:
    H(X) = -p1 * log2(p1) - p2 * log2(p2) - ... - p6 * log2(p6),
    где p1, p2, ..., p6 - вероятности выпадения каждой из сумм очков (в данном случае, от 2 до 12) соответственно. Вероятность выпадения каждой суммы очков можно определить, разделив число комбинаций, дающих данную сумму, на общее количество комбинаций (36).

    4. Энтропия количества тузов при извлечении трех карт из колоды с изображениями можно также вычислить с использованием формулы Шеннона. В данном случае, вероятность взять туза равна количеству тузов в колоде (4), поделенное на общее количество карт в колоде (52):
    H(X) = -(4/52) * log2(4/52) - (48/52) * log2(48/52).

    5. Дифференциальная энтропия для равномерного распределения вычисляется по формуле:
    H(X) = -∫[p(x) * log2(p(x))]dx,
    где p(x) - плотность вероятности равномерно распределенной случайной величины X.

    6. Дифференциальная энтропия для показательного закона распределения можно рассчитать по формуле:
    H(X) = ∫[p(x) * log2(p(x))]dx,
    где p(x) - плотность вероятности показательно распределенной случайной величины X.

    Например:
    1. Какова энтропия количества белых шаров при извлечении двух шаров из урны, в которой находится два белых и один черный шар?
    Ответ: Энтропия количества белых шаров будет равна -((2/3) * log2(2/3) + (1/3) * log2(1/3)).

    Совет:
    Для лучшего понимания понятия энтропии и степени неопределенности, рекомендуется изучить основные принципы теории информации и вероятности, а также формулы расчета энтропии для различных типов распределений.

    Задание для закрепления:
    Какова энтропия количества выпадения герба при подбрасывании справедливой монеты два раза подряд?
  • Донна
    Донна
    36
    Показать ответ
    Содержание вопроса: Энтропия и неопределенность

    1. Объяснение: Энтропия - это мера неопределенности или беспорядка в системе. Для расчета энтропии необходимо учитывать вероятности различных состояний системы.

    Для задачи с извлечением двух шаров из урны с двумя белыми и одним черным шаром, существует 3 возможных исхода:
    1) Белый шар, Белый шар.
    2) Белый шар, Черный шар.
    3) Черный шар, Белый шар.

    Теперь нам нужно вычислить энтропию. Для этого используется формула энтропии Шеннона: H = - Σ (pᵢ * log₂(pᵢ)), где pᵢ - вероятность i-го состояния.

    Вероятность каждого из трех состояний можно найти следующим образом:
    1) p₁ = (2/3) * (1/2) = 1/3
    2) p₂ = (2/3) * (1/2) = 1/3
    3) p₃ = (1/3) * (1/2) = 1/6

    Теперь, подставив значения в формулу, мы можем вычислить энтропию:
    H = - (1/3) * log₂(1/3) - (1/3) * log₂(1/3) - (1/6) * log₂(1/6)

    2. Объяснение: Для задачи с извлечением двух карт из колоды в 36 карт, нам необходимо учесть виды карт с козырными мастями (предположим, их 9) и не козырные карты (27 карт).

    Вероятность каждого из состояний можно найти таким же образом, как в предыдущем примере:
    1) p₁ = (9/36) * (8/35) = 2/35
    2) p₂ = (9/36) * (27/35) = 6/35
    3) p₃ = (27/36) * (9/35) = 6/35

    Вычисляем энтропию, используя формулу:
    H = - (2/35) * log₂(2/35) - (6/35) * log₂(6/35) - (6/35) * log₂(6/35)

    3. Объяснение: Степень неопределенности в этом случае зависит от количества очков, которые можно выбросить на игральной кости. Если кость имеет N граней, степень неопределенности будет равна log₂(N).

    4. Объяснение: В этой задаче нам нужно учесть извлечение трех карт с изображениями. Мы знаем, что в стандартной колоде есть 4 туза.

    Вероятность каждого из состояний:
    1) Ровно один туз: p₁ = (4/52) * (48/51) * (47/50) = 0.03
    2) Ровно два туза: p₂ = (4/52) * (3/51) * (48/50) = 0.0046
    3) Ровно три туза: p₃ = (4/52) * (3/51) * (2/50) = 0.0003

    Теперь можно вычислить энтропию:
    H = - 0.03 * log₂(0.03) - 0.0046 * log₂(0.0046) - 0.0003 * log₂(0.0003)

    5. Объяснение: Для равномерного распределения формула дифференциальной энтропии выглядит следующим образом: H = - Σ (p * log₂(p)), где p - вероятность каждого состояния.

    В случае равномерного распределения вероятность каждого состояния одинаковая, поэтому формула будет выглядеть так:
    H = - p * log₂(p), где p - вероятность каждого состояния (пример: 1/N для N возможных состояний).

    6. Объяснение: Для показательного закона распределения формула дифференциальной энтропии выглядит следующим образом: H = - Σ (p(x) * log₂(p(x))), где p(x) - вероятность события x.

    Для показательного закона распределения функция плотности вероятности имеет вид:
    p(x) = λ * exp(-λx), где λ - параметр.

    Подставляя это в формулу энтропии, получим:
    H = - λ * exp(-λx) * log₂(λ * exp(-λx))

    Совет: Для лучшего понимания энтропии и неопределенности, рекомендуется изучить основы вероятности и информационной теории. Это поможет уяснить концепции, используемые при расчете энтропии и понимании ее значения.

    Задание для закрепления: Вероятности выпадения каждой стороны кубика равны: 1/6, 1/6, 1/6, 1/6, 1/6, 1/6. Вычислите энтропию этого случая.
Написать свой ответ: