как начать заново проходить курс, если уже пройдено несколько лекций со сданными тестами? |
Необходимые сведения о случайных величинах
5.2 Элементы теории информации
Кратко перечислим основные понятия, более подробное изложение можно найти в [1], [2], [3].
5.2.1 Энтропия
Количественной мерой неопределенности служит энтропия. Пусть задана дискретная случайная величина , принимающая значения с вероятностями соответственно.
Определение 5.10 Энтропия случайной величины определяется равенством:
где .
Свойства энтропии:
- .
Пример 5.3 [3] Пусть имеется три источника сообщений, которые порождают буквы и , иными словами, есть три случайные величины , принимающие значения и :
Вычисления дают: , бит, бит.
И мы видим, что неопределенность этих случайных величин разная.
Пусть двумерная случайная величина задана распределением
Определение 5.11 Энтропия двумерной случайной величины задаётся формулой:
Пусть имеются дискретные случайные величины и , заданные вероятностными распределениями , . Для них можно вычислить совместное распределение и условные распределения , для любых фиксированных значений , .
Определение 5.12 Условная энтропия задаётся формулой:
Определение 5.13 Условной энтропией двух вероятностных распределений называется усредненная (по всем величина :