Чем отличается формула хартли от формулы шеннона?

Поляков Евгений Александрович

Учитель информатики высшей категории

Проверено учителем

Формулы Хартли и Шеннона являются фундаментальными в теории информации, определяя способы измерения количества информации. Основное различие между ними заключается в том, как они учитывают вероятность наступления событий. 1. Формула Хартли Формула Хартли используется для систем, в которых все возможные состояния равновероятны. Она была предложена Ральфом Хартли в 1928 году. Математическая запись: I=log2Ncap I equals log base 2 of cap N

  • Icap I — количество информации (в битах).
  • Ncap N — общее количество возможных равновероятных событий (состояний).

Особенности:

  • Предполагает, что у каждого исхода одинаковый шанс на реализацию ( P=1/Ncap P equals 1 / cap N). Отражает структурный подход: чем больше вариантов выбора, тем больше информации несет выбор одного из них. Применяется в идеализированных случаях, когда неопределенность распределена равномерно.

2. Формула Шеннона Клод Шеннон в 1948 году расширил подход Хартли, введя понятие информационной энтропии для систем, где события имеют разную вероятность появления. Математическая запись: H=i=1npilog2picap H equals negative sum from i equals 1 to n of p sub i log base 2 of p sub i

  • Hcap H — энтропия (среднее количество информации на один символ).
  • pip sub i — вероятность наступления ii-го события. nn — общее количество возможных событий.

Особенности:

  • Учитывает «неожиданность» события: маловероятные события несут больше информации, чем часто повторяющиеся.
  • Если одно из событий имеет вероятность 100%, энтропия равна нулю (информации нет, так как результат предсказуем).
  • Является более универсальной и включает в себя формулу Хартли как частный случай.

Ключевые различия

Характеристика Формула ХартлиФормула Шеннона
Вероятность событийВсе события равновероятны.События имеют разную вероятность.
Сложность системыОписывает количество состояний.Описывает неопределенность системы.
Область примененияКомбинаторика, простые системы кодирования.Статистическая передача данных, сжатие информации.
СвязьЯвляется частным случаем формулы Шеннона при pi=1/Np sub i equals 1 / cap N.Является обобщением формулы Хартли.

Практический пример Представьте алфавит из 4 букв (А, Б, В, Г).

  • По Хартли: Если каждая буква встречается с вероятностью 25%, то одна буква несет log24=2log base 2 of 4 equals 2 бита информации. По Шеннону: Если буква «А» встречается в 90% случаев, а остальные три — крайне редко, то среднее количество информации на букву будет значительно меньше 2 бит, так как появление «А» почти не устраняет неопределенность.

Я могу составить для вас таблицу расчета энтропии Шеннона для конкретных значений вероятностей, если вам нужно увидеть математическую разницу в цифрах.

Форма ответа

Ваш аватар