Формулы Хартли и Шеннона являются фундаментальными в теории информации, определяя способы измерения количества информации. Основное различие между ними заключается в том, как они учитывают вероятность наступления событий. 1. Формула Хартли Формула Хартли используется для систем, в которых все возможные состояния равновероятны. Она была предложена Ральфом Хартли в 1928 году. Математическая запись:
- — количество информации (в битах).
- — общее количество возможных равновероятных событий (состояний).
Особенности:
- Предполагает, что у каждого исхода одинаковый шанс на реализацию ( ). Отражает структурный подход: чем больше вариантов выбора, тем больше информации несет выбор одного из них. Применяется в идеализированных случаях, когда неопределенность распределена равномерно.
2. Формула Шеннона Клод Шеннон в 1948 году расширил подход Хартли, введя понятие информационной энтропии для систем, где события имеют разную вероятность появления. Математическая запись:
- — энтропия (среднее количество информации на один символ).
- — вероятность наступления -го события. — общее количество возможных событий.
Особенности:
- Учитывает «неожиданность» события: маловероятные события несут больше информации, чем часто повторяющиеся.
- Если одно из событий имеет вероятность 100%, энтропия равна нулю (информации нет, так как результат предсказуем).
- Является более универсальной и включает в себя формулу Хартли как частный случай.
Ключевые различия
| Характеристика | Формула Хартли | Формула Шеннона |
|---|---|---|
| Вероятность событий | Все события равновероятны. | События имеют разную вероятность. |
| Сложность системы | Описывает количество состояний. | Описывает неопределенность системы. |
| Область применения | Комбинаторика, простые системы кодирования. | Статистическая передача данных, сжатие информации. |
| Связь | Является частным случаем формулы Шеннона при . | Является обобщением формулы Хартли. |
Практический пример Представьте алфавит из 4 букв (А, Б, В, Г).
- По Хартли: Если каждая буква встречается с вероятностью 25%, то одна буква несет бита информации. По Шеннону: Если буква «А» встречается в 90% случаев, а остальные три — крайне редко, то среднее количество информации на букву будет значительно меньше 2 бит, так как появление «А» почти не устраняет неопределенность.
Я могу составить для вас таблицу расчета энтропии Шеннона для конкретных значений вероятностей, если вам нужно увидеть математическую разницу в цифрах.