Магия Электроники

Теория информации


Основные понятия и определения

Информация – совокупность сведений о различных объектах, процессах, ситуациях, которая характеризует их с точки зрения тех или иных параметров, представляющих интерес для пользователя.

Любая информация возникает в результате каких-либо действий или опытов, которые производит получатель информации. Если после опыта получена информация, система становится более определенной. Исходную неопределенность можно рассматривать как энтропию. По определению Леона Бриллюэна, информация – мера снятой неопределенности. Полученная информация может полностью (полная информация) или частично (частичная информация) снимать неопределенность. Для получения полной информации нужно проделать несколько опытов.

Информация фиксируется получателем в виде понятных ему сигналов. Сигнал – некоторый материальный переносчик энергии, на который “нанесена” информация так, что она может быть воспринята получателем. Наиболее часто в качестве переносчика энергии в технических системах используется электрический переносчик в виде напряжения или тока (постоянного либо переменного). Информация “наносится” на такой источник путем соответствующей модуляции (амплитудной, фазовой, частотной, кодовой).

При создании технических систем впервые остро был поставлен вопрос о количестве информации.

Количественная мера информации, по Хартли

Количество информации, по Шеннону

Связь между энтропией источника и энтропией сигнала

Роль избыточности при передаче информации

Связанные источники сообщений (объединения)

Физические характеристики сигнала и канала связи

Связь между количеством информации в сигнале и его объемом

Пропускная способность систем передачи информации

Двоичный симметричный канал связи

К-ичный симметричный канал связи

Канал со стиранием



<<Назад Вверх Дальше >>

Hosted by uCoz