A entropia da fonte de informação é função das probabilidade...

Próximas questões
Com base no mesmo assunto
Q348899 Engenharia de Telecomunicações
No que se refere à informação transmitida em um sistema de comunicação, julgue os itens seguintes.

A entropia da fonte de informação é função das probabilidades dos eventos dessa fonte e atinge o máximo na situação em que a fonte apresenta eventos equiprováveis.

Alternativas

Comentários

Veja os comentários dos nossos alunos

0 <= H <= log2 (K), onde K = nº de símbolos da fonte;

Ou seja:

Para H = 0 ---> incerteza mínima; 1 único símbolo deve ocorrer;

Para H = Log2 (K) --> incerteza máxima; símbolos equiprováveis;

Resposta: Certo

Quanto maior a possibilidade da informação se repetir, menor deve ser a quantidade de símbolos a ser utilizada por ela.

Exemplo : código Morse (baseado no idioma inglês) as letras mais utilizadas são E e T , sendo representado por apenas um símbolo , e a letras Y e Z menos utilizadas são representadas por 4 símbolos.

Clique para visualizar este comentário

Visualize os comentários desta questão clicando no botão abaixo