A entropia da fonte de informação é função das probabilidade...
Comentários
Veja os comentários dos nossos alunos
0 <= H <= log2 (K), onde K = nº de símbolos da fonte;
Ou seja:
Para H = 0 ---> incerteza mínima; 1 único símbolo deve ocorrer;
Para H = Log2 (K) --> incerteza máxima; símbolos equiprováveis;
Resposta: Certo
Quanto maior a possibilidade da informação se repetir, menor deve ser a quantidade de símbolos a ser utilizada por ela.
Exemplo : código Morse (baseado no idioma inglês) as letras mais utilizadas são E e T , sendo representado por apenas um símbolo , e a letras Y e Z menos utilizadas são representadas por 4 símbolos.
Clique para visualizar este comentário
Visualize os comentários desta questão clicando no botão abaixo