A entropia da fonte de informação é função das probabilidade...

Próximas questões
Com base no mesmo assunto
Q348899 Engenharia de Telecomunicações
No que se refere à informação transmitida em um sistema de comunicação, julgue os itens seguintes.

A entropia da fonte de informação é função das probabilidades dos eventos dessa fonte e atinge o máximo na situação em que a fonte apresenta eventos equiprováveis.

Alternativas

Gabarito comentado

Confira o gabarito comentado por um dos nossos professores

Gabarito: C (Certo)

Para compreendermos o tema central desta questão, é essencial entendermos o conceito de entropia na Teoria da Informação, proposta por Claude Shannon. A entropia é uma medida da incerteza associada a uma fonte de informação, ou seja, é um valor que nos diz o quão imprevisíveis são os dados emitidos por essa fonte.

A entropia é calculada como uma função das probabilidades dos eventos que ocorrem. Matematicamente, a entropia H(X) de uma fonte de informação X com eventos x1, x2, ..., xn e respectivas probabilidades p(x1), p(x2), ..., p(xn) é dada por:

H(X) = - Σ p(xi) log₂ p(xi)

Essa fórmula nos mostra que a entropia depende diretamente das probabilidades dos eventos.

Agora, vamos examinar a afirmação: a entropia atinge seu máximo quando todos os eventos possíveis são equiprováveis. Isso significa que cada evento tem a mesma probabilidade de ocorrer. Em um cenário onde há n eventos equiprováveis, a probabilidade de cada evento é 1/n. Nessa situação, a incerteza é máxima pois não há um evento mais provável que os outros, tornando mais imprevisível o resultado da emissão da fonte.

Portanto, a afirmação dada no enunciado está correta. A alternativa C está correta porque a entropia realmente atinge o máximo quando a fonte apresenta eventos equiprováveis.

Gostou do comentário? Deixe sua avaliação aqui embaixo!

Clique para visualizar este gabarito

Visualize o gabarito desta questão clicando no botão abaixo

Comentários

Veja os comentários dos nossos alunos

0 <= H <= log2 (K), onde K = nº de símbolos da fonte;

Ou seja:

Para H = 0 ---> incerteza mínima; 1 único símbolo deve ocorrer;

Para H = Log2 (K) --> incerteza máxima; símbolos equiprováveis;

Resposta: Certo

Quanto maior a possibilidade da informação se repetir, menor deve ser a quantidade de símbolos a ser utilizada por ela.

Exemplo : código Morse (baseado no idioma inglês) as letras mais utilizadas são E e T , sendo representado por apenas um símbolo , e a letras Y e Z menos utilizadas são representadas por 4 símbolos.

Clique para visualizar este comentário

Visualize os comentários desta questão clicando no botão abaixo